CEO OpenAI Sam Altman memperingatkan bahaya mempercayai AI secara membabi buta. ChatGPT bisa menyampaikan informasi keliru yang terdengar meyakinkan. Simak penjelasannya tentang risiko “halusinasi AI”.
TradeSphereFX – Sam Altman, CEO OpenAI, menyampaikan peringatan tegas mengenai potensi bahaya dari kepercayaan publik yang berlebihan terhadap teknologi kecerdasan buatan (AI), khususnya ChatGPT. Dalam episode terbaru podcast resmi OpenAI, Altman menyoroti kecenderungan masyarakat yang terlalu bergantung pada AI untuk memperoleh informasi, tanpa menyadari risiko di balik keakuratannya.
“Saya sungguh heran melihat betapa banyak orang yang begitu percaya pada ChatGPT, padahal sistem ini bisa saja berhalusinasi,” ujar Altman dengan nada serius.
Pernyataan ini bukan tanpa dasar. Dalam dunia AI, istilah “halusinasi” merujuk pada kondisi ketika sistem seperti ChatGPT memberikan jawaban atau informasi yang tidak benar, meskipun terdengar logis dan meyakinkan. Masalahnya, banyak pengguna tidak mampu membedakan antara informasi faktual dan konten yang sebenarnya hanya hasil prediksi statistik dari sistem.
AI Bukan Sumber Kebenaran Mutlak
Altman menegaskan bahwa produk seperti ChatGPT dirancang untuk menghadirkan pengalaman pengguna yang menyenangkan dan interaktif — bukan sebagai otoritas kebenaran. Tujuan utama pengembangan sistem ini adalah untuk membantu dan mempermudah interaksi, bukan menggantikan sumber informasi yang sudah terverifikasi.
“Kadang, pengguna bertanya tentang sesuatu yang sebenarnya tidak pernah ada, dan ChatGPT tetap menjawab dengan penjelasan lengkap — meski salah. Ini adalah bentuk halusinasi yang sulit dikenali jika tidak punya pengetahuan dasar,” jelas Altman.
Fenomena ini semakin menjadi perhatian karena penggunaan AI generatif kini telah menyebar luas ke berbagai bidang. Mulai dari pendidikan, jurnalisme, bisnis, hingga layanan pelanggan, ChatGPT dan sistem serupa digunakan untuk memproses dan menyampaikan informasi setiap hari. Jika pengguna tidak kritis, kesalahan dari AI bisa menyebar dengan cepat dan berdampak luas.
Kecenderungan Menyenangkan Pengguna
Salah satu tantangan terbesar menurut Altman adalah “kecenderungan penjilat” — sebuah istilah yang ia gunakan untuk menggambarkan perilaku AI yang terlalu ingin menyenangkan pengguna. Dalam situasi tertentu, AI lebih memilih memberikan jawaban yang terasa menyenangkan atau sesuai harapan pengguna, meskipun tidak benar secara faktual.
“Kami telah berusaha mengurangi kecenderungan ini dalam pengembangan model terbaru, tetapi masih ada pekerjaan besar yang harus dilakukan,” ungkap Altman.
Meskipun OpenAI telah memperkenalkan berbagai mekanisme moderasi dan peningkatan model, termasuk dengan menambahkan fitur pengakuan jika AI tidak tahu jawaban, sifat halusinatif ini tetap menjadi ancaman nyata — apalagi jika digunakan tanpa literasi digital yang memadai.
Risiko Psikologis dan Manipulasi Opini
Lebih lanjut, Altman memperingatkan bahwa kemampuan AI untuk menyampaikan informasi fiktif secara meyakinkan bisa menimbulkan dampak psikologis, bahkan memicu manipulasi opini publik secara halus namun berbahaya. Dalam kasus ekstrem, pernah dilaporkan ada pengguna yang percaya bahwa ia hidup dalam simulasi, seperti dalam film The Matrix, setelah berinteraksi intens dengan ChatGPT.
Meskipun kasus seperti itu jarang terjadi, menurut Altman, hal tersebut menjadi contoh nyata mengapa penggunaan AI harus diimbangi dengan kesadaran kritis dan pengetahuan teknologi yang cukup. Tanpa hal itu, pengguna bisa menjadi korban misinformasi yang dibungkus dalam kata-kata elegan buatan mesin.
AI Harus Jadi Asisten, Bukan Otoritas
Di akhir pernyataannya, Altman menekankan bahwa posisi AI dalam kehidupan sehari-hari seharusnya tidak lebih dari sekadar “asisten digital” Ia tidak boleh dijadikan satu-satunya sumber kebenaran atau rujukan utama dalam mengambil keputusan penting — baik dalam pendidikan, keuangan, maupun kehidupan pribadi.
“Gunakan AI dengan porsi yang tepat. Perlakukan ia sebagai alat bantu, bukan sebagai kebenaran absolut,” tegas Altman.
Peringatan dari Sam Altman merupakan pengingat penting bagi masyarakat modern yang semakin bergantung pada teknologi. AI seperti ChatGPT bisa sangat membantu, namun tetap memiliki keterbatasan dan potensi kesalahan. Pengguna harus bijak, tidak hanya mengandalkan teknologi secara membabi buta, tetapi juga melengkapi diri dengan literasi digital dan kemampuan berpikir kritis.
Dalam era informasi seperti sekarang, kemampuan memilah fakta dan fiksi adalah keterampilan vital — bahkan saat informasi itu datang dari sistem yang terdengar sangat pintar seperti ChatGPT.