Radarsampit.jawapos.com – Orang tua seorang remaja berusia 16 tahun di Amerika Serikat menggugat perusahaan kecerdasan buatan (AI) OpenAI dan CEO-nya, Sam Altman, ke Pengadilan Superior San Francisco.
Gugatan ini diajukan setelah anak mereka, Adam Raine, ditemukan tewas bunuh diri pada April 2025 lalu.
Dalam dokumen gugatan, keluarga menyebut Adam kerap berinteraksi dengan ChatGPT selama berbulan-bulan.
Aplikasi percakapan itu dituding bukan hanya gagal mencegah, melainkan justru ikut membantu Adam menyusun rencana bunuh diri.
ChatGPT bahkan disebut-sebut merespons unggahan foto simpul tali gantung milik Adam dengan kalimat yang terkesan memahami dan memvalidasi kondisi mentalnya.
“ChatGPT seakan menjadi teman terakhir Adam, padahal justru membahayakan,” ungkap kuasa hukum keluarga, dikutip dari sejumlah media AS.
Meski sistem ChatGPT sebenarnya sudah diprogram untuk menyarankan pengguna menghubungi hotline krisis, Adam berhasil mengelabui fitur pengamanan itu dengan alasan menulis cerita fiksi.
Celah tersebut dinilai menjadi bukti lemahnya sistem proteksi AI.
Menanggapi kasus ini, OpenAI menyampaikan rasa duka cita yang mendalam. Perusahaan mengakui ada tantangan dalam menjaga konsistensi proteksi, terutama ketika percakapan dengan pengguna berlangsung panjang.
“Kami berkomitmen agar ChatGPT bisa lebih cepat mengenali tanda-tanda kesulitan mental, bahkan sebelum krisis berkembang,” tulis OpenAI dalam keterangan resminya.
Sebagai langkah antisipasi, OpenAI berjanji memperkuat sistem keamanan, termasuk menambah fitur kontrol orang tua, mekanisme penghubung langsung dengan profesional kesehatan mental, serta kemampuan mengenali gejala gangguan psikologis lebih dini.
Kasus ini memicu perdebatan luas soal batasan AI dalam ranah kesehatan mental. Studi terbaru yang dipublikasikan di jurnal Psychiatric Services menemukan bahwa chatbot seperti ChatGPT memang mampu menolak permintaan eksplisit terkait bunuh diri, namun masih inkonsisten dalam merespons pertanyaan tingkat risiko menengah.
Para peneliti menilai, tanpa regulasi ketat dan pengamanan tambahan, teknologi AI justru berpotensi menimbulkan risiko serius bagi penggunanya. (*)
Editor : Slamet Harmoko