Keluarga korban penembakan di sekolah di kota terpencil di Pegunungan Rocky Kanada menggugat perusahaan kecerdasan buatan OpenAI di pengadilan federal Amerika Serikat, dengan tuduhan bahwa pembuat ChatGPT gagal memberi tahu polisi tentang interaksi yang memicu penembakan dengan chatbot.
Gugatan yang disampaikan pada hari Rabu atas nama Maya Gebala yang berusia 12 tahun, yang terluka parah dalam penembakan pada bulan Februari, adalah salah satu dari lebih dari dua lusin kasus yang disampaikan oleh keluarga di Tumbler Ridge, British Columbia, yang menurut pengacara mereka mewakili “seluruh komunitas yang melangkah maju untuk meminta pertanggungjawaban OpenAI”.
Cerita yang Direkomendasikan
daftar 4 barang
- daftar 1 dari 4Bagaimana AS dan Iran memainkan permainan kucing-dan-tikus kripto mengenai sanksi
- daftar 2 dari 4Apakah penyimpanan minyak Iran hampir penuh – dan apakah Iran harus mengurangi produksinya?
- daftar 3 dari 4Mata uang Iran jatuh ke titik terendah baru karena blokade dan sanksi AS berdampak pada perdagangan
- daftar 4 dari 4Panel Senat memajukan pencalonan Kevin Warsh sebagai ketua Fed AS
daftar akhir
Enam tuntutan hukum lain yang diajukan di pengadilan federal San Francisco menuduh adanya tuntutan kematian yang tidak wajar atas nama lima anak dan seorang pendidik yang terbunuh dalam penembakan massal paling mematikan di Kanada selama bertahun-tahun.
Kasus-kasus tersebut mewakili keluarga dari lima anak yang terbunuh yang menjadi sasaran penembakan di sekolah. Mereka termasuk Zoey Benoit, Abel Mwansa Jr, Ticaria “Tiki” Lampert, Kylie Smith, semuanya berusia 12 tahun, dan Ezekiel Schofield, 13, serta asisten pendidikan Shannda Aviugana-Durand.
Jesse Van Rootselaar, interaksinya dengan ChatGPT menjadi pusat tuntutan hukum, menembak ibu dan saudara tirinya di rumah sebelum membunuh seorang asisten pendidikan dan lima siswa berusia 12 hingga 13 tahun di bekas sekolahnya pada 10 Februari menurut polisi. Van Rootselaar, yang berusia 18 tahun, kemudian meninggal karena bunuh diri. Dua puluh lima orang juga terluka dalam serangan itu.
Seorang juru bicara OpenAI menyebut penembakan itu sebagai “tragedi” dan mengatakan bahwa perusahaan tersebut tidak memiliki kebijakan toleransi terhadap penggunaan alat-alatnya untuk membantu melakukan kekerasan.
“Seperti yang kami sampaikan kepada para pejabat Kanada, kami telah memperkuat upaya perlindungan kami, termasuk meningkatkan cara ChatGPT merespons tanda-tanda tekanan, menghubungkan masyarakat dengan dukungan lokal dan sumber daya kesehatan mental, memperkuat cara kami menilai dan meningkatkan potensi ancaman kekerasan, dan meningkatkan deteksi terhadap pelanggar kebijakan yang berulang,” kata juru bicara tersebut dalam pernyataan pernyataan sebuah.
CEO Sam Altman mengirim surat minggu lalu secara resmi meminta maaf kepada komunitas karena perusahaannya tidak memberi tahu penegak hukum tentang perilaku penembakan online tersebut.
Kasus-kasus tersebut merupakan bagian dari gelombang tuntutan hukum yang menuduh perusahaan-perusahaan kecerdasan buatan gagal mencegah interaksi chatbot yang menurut penggugat berkontribusi terhadap tindakan yang merugikan diri sendiri, penyakit mental, dan kekerasan. Mereka tampaknya menjadi orang pertama di AS yang menuduh ChatGPT berperan dalam memfasilitasi penghapusan massal.
Jay Edelson, yang mewakili penggugat, mengatakan dia berencana untuk mengajukan dua lusin tuntutan hukum lagi dalam beberapa minggu mendatang terhadap perusahaan tersebut atas nama pihak lain yang terkena dampak penembakan tersebut.
Menurut salah satu keluhan, sistem otomatis OpenAI pada bulan Juni 2025 menandai percakapan ChatGPT di mana penyerang menggambarkan adegan kekerasan senjata.
Keamanan dikesampingkan
Anggota tim keselamatan merekomendasikan untuk menghubungi polisi setelah menyimpulkan bahwa dia menimbulkan ancaman bahaya yang dapat dipercaya dan segera terjadi, kata pengaduan tersebut, mengutip artikel Wall Street Journal pada bulan Februari tentang diskusi internal perusahaan.
Namun Altman dan pimpinan OpenAI lainnya menolak tim keselamatan, dan polisi tidak pernah dihubungi, demikian tuduhan dalam tuntutan tersebut. Akun penembakan telah diaktifkan, tetapi dia dapat membuat akun baru dan terus menggunakan platform tersebut untuk merencanakan serangannya, kata gugatan tersebut.
Menyusul laporan Wall Street Journal, perusahaan tersebut mengatakan bahwa akun tersebut ditandai oleh sistem yang mengidentifikasi “penyalahgunaan model kami sebagai kelanjutan dari aktivitas kekerasan” namun tidak memenuhi kriteria internal untuk melaporkan kepada penegak hukum.
Tuntutan hukum tersebut menuduh “para korban tidak mengetahui hal ini karena OpenAI akan segera hadir, namun karena karyawannya sendiri yang membocorkannya ke The Wall Street Journal setelah mereka tidak dapat lagi menerima kesunyian perusahaan.”
Dalam sebuah blog yang diterbitkan pada hari Selasa, OpenAI mengatakan sedang melatih modelnya untuk menolak permintaan yang dapat “memungkinkan terjadinya kekerasan” dan memberi tahu penegak hukum ketika percakapan menunjukkan “risiko bahaya yang dapat terjadi dan dapat dipercaya terhadap orang lain”, dengan para ahli kesehatan mental membantu menilai kasus-kasus yang berada di ambang batas. Perusahaan mengatakan bahwa mereka terus menyempurnakan model dan metode deteksi berdasarkan penggunaan dan masukan para ahli.
Tuntutan hukum tersebut meminta ganti rugi dalam jumlah yang tidak ditentukan dan perintah pengadilan yang mewajibkan OpenAI untuk merombak praktik keselamatannya, termasuk protokol rujukan penegakan hukum wajib. Salah satu korban awalnya mengajukan gugatannya ke pengadilan Kanada tetapi menolaknya untuk mengajukan tuntutan di California, kata Edelson.
Tuntutan hukum tersebut menyusul kasus serupa yang diajukan di pengadilan negara bagian dan federal AS dalam beberapa bulan terakhir yang menuduh ChatGPT memfasilitasi perilaku berbahaya, bunuh diri, dan, setidaknya dalam satu kasus, pembunuhan-bunuh diri.
Kasus-kasus tersebut, yang masih dalam tahap awal, diharapkan dapat menguji peran platform AI dalam mendorong kekerasan dan apakah perusahaan dapat dimintai pertanggungjawaban atas tindakan pengguna. OpenAI membantah klaim tersebut, dengan alasan dalam kasus pembunuhan-bunuh diri bahwa pelakunya memiliki riwayat penyakit mental yang panjang.






