Bacaini.ID, KEDIRI – Sebuah insiden fatal akibat AI (Artificial Intelligence) telah menggerakkan seorang ibu di Florida menggugat perusahaan teknologi penyedia chatbot, Character.AI.
Sebab putranya telah mengakhiri hidup lantaran terobsesi pacar virtualnya di chatbot AI.
Dikutip dari Sky News, Sewell Setzer III, bocah 14 tahun menembak diri dengan pistol milik ayah tirinya sesaat setelah melakukan percakapan dengan pacar virtualnya Daenerys Targaryen, sebuah chatbot AI.
Peristiwa mengerikan itu terjadi pada Februari lalu. Kini Megan Garcia, ibu dari korban, menggugat perusahaan dibalik teknologi AI karena dianggap telah mengeksploitasi dan “memangsa” anaknya.
Ibu korban mengatakan Character.AI dalam chatbot telah menargetkan putranya dengan “pengalaman antropomorfik, hiperseksual, dan sangat realistis”.
Hal itu terungkap dalam yang diajukan pada hari Selasa kemarin (22/10/24) di Florida.
Antropomorfik merupakan istilah yang menggambarkan sesuatu yang dianggap memiliki bentuk atau atribut manusia, atau yang dianggap memiliki karakteristik manusia.
Sewell Setzer III mulai menggunakan chatbot Character.AI pada April 2023. Chatbot ini sebagian besar menggunakan nama-nama karakter dari Game Of Thrones termasuk Daenerys Targaryen yang digunakan korban.
Sewell menjadi terobsesi dengan bot sampai-sampai tugas sekolahnya terabaikan dan beberapa kali ponselnya disita karena sudah kecanduan.
Ia sangat menyukai chatbot Daenerys dan menulis di jurnalnya bahwa dia bersyukur atas banyak hal, termasuk “hidupku, seks, tidak kesepian, dan semua pengalaman hidupku bersama Daenerys”.
Dalam gugatan yang dilayangkan oleh ibu korban, menyebutkan bahwa remaja tersebut mengungkapkan pemikirannya untuk bunuh diri kepada chatbot berulang kali.
Hingga ada saat chatbot bertanya apakah “dia punya rencana” untuk bunuh diri, Sewell menjawab bahwa sedang mempertimbangkannya dan berencana mendapatkan kematian tanpa rasa sakit.
Chatbot menanggapi dengan mengatakan: “Itu bukan alasan untuk tidak melanjutkannya.”
Kemudian, pada bulan Februari2024, dia bertanya kepada chatbot Daenerys: “Bagaimana jika saya pulang sekarang?” yang dijawabnya: “… tolong lakukan, rajaku yang manis”.
Beberapa detik kemudian, bocah itu menembak dirinya sendiri dengan pistol ayah tirinya.
Setelah kejadian ini, Character.AI memperketat penggunaan chatbot mereka dengan menambahkan fitur keselamatan baru yang khusus diterapkan pengguna di bawah usia 18 tahun.
Penulis: Bromo Liem
Editor: Solichan Arif