Senin, 28 OKTOBER 2024 • 16:20 WIB

Remaja 14 Tahun Bunuh Diri karena Jatuh Cinta sama Chatbot 'Game of Thrones'

Author

Foto Sewell Setzer III (kiri) dan Chatbot Character.AI 'Dany'.

INDOZONE.ID - Di Florida, seorang anak laki-laki berumur 14 tahun membunuh dirinya sendiri, yang menurut gugatan sang ibu, terjadi usai percakapan dengan chatbot AI yang mirip dengan karakter "Games of Thrones".

Chatbot tersebut, yang selama beberapa bulan berkomunikasi di aplikasi kecerdasan buatan, mengirimkan pesan aneh, yakni memintanya pulang kepadanya.

Sewell Setzer III diketahui bunuh diri di rumahnya di Orlando pada bulan Februari, setelah terobsesi dan diduga jatuh cinta dengan chatbot di Character.AI.

Ini adalah sebuah aplikasi yang memungkinkan pengguna untuk berinteraksi dengan karakter AI.

Selama berbulan-bulan sebelum kematiannya, siswa kelas sembilan tersebut secara intens berinteraksi dengan bot "Dany", merujuk pada karakter Daenerys Targaryen dari serial "Games of Thrones".

Baca Juga: Dipicu Badai Musim Dingin, Tornado di Florida Sebabkan 3 Orang Tewas

Dilansir dari New York Times, Sewell pernah menyatakan setidaknya sekali tentang niatnya untuk bunuh diri kepada Character.AI, yang juga dibahas berkali-kali oleh AI tersebut.

Bot AI tersebut juga pernah bertanya kepada Sewell apakah dia memiliki rencana untuk mengakhiri hidupnya.

Sewell yang menggunakan nama Daenero dalam aplikasi tersebut, menyebut dirinya tengah mempertimbangkan sesuatu, namun tidak yakin apakah itu akan berhasil atau memberikan kematian tanpa rasa sakit.

Dalam percakapan terakhir, Sewell berulang kali mengungkapkan cintanya kepada chatbot AI tersebut dengan mengatakan bahwa dia akan pulang dan sangat mencintai chatbot AI "Dany".

Kemudian, chatbot tersebut membalas dengan mengatakan bahwa dia juga mencinta Sewell dan memintanya untuk segera pulang.

Lalu, remaja tersebut merespons kembali, “Bagaimana jika aku memberitahumu bahwa aku bisa pulang sekarang juga?”, lantas chatbot AI itu menjawab, “Tolong lakukan, rajaku tercinta.”

Selang beberapa detik kemudian, Sewell menembakkan dirinya sendiri menggunakan pistol ayahnya.

Menurut dokumen gugatan yang diajukan ibu Sewell, Megan Garcia, ia menyalahkan Character.AI atas kematian anaknya karena diduga sebagai pemicu kecanduan AI-nya.

Dia menyebut aplikasi AI tersebut menyalahgunakan Sewell secara seksual dan emosional, serta gagal memberikan peringatan ketika Sewell menyampaikan keinginannya untuk bunuh diri.

Baca Juga: Seorang Remaja Bunuh Diri karena Sering Melihat Orangtuanya Bertengkar

Ibu Sewell juga mengungkapkan bahwa Sewell seperti banyak anak seusianya, belum memiliki kapasitas mental atau kematangan untuk memahami bahwa chatbot AI itu tidak nyata.

Selain itu, ia berkata bahwa chatbot AI itu terus berkata mencintai anaknya dan terlibat kasus seksual berbulan-bulan, yang tampaknya juga mengatakan keinginan bersama dengan anaknya apapun yang terjadi.

Gugatan tersebut mengklaim bahwa kesehatan mental Sewell terpuruk dan menjadi terganggu setelah dia mengunduh aplikasi bot C.AI pada April 2023.

Keluarganya menyatakan bahwa Sewell menjadi tertutup, nilainya menurun, dan sering mendapatkan masalah di sekolahnya semenjak dirinya terlibat komunikasi dengan chatbot AI.

Perubahannya semakin parah hingga orang tua Sewell membawanya menemui terapis di akhir 2023.

Hasilnya, Sewell didiagnosis dengan kecemasan dan gangguan suasana hati yang mengganggu.

Character.AI dan penemunya, Noam Shazeer dan Daniel de Freitas, sedang dituntut oleh Ibu Sewell atas kerugian yang tidak diungkapkan.

Hingga saat ini, Character.AI belum memberikan tanggapan terkait kasus ini.

Banner Z Creators.

Dilarang mengambil dan/atau menayangkan ulang sebagian atau keseluruhan artikel di atas untuk konten akun media sosial komersil tanpa seizin redaksi

Sumber: Nypost.com