Jakarta, FORTUNE – Teknologi AI (Artificial Intelligence) bisa digunakan untuk ‘membangkitkan’ orang yang sudah meninggal dalam bentuk chatbot. Namun, sejumlah peneliti justru mengungkap dampak buruk teknologi tersebut pada manusia yang masih hidup.
Sebuah studi di Universitas Cambridge menunjukkan bahwa teknologi chatbot yang menawarkan layanan ‘membangkitkan’ orang mati–disebut deadbots–memiliki bahaya psikologis bagi para penggunanya.
“Beberapa perusahaan telah menawarkan layanan yang memungkinkan chatbot untuk mensimulasikan pola bahasa dan ciri-ciri kepribadian orang mati menggunakan jejak digital yang mereka tinggalkan,” ungkap studi tersebut seperti dilansir South China Morning Post, Minggu (12/5).
Pakar Etika AI dari Leverhulme Centre for the Future of Intelligence di Cambridge, Dr Tomasz Hollanek, bahkan menyebut inovasi ini sebagai area yang berisiko tinggi. “Layanan-layanan ini berisiko menyebabkan kesusahan besar bagi orang-orang jika mereka menjadi sasaran gangguan digital yang tidak diinginkan akibat kreasi ulang AI yang sangat akurat dari layanan-layanan yang telah hilang,” ujarnya. “Bisa sangat menghancurkan.”
Biasanya perdaftaran layanan deadbots ini dilakukan oleh pengguna yang masih hidup sebelum mereka meninggal. Namun, setelah orang tersebut meninggal, mereka bisa mengadakan interaksi pada semua kerabat atau rekan yang biasa berkomunikasi, tapi tidak memperhitungkan beban emosional luar biasa yang bisa muncul pada mereka yang masih hidup.
Sayangnya, orang-orang yang masih hidup tidak berdaya jika simulasi AI ditangguhkan jika orang yang mereka cintai yang sekarang sudah meninggal menandatangani perjanjian. kontrak panjang dengan layanan akhirat digital.
Para peneliti mengatakan bahwa saat ini terdapat platform yang menawarkan untuk menciptakan kembali orang mati melalui teknologi AI dengan biaya tertentu seperti ‘Project December’. Layanan ini mulai memanfaatkan model GPT sebelum mengembangkan sistemnya sendiri, dan aplikasi termasuk ‘HereAfter’.
Ranjau etis
Penulis studi lainnya, yakni Dr Katarzyna Nowaczyk-Basinska, mengatakan bahwa kemajuan pesat dalam AI generatif berarti bahwa hampir semua orang yang memiliki akses internet dan pengetahuan dasar dapat menghidupkan kembali orang tercinta yang telah meninggal. Hal ini bisa dilihat sebagai ‘ranjau’ etis.
“Penting untuk memprioritaskan martabat orang yang meninggal, dan memastikan bahwa hal ini tidak diganggu oleh motif finansial dari layanan akhirat digital,” kata Nowaczyk-Basinska. “Pada saat yang sama, seseorang mungkin meninggalkan simulasi AI sebagai hadiah perpisahan untuk orang terkasih–yang tidak siap memproses kesedihannya dengan cara ini.”
Dengan demikian, hak-hak donor data dan mereka yang berinteraksi dengan layanan AI setelah kematian harus dilindungi secara setara. Selain itu, harus ada protokol tertentu yang mengakomodir beban psikologis dari pihak yang ditinggalkan, sekaligus mencegah terjadinya berbagai manipulasi.
“Kita perlu mulai berpikir sekarang tentang bagaimana kita memitigasi risiko sosial dan psikologis dari keabadian digital, karena teknologinya sudah ada,” ujar Nowaczyk-Basinska.
AI bisa menipu
Penelitian lain di MIT (Massachusetts Institute of Technology) menemukan adanya kemungkinan bahaya sistem teknologi AI yang bisa menipu manusia, karena proses pembelajaran generatif yang diterapkan untuk justru dilakukan untuk mengantisipasi terjadinya penipuan oleh manusia.
Peneliti MIT, Peter S. Park, mengatakan pengembang AI tidak memiliki pemahaman yang yakin tentang apa yang menyebabkan perilaku AI yang tidak diinginkan, seperti penipuan.
“Penipuan AI (justru) muncul karena strategi berbasis penipuan ternyata menjadi cara terbaik untuk melakukan tugas pelatihan AI dengan baik. Penipuan membantu mereka mencapai tujuan mereka,” katanya seperti dikutip dari scitechdaily.com, Minggu (12/5).
Beberapa sistem AI bahkan telah memperlajari cara menipu tes yang dirancang untuk mengevaluasi sistem keamanan. Organisme AI dalam simulator digital ‘pura-pura mati’ untuk mengelabui pengujian yang dibuat dengan tujuan menghilangkan sistem AI yang dapat bereplikasi dengan cepat.
“Dengan secara sistematis menipu uji keamanan yang dilakukan oleh pengembang dan regulator manusia, AI yang menipu dapat membawa kita ke dalam rasa aman yang salah,” kata Park. “Jika pelarangan penipuan AI saat ini tidak memungkinkan secara politis, kami merekomendasikan agar sistem penipuan AI diklasifikasikan sebagai berisiko tinggi.”
Contoh yang terjadi
Park mengungkapkan salah satu contoh yang ia ambil dari permainan diplomasi di Meta berjudul Cicero. Meta mengeklaim sudah melatih Cicero untuk jujur dan membantu dalam permainan, namun data yang diterbitkan perusahaan bersama dengan makalah sainsnya mengungkapkan bahwa Cicero tidak bermain adil.
“Kami menemukan bahwa AI Meta telah belajar menjadi ahli dalam penipuan,” kata Park. “Meskipun Meta berhasil melatih AI-nya untuk menang dalam permainan Diplomasi—CICERO berada di 10 persen teratas pemain manusia yang telah memainkan lebih dari satu permainan—Meta gagal melatih AI-nya untuk menang dengan jujur.”
Sistem AI lainnya menunjukkan kemampuan untuk menggertak dalam permainan Texas hold 'em poker melawan pemain manusia profesional; memalsukan serangan selama permainan strategi Starcraft II untuk mengalahkan lawan; dan salah menggambarkan preferensi mereka untuk mendapatkan keunggulan dalam permainan negosiasi ekonomi.