Jakarta, FORTUNE – Para ilmuwan yang memelopori penelitian dan pengembangan Teknologi AI (artificial intelligence) mulai khawatir manusia akan mulai kehilangan kendali atas teknologi kecerdasan buatan ini.
Menurut pemberitaan Fortune.com, belasan ilmuwan terkemuka dunia menandatangani surat terbuka yang menyerukan untuk menciptakan perlindungan yang lebih baik untuk memajukan AI.
"Hilangnya kendali manusia atau penggunaan sistem AI yang jahat ini dapat mengakibatkan bencana bagi seluruh umat manusia," demikian para ilmuwan dalam surat tersebut.
Para ilmuwan mengeklaim bahwa seiring dengan pesatnya kemajuan teknologi AI, setiap kesalahan atau penyalahgunaan dapat membawa konsekuensi yang serius bagi umat manusia. Untuk itu, mereka mendesak pemerintah dunia untuk bekerja sama mengatur teknologi tersebut sebelum terlambat, karena ‘bencana’ ini dapat terjadi kapan saja.
Di antara para ahli yang memohon pemerintah untuk bertindak atas keamanan AI adalah tiga pemenang penghargaan Turing, yakni Andrew Yao, mentor dari beberapa pengusaha teknologi paling sukses di Tiongkok; Yoshua Bengio, salah satu ilmuwan komputer yang paling banyak dikutip di dunia; dan Geoffrey Hinton, pengajar salah satu pendiri dan mantan kepala ilmuwan OpenAI, Ilya Sutskever.
Dalam surat tersebut, para ilmuwan memuji kerja sama internasional pada AI, seperti pertemuan Mei lalu antara para pemimpin dari AS dan Tiongkok di Jenewa untuk membahas risiko AI. Namun, mereka mengatakan lebih banyak kerja sama diperlukan.
“Secara kolektif, kita harus bersiap untuk menghindari risiko bencana yang dapat terjadi kapan saja,” demikian isi surat tersebut.
Langkah-langkah
Dalam surat tersebut, Fortune.com menuliskan bahwa para ilmuwan menguraikan langkah-langkah untuk segera mulai mengatasi risiko penggunaan AI yang jahat, sebagai berikut:
- Badan keselamatan AI pemerintah
Pemerintah perlu bekerja sama dalam tindakan pencegahan keselamatan AI. Beberapa ide ilmuwan tersebut termasuk mendorong negara-negara untuk mengembangkan otoritas AI khusus yang menanggapi ‘insiden’ dan risiko AI di dalam wilayah mereka. "Badan ini akan memastikan negara-negara mengadopsi dan menerapkan serangkaian langkah-langkah persiapan keselamatan yang efektif, termasuk pendaftaran model, pengungkapan, dan tripwire," begitu tulis meraka dalam surat tersebut. - Janji keselamatan para pengembang teknologi AI
Ide lainnya adalah mengharuskan pengembang untuk menjamin keamanan model mereka, dengan berjanji bahwa mereka tidak akan melewati batas bahaya. Pengembang akan bersumpah untuk tidak menciptakan AI, "yang dapat mereplikasi, meningkatkan, mencari kekuasaan, atau menipu penciptanya secara otonom, atau yang memungkinkan pembuatan senjata pemusnah massal dan melakukan serangan siber," tulis mereka. - Penelitian independen dan pemeriksaan teknologi pada AI
Proposal lainnya adalah membuat serangkaian dana verifikasi dan keamanan AI global, yang didanai oleh pemerintah, filantropis, dan perusahaan yang akan mensponsori penelitian independen untuk membantu mengembangkan pemeriksaan teknologi yang lebih baik pada AI.