PARIS, 27 Jun — Amaran datang dari semua sudut: kecerdasan buatan (AI) menimbulkan risiko kewujudan kepada manusia dan mesti dibelenggu sebelum terlambat.
Tetapi apakah senario bencana ini dan bagaimana mesin sepatutnya menghapuskan manusia?
Klip kertas azab
Kebanyakan senario bencana bermula di tempat yang sama: mesin akan mengatasi kapasiti manusia, terlepas daripada kawalan manusia dan enggan dimatikan.
“Sebaik sahaja kami mempunyai mesin yang mempunyai matlamat pemeliharaan diri, kami menghadapi masalah,” ahli akademik AI Yoshua Bengio memberitahu satu acara bulan ini.
Tetapi kerana mesin ini belum wujud, membayangkan bagaimana ia boleh membinasakan manusia sering diserahkan kepada falsafah dan fiksyen sains.
Ahli falsafah Nick Bostrom telah menulis tentang “letupan kecerdasan” yang katanya akan berlaku apabila mesin superintelligent mula mereka bentuk mesin mereka sendiri.
Dia menggambarkan idea itu dengan kisah AI superintelligent di sebuah kilang klip kertas.
AI diberi matlamat akhir untuk memaksimumkan keluaran klip kertas dan seterusnya “meneruskan dengan menukar Bumi dahulu dan kemudian semakin besar ketulan alam semesta yang boleh diperhatikan menjadi klip kertas”.
Idea Bostrom telah ditolak oleh ramai orang sebagai fiksyen sains, tidak kurang juga kerana dia secara berasingan berpendapat bahawa kemanusiaan adalah simulasi komputer dan menyokong teori yang hampir dengan eugenik.
Dia juga baru-baru ini memohon maaf selepas mesej perkauman yang dihantarnya pada 1990-an dibongkar.
Namun pemikirannya tentang AI telah sangat berpengaruh, memberi inspirasi kepada Elon Musk dan Profesor Stephen Hawking.
Terminator
Jika mesin superintelligent ingin memusnahkan manusia, mereka pasti memerlukan bentuk fizikal.
Cyborg bermata merah Arnold Schwarzenegger, dihantar dari masa depan untuk menamatkan rintangan manusia oleh AI dalam filem Terminatortelah membuktikan imej yang menggoda, terutamanya untuk media.
Tetapi pakar telah menolak idea itu.
“Konsep fiksyen sains ini tidak mungkin menjadi kenyataan dalam dekad yang akan datang jika pernah sama sekali,” kumpulan kempen Stop Killer Robots menulis dalam laporan 2021.
Bagaimanapun, kumpulan itu telah memberi amaran bahawa memberi mesin kuasa untuk membuat keputusan mengenai hidup dan mati adalah risiko yang wujud.
Pakar robot Kerstin Dautenhahn, dari Universiti Waterloo di Kanada, mengecilkan ketakutan itu.
Dia memberitahu AFP bahawa AI tidak mungkin memberikan mesin keupayaan penaakulan yang lebih tinggi atau menyemai mereka dengan keinginan untuk membunuh semua manusia.
“Robot tidak jahat,” katanya, walaupun dia mengakui pengaturcara boleh membuat mereka melakukan perkara jahat.
Bahan kimia yang lebih mematikan
Senario sci-fi yang kurang terang-terangan melihat “pelakon jahat” menggunakan AI untuk mencipta toksin atau virus baharu dan melepaskannya ke dunia.
Model bahasa yang besar seperti GPT-3, yang digunakan untuk mencipta ChatGPT, ternyata sangat bagus untuk mencipta agen kimia baru yang mengerikan.
Sekumpulan saintis yang menggunakan AI untuk membantu menemui ubat baharu menjalankan eksperimen di mana mereka mengubah AI mereka untuk mencari molekul berbahaya sebaliknya.
Mereka berjaya menjana 40,000 agen berpotensi beracun dalam masa kurang daripada enam jam, seperti yang dilaporkan dalam jurnal Nature Machine Intelligence.
Pakar AI, Joanna Bryson dari Hertie School di Berlin berkata, dia boleh membayangkan seseorang melakukan cara untuk menyebarkan racun seperti antraks dengan lebih cepat.
“Tetapi ia bukan ancaman wujud,” katanya kepada AFP. “Ia hanya senjata yang mengerikan dan mengerikan.”
Spesies diambil alih
Peraturan Hollywood menentukan bahawa bencana zaman mesti berlaku secara tiba-tiba, besar dan dramatik — tetapi bagaimana jika pengakhiran manusia lambat, tenang dan tidak muktamad?
“Pada penghujung yang paling suram, spesies kita mungkin akan berakhir tanpa pengganti,” kata ahli falsafah Huw Price dalam video promosi untuk Pusat Kajian Risiko Kewujudan Universiti Cambridge.
Tetapi dia berkata terdapat “kemungkinan yang kurang suram” di mana manusia ditambah dengan teknologi canggih boleh bertahan.
“Spesies biologi semata-mata akhirnya akan berakhir, kerana tiada manusia di sekeliling yang tidak mempunyai akses kepada teknologi yang membolehkan ini,” katanya.
Kiamat yang dibayangkan sering dirangka dalam istilah evolusi.
Stephen Hawking berhujah pada tahun 2014 bahawa akhirnya spesies kita tidak lagi dapat bersaing dengan mesin AI, memberitahu BBC ia boleh “mengeja akhir umat manusia”.
Geoffrey Hinton, yang menghabiskan kerjayanya membina mesin yang menyerupai otak manusia, akhir-akhir ini untuk Google, bercakap dalam istilah “kecerdasan super” yang serupa hanya mengatasi manusia.
Beliau memberitahu penyiar AS PBS baru-baru ini bahawa ada kemungkinan “kemanusiaan hanyalah fasa berlalu dalam evolusi kecerdasan”. — AFP