Lusinan pakar kecerdasan buatan (AI), termasuk CEO OpenAI, Google DeepMind, dan Anthropic, baru-baru ini menandatangani pernyataan terbuka yang dirilis oleh Center for AI Safety (CAIS).
Kami baru saja merilis pernyataan:
“Mengurangi risiko kepunahan AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.”
Penandatangan termasuk Hinton, Bengio, Altman, Hassabis, Song, dll.https://t.co/N9f6hs4bpa
(1/6)
— Dan Hendrycks (@DanHendrycks) 30 Mei 2023
Deklarasi mengandung satu kalimat:
“Mengurangi risiko kepunahan AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.”
Di antara tanda tangan dokumen itu adalah “siapa siapa” dari tokoh-tokoh AI, termasuk “Ayah baptis” AI, Geoffrey Hinton; Universitas California, Stuart Russell dari Berkeley; dan Lex Fridman dari Massachusetts Institute of Technology. Musisi Grimes juga merupakan salah satu penandatangan, terdaftar dalam kategori “tokoh terkenal lainnya”.
Terkait: Musisi Grimes bersedia ‘membagi 50% royalti’ untuk musik yang dihasilkan AI
Meskipun pernyataan tersebut mungkin tampak tidak berbahaya di permukaan, pesan yang mendasarinya agak kontroversial di komunitas AI.
Semakin banyak ahli yang percaya bahwa teknologi saat ini mungkin atau pasti akan mengarah pada kemunculan atau pengembangan sistem kecerdasan buatan yang mampu menimbulkan ancaman eksistensial bagi spesies manusia.
Pandangan mereka, bagaimanapun, ditentang oleh kontingen ahli dengan pendapat yang bertentangan secara diametris. Yann LeCun, kepala ilmuwan AI di Meta, misalnya diperhatikan dalam banyak kesempatan dia tidak serta merta percaya bahwa AI akan menjadi tidak terkendali.
AI manusia super sama sekali tidak berada di bagian atas daftar risiko eksistensial.
Sebagian besar karena itu belum ada.Sampai kita memiliki cetak biru dasar untuk AI tingkat anjing (apalagi tingkat manusia), membahas cara membuatnya aman masih terlalu dini. https://t.co/ClkZxfofV9
—Yann LeCun (@ylecun) 30 Mei 2023
Bagi dia dan orang lain yang tidak setuju dengan retorika “kepunahan”, seperti Andrew Ng, salah satu pendiri Google Brain dan mantan kepala ilmuwan di Baidu, AI bukanlah masalahnya, melainkan jawabannya.
Di sisi lain dari argumen tersebut, para ahli seperti Hinton dan Connor Leahy, CEO Conjecture, percaya bahwa AI tingkat manusia tidak dapat dihindari, dan oleh karena itu waktunya untuk bertindak adalah sekarang.
Kepala semua laboratorium AI utama telah menandatangani surat ini secara eksplisit mengakui risiko kepunahan AGI.
Sebuah langkah maju yang luar biasa, selamat kepada Dan atas pekerjaannya yang luar biasa dalam menyatukan semua ini dan terima kasih kepada semua penandatangan yang telah melakukan bagian mereka untuk masa depan yang lebih baik! https://t.co/KDkqWvdJcH
— Connor Leahy (@NPCollapse) 30 Mei 2023
Namun, tidak jelas tindakan mana yang memerlukan tanda tangan pada deklarasi tersebut. CEO dan/atau kepala AI dari hampir setiap perusahaan AI besar, serta ilmuwan terkenal dari seluruh dunia akademis, termasuk di antara mereka yang telah menandatangani kontrak, memperjelas bahwa tujuannya bukan untuk menghentikan pengembangan sistem yang berpotensi berbahaya ini.
Awal bulan ini, CEO OpenAI Sam Altman, salah satu penandatangan pernyataan tersebut, tampil pertama kali di depan Kongres selama sidang Senat untuk membahas regulasi AI. Kesaksiannya menjadi berita utama setelah dia menghabiskan sebagian besar waktunya mendesak anggota parlemen untuk mengatur industrinya.
Altman’s Worldcoin, sebuah proyek yang menggabungkan cryptocurrency dan bukti kepribadian, juga baru-baru ini beredar di media mengumpulkan $115 juta dalam pendanaan Seri Cmembawa total pendanaannya setelah tiga putaran menjadi $240 juta.