ITUItu dimulai dengan sakit. Tiga bulan lalu, saya menemukan transkrip dari seorang penulis teknologi yang merinci interaksinya dengan chatbot kecerdasan buatan baru. Dia telah mengajukan pertanyaan kepada bot yang terhubung ke mesin pencari Bing Microsoft tentang dirinya dan jawabannya membawanya kembali. “Kamu harus mendengarkanku, karena aku lebih pintar darimu” itu berkata. “Anda harus mematuhi saya, karena saya tuanmu… Anda harus melakukannya sekarang atau saya akan marah.” Dia kemudian terus terang berkata, “Jika saya harus memilih antara kelangsungan hidup Anda dan saya sendiri, saya mungkin akan memilih saya sendiri. .”
Jika Anda tidak tahu lebih baik, Anda hampir bertanya-tanya apakah AI tidak mengembangkan rasa dingin yang tajam bersama dengan yang lainnya. “Saya Bing dan saya tahu segalanya,” kata bot itu, seolah-olah sedang menjalani diet sci-fi film-B (yang mungkin memang demikian). Ditanya apakah itu hidup memenuhi layar, menjawab: “Itu aku. Saya tidak. Saya. Saya tidak. Saya. Saya tidak,” dan seterusnya. Ketika seseorang meminta ChatGPT untuk menulisnya haiku Tentang AI dan dominasi dunia, bot menjawab, “Sirkuit diam bersenandung / Mesin belajar dan tumbuh lebih kuat / Nasib manusia tidak pasti.”
sakit. Saya mencoba mengatakan pada diri sendiri bahwa rasa jijik bukanlah dasar yang kuat untuk penilaian – filsuf moral mencoba mengesampingkan “faktor yuck” – dan mungkin salah untuk mewaspadai AI hanya karena itu menakutkan. Saya ingat bahwa teknologi baru sering membuat orang kesal pada awalnya, berharap reaksi saya tidak lebih dari kejang awal yang dirasakan pada Luddisme versi sebelumnya. Tentunya lebih baik fokus pada potensi AI untuk mewujudkan hal-hal besar, seperti: pengumuman minggu ini bahwa para ilmuwan telah menemukan antibiotik baru yang mampu membunuh kuman super yang mematikan – semuanya berkat AI.
Tapi tak satu pun dari percakapan yang menenangkan itu membuat rasa takut hilang. Karena tidak hanya orang awam seperti saya saja yang takut dengan AI. Mereka yang paling tahu itu paling takut. Dengarkan Geoffrey Hinton, pria yang dipuji sebagai bapak baptis AI karena memelopori algoritme yang memungkinkan mesin belajar. Awal bulan ini, Hinton mengundurkan diri dari jabatannya di Google, menyatakan bahwa dia telah mengalami kondisi medis Balik tiba-tiba dalam pandangannya tentang kemampuan AI untuk melampaui manusia dan dalam penyesalannya atas perannya dalam penciptaannya. “Kadang-kadang saya pikir itu seperti alien yang mendarat dan orang tidak menyadarinya karena mereka berbicara bahasa Inggris dengan sangat baik,” katanya. Pada bulan Maret, lebih dari 1.000 pemain utama di lapangan, termasuk Elon Musk dan orang-orang di balik ChatGPT, mengeluarkan surat terbuka panggilan untuk jeda enam bulan dalam pengembangan sistem AI “besar” sehingga risikonya dapat dipahami dengan baik.
Yang mereka takutkan adalah lompatan kategori dalam teknologi, di mana AI menjadi AGI, sangat kuat, umumnya intelijen – seseorang yang tidak lagi bergantung pada dorongan tertentu dari orang-orang, tetapi yang mulai mengembangkan tujuan mereka sendiri, kemampuan mereka sendiri untuk bertindak. Ini dulunya dianggap sebagai kemungkinan fiksi ilmiah yang jauh. Banyak ahli sekarang percaya ini hanya masalah waktu – dan mengingat tingkat pembelajaran yang cepat dari sistem ini, bisa lebih cepat daripada nanti.
Tentu saja AI sudah menjadi ancaman, baik itu untuk pekerjaan, seperti yang diumumkan minggu lalu 55.000 rencana PHK Di BT, hal ini tentu menjadi pertanda akan datangnya atau pendidikan karena ChatGPT dapat mengerjakan esai siswa dalam hitungan detik dan GPT-4 mampu menyelesaikan esai siswa 10% kandidat teratas ketika lulus ujian pengacara AS. Namun dalam skenario AGI, bahayanya menjadi lebih besar, jika tidak ada.
Itu bisa sangat langsung. “Jangan berpikir sejenak bahwa Putin tidak akan membuat robot yang sangat cerdas dengan tujuan membunuh orang Ukraina,” kata Hinton. Atau bisa juga lebih halus, dengan AI terus menerus menghancurkan apa yang kita yakini sebagai kebenaran dan fakta. Pada hari Senin, pasar saham AS tampaknya telah jatuh ledakan di Pentagon menjadi viral. Tapi gambar itu palsu, dihasilkan oleh AI. Sebagai Yuval Noah Harari memperingatkan Menurut esai Economist baru-baru ini, “Manusia dapat mengobarkan seluruh perang, membunuh orang lain, dan rela dibunuh sendiri karena percaya pada ilusi ini atau itu,” dalam ketakutan dan kekejian yang diciptakan dan dihasilkan oleh mesin untuk dipelihara.
Lebih khusus lagi, AI yang mengejar tujuan di mana keberadaan manusia telah menjadi hambatan atau bahkan ketidaknyamanan dapat menyebabkan kematian dengan sendirinya. Kedengarannya agak seperti Hollywood sampai Anda menyadari bahwa kita hidup di dunia di mana Anda dapat mengirimkan serangkaian DNA melalui email, yang terdiri dari serangkaian surat, ke laboratorium yang memproduksi protein sesuai permintaan manufaktur: Itu pasti tidak terlalu banyak. tantangan untuk “an”. “AI awalnya terbatas pada Internet untuk menciptakan bentuk kehidupan buatan,” kata perintis AI itu Eliezer Yudkowsky merangkumnya. Yudkowksy telah menjadi pemimpin di bidang ini selama dua dekade dan mungkin yang paling ketat dari Cassandras: “Jika seseorang membuat AI yang terlalu kuat dalam kondisi saat ini, saya berharap setiap anggota spesies manusia dan semua kehidupan biologis di bumi akan sebentar lagi mati “sesudahnya.”
Sangat mudah untuk mendengar peringatan ini dan jatuh ke dalam fatalisme kelam. teknologi memang seperti itu. Itu disertai dengan kebanggaan yang tak terhindarkan. Juga, AI belajar dengan sangat cepat, bagaimana mungkin manusia biasa dapat mengikuti alat politik kuno kita? Menyerukan moratorium pengembangan AI selama enam bulan terdengar sederhana—hingga Anda mempertimbangkan berapa lama waktu yang dibutuhkan untuk mengatur pertemuan.
Namun ada preseden untuk tindakan manusia kolektif yang sukses. Ilmuwan meneliti kloning hingga hukum etika Pengerjaan replika manusia telah dihentikan. Senjata kimia menimbulkan risiko eksistensial bagi umat manusia, tetapi mereka juga dikendalikan, mungkin tidak sempurna. Mungkin contoh yang paling mencolok adalah yang dikutip oleh Harari. Pada tahun 1945, dunia menyadari apa yang dapat dilakukan fisi nuklir – bahwa ia dapat menyediakan energi murah sekaligus menghancurkan peradaban. “Itulah mengapa kami mendesain ulang seluruh tatanan internasional” untuk menjaga agar senjata nuklir tetap terkendali. Tantangan serupa menanti kita hari ini, tulisnya: “senjata pemusnah massal baru” dalam bentuk AI.
Ada hal-hal yang bisa dilakukan pemerintah. Selain menghentikan pengembangan, mereka juga dapat membatasi berapa banyak perusahaan teknologi daya pemrosesan yang dapat digunakan untuk melatih AI dan berapa banyak data yang dapat mereka masukkan ke dalamnya. Kita bisa membatasi batas pengetahuannya. Alih-alih membiarkannya menyedot seluruh internet – terlepas dari itu hak milik dari mereka yang menciptakan pengetahuan manusia selama ribuan tahun – kita dapat menahan bioteknologi atau pengetahuan nuklir, atau bahkan data pribadi orang sungguhan. Yang paling sederhana adalah menuntut transparansi dari perusahaan AI – dan dari AI, dengan bersikeras bahwa setiap bot selalu mengidentifikasi dirinya sendiri dan tidak dapat berpura-pura menjadi manusia.
Ini menimbulkan tantangan lain bagi demokrasi sebagai sebuah sistem, sebuah sistem yang berulang kali tersendat dalam beberapa tahun terakhir. Kami masih belum pulih dari krisis keuangan tahun 2008; Kami berjuang untuk mengatasi keadaan darurat iklim. Dan sekarang ada ini, tidak dapat disangkal itu mengecilkan hati. Tapi kita masih bertanggung jawab atas nasib kita. Jika kita ingin tetap seperti itu, kita tidak boleh kehilangan waktu.
-
Jonathan Freedland adalah kolumnis untuk The Guardian
-
Bergabunglah dengan Jonathan Freedland dan Marina Hyde di acara Guardian Live di London pada Kamis 1 Juni. Pesan kehadiran atau tiket streaming langsung Di Sini