Seorang pengacara menyewa ChatGPT untuk melakukan penelitiannya, tetapi dia bukanlah AI yang paling bodoh | John Naughton

TKisahnya dimulai pada 27 Agustus 2019, ketika Roberto Mata menjadi penumpang Avianca Penerbangan 670 dari El Salvador ke New York dan gerobak logam makanan dan minuman dilaporkan melukai lututnya. Seperti kebiasaan di Amerika Mata sepatutnya menggugat Avianca dan maskapai menanggapi dengan meminta agar kasus tersebut dibatalkan karena “statuta pembatasan telah kedaluwarsa”. matas Pengacara berpendapat pada tanggal 25 April gugatan harus dilanjutkan, dan menyertakan daftar lebih dari setengah lusin kasus pengadilan sebelumnya yang tampaknya telah menjadi preseden untuk mendukung argumen mereka.

Pengacara Avianca dan Hakim P. Kevin Castel kemudian dengan patuh mulai menyelidiki “preseden” ini, tetapi sampai pada kesimpulan bukan itu keputusan dikutip dan diringkas dalam ringkasan atau kutipan hukum yang dikutip dan diringkas tersedia.

Mengapa? Karena Obrolan GPT telah menemukan mereka. Kemudian, ketika Waktu New York Menurut laporan tersebut, “Pengacara yang menyiapkan pengajuan, Steven A. Schwartz dari firma hukum Levidow, Levidow & Oberman, telah menyerahkan dirinya kepada belas kasihan pengadilan… dan telah menyatakan bahwa dia mencela program kecerdasan buatan. untuk penelitian hukumnya.” – ‘sumber yang terbukti tidak dapat diandalkan’.”

Kebetulan, Schwartz ini bukanlah mahasiswa baru yang baru saja lulus dari fakultas hukum. Dia bekerja sebagai pengacara di lubang ular New York untuk tiga dekade. Namun dia tampaknya tidak pernah menggunakan ChatGPT sebelumnya dan “oleh karena itu tidak menyadari kemungkinan bahwa kontennya mungkin salah”. Dia bahkan telah meminta program untuk memverifikasi keaslian kasus tersebut, dan program tersebut menjawab ya. Oh sial.

Anda ingat cerita lama tentang pria yang, setelah menembak ayah dan ibunya, kemudian menyerahkan dirinya pada belas kasihan pengadilan dengan alasan dia sekarang menjadi yatim piatu. Namun kasus Mata hanyalah contoh lain dari kegilaan AI yang sedang berkecamuk saat ini. Saya telah kehilangan jejak jumlah orang yang tampaknya hidup yang muncul tersihir dari percakapan dengan “chatbots” – istilah sopan untuk itu “burung beo stokastik” yang tidak melakukan apa-apa selain membuat prediksi statistik tentang kata mana yang paling mungkin ditambahkan ke kalimat yang mereka buat.

Tetapi jika menurut Anda tontonan manusia yang dianggap cerdas dibawa oleh burung beo robot itu aneh, luangkan waktu sejenak untuk mempertimbangkan kejadian nyata yang benar-benar nyata di tempat lain di hutan AI. Minggu ini, misalnya, berbagai tokoh teknologi menandatangani deklarasi bahwa “memitigasi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko sosial lainnya seperti pandemi dan perang nuklir”. Banyak dari orang-orang ini adalah peneliti luar biasa di bidang pembelajaran mesin, termasuk beberapa karyawan perusahaan teknologi besar. Beberapa waktu sebelum perilisan, tiga penandatangan – Sam Altman dari OpenAI, Demis Hassabis dari Google DeepMind dan Dario Amodi dari Anthropic (perusahaan yang didirikan oleh ) Putus sekolah OpenAI) – diundang ke Gedung Putih untuk menyampaikan keprihatinan mereka tentang bahaya AI kepada Presiden dan Wakil Presiden Altman membuat nadanya kepada Senat AS, mengatakan bahwa “intervensi peraturan oleh pemerintah akan sangat penting untuk mengurangi risiko model yang semakin kuat.”

Menjauh dari itu sejenak. Di sini kami memiliki perwakilan senior dari industri yang kuat dan kaya secara tidak sadar – serta pendukung dan kolega mereka di laboratorium penelitian elit di seluruh dunia – yang, di satu sisi, tertarik dengan tantangan teknis dalam membangun apa yang mereka yakini sebagai eksistensial. ancaman terhadap teknologi dapat mewakili umat manusia, sementara pada saat yang sama pemerintah diminta untuk mengaturnya. Namun pemikiran yang sepertinya tidak pernah memasuki apa yang Anda sebut otak mereka adalah pertanyaan yang akan ditanyakan setiap anak: Jika sangat berbahaya, mengapa terus membangunnya? Mengapa tidak berhenti dan melakukan sesuatu yang lain? Atau setidaknya berhenti mengeluarkan produk-produk itu di alam liar?

Tatapan kosong yang Anda dapatkan dari orang-orang teknologi ketika ditanya pertanyaan sederhana ini mengungkapkan kebenaran yang tidak menyenangkan tentang masalah tersebut. Tak satu pun dari mereka – berapa pun usianya – dapat menghentikannya, karena mereka semua adalah pelayan AI yang bahkan lebih kuat daripada teknologinya: perusahaan tempat mereka bekerja. Ini adalah mesin yang benar-benar super cerdas yang di bawah kekuasaannya kita semua sekarang hidup, bekerja, dan memiliki keberadaan kita. Seperti iblis Nick Bostrom AI untuk membuat penjepit kertas, kecerdasan super semacam itu ada hanya untuk mencapai satu tujuan: memaksimalkan nilai pemegang saham; Ketika keberatan humanistik kecil menghalangi tujuan itu, itu jauh lebih buruk bagi umat manusia. Sungguh, Anda tidak dapat menemukannya. Namun, ChatGPT bisa.

apa yang saya baca

Tetap up to date dengan teknologi terbaru
Tim Harford menulis kolom pemikiran yang khas Untuk Waktu keuangan apa yang dilakukan orang neo-Ludd dengan benar – dan salah – dalam kaitannya dengan teknologi besar.

tetap terjaga
Fungsi subtumpukan oleh Margaret Wertheim posting blog yang sangat berwawasan tentang AI sebagai gejala dan mimpi.

Merindukan banyak
Martin Amis pada Jane Austen di Pusat Sastra Situs ini adalah pengingat yang bagus (dari tahun 1996) tentang penulis sebagai kritikus.

Sumber