Inggris dan AS telah berlomba untuk mengembangkan teknologi kecerdasan buatan yang semakin kuat saat pengawas persaingan Inggris meluncurkan pengawasan sektor dan Gedung Putih mengingatkan perusahaan teknologi tentang tanggung jawab mendasar mereka untuk mengembangkan produk yang aman.
Regulator berada di bawah tekanan yang meningkat untuk turun tangan karena munculnya generator suara bertenaga AI seperti ChatGPT meningkatkan kekhawatiran tentang potensi penyebaran informasi yang salah, peningkatan penipuan, dan dampaknya pada pasar kerja, dengan Elon Musk di antara hampir 30.000 penandatangan surat tersebut. bulan lalu diterbitkan minta berhenti dalam proyek-proyek penting.
Inggris Persaingan dan Otoritas Pasar (CMA) mengatakan pada hari Kamis akan melihat sistem yang mendasari – atau model dasar – di belakang alat AI. Hasil tinjauan pertama, yang oleh seorang pakar hukum disebut sebagai “sarapan” untuk sektor tersebut, akan dipublikasikan pada bulan September.
Pada hari yang sama, pemerintah AS mengumumkan langkah-langkah untuk mengatasi risiko dalam pengembangan AI Kamala Haris, sang wakil presiden, bertemu dengan para CEO di garis depan kemajuan pesat industri. Dalam sebuah pernyataan, Gedung Putih mengatakan perusahaan yang mengembangkan teknologi memiliki “tanggung jawab mendasar untuk memastikan produk mereka aman sebelum digunakan atau dirilis.”
Pertemuan tersebut ditutup selama seminggu di mana sejumlah ilmuwan dan pemimpin bisnis memperingatkan tentang kecepatan teknologi yang dapat mengganggu industri yang sudah mapan. Pada hari Senin, Geoffrey Hinton, “ayah baptis AI”, meninggalkan Google untuk berbicara lebih bebas tentang bahaya teknologi, sementara penasihat ilmiah pemerintah Inggris, Sir Patrick Vallance, menteri yang mendesak untuk “mencegah” perubahan sosial dan ekonomi yang dapat dipicu oleh AI, dan mengatakan dampaknya terhadap pekerjaan bisa sebesar revolusi industri.
Sarah Cardell mengatakan AI memiliki potensi untuk “mengubah” cara bisnis bersaing satu sama lain, tetapi konsumen perlu dilindungi.
Kepala eksekutif CMA mengatakan: “AI telah memasuki kesadaran publik dalam beberapa bulan terakhir tetapi telah berada di radar kami selama beberapa waktu. Sangat penting bahwa manfaat potensial dari teknologi transformatif ini mudah diakses oleh bisnis dan konsumen Inggris, sekaligus melindungi orang dari masalah seperti informasi yang salah atau menyesatkan.”
Layanan Bard ChatGPT dan Google yang bersaing rentan terhadap pengiriman informasi yang salah sebagai tanggapan atas permintaan pengguna sambil menyampaikan kekhawatiran tentang penipuan suara yang dihasilkan oleh AI. Organisasi anti-misinformasi NewsGuard mengatakan minggu ini Chatbots menyamar sebagai jurnalis mengoperasikan hampir 50 “peternakan konten” yang dihasilkan oleh AI. Bulan lalu adalah lagu dengan vokal buatan AI palsu yang berpura-pura menjadi Drake and the Weeknd ditarik dari layanan streaming.
Tinjauan CMA akan memeriksa bagaimana pasar model endowmen dapat berkembang, peluang dan ancaman apa yang ada bagi konsumen dan persaingan, dan merumuskan “prinsip panduan” untuk mendukung persaingan dan melindungi konsumen.
Pemain terkemuka di AI adalah Microsoft, pengembang ChatGPT OpenAI – di mana Microsoft adalah investornya – dan perusahaan induk Google alfabetyang memiliki perusahaan AI terkemuka dunia, DeepMind yang berbasis di Inggris, sementara perusahaan rintisan AI terkemuka termasuk Anthropic dan Stability AI, perusahaan Inggris di balik Stable Diffusion.
Alex Haffner, mitra persaingan di firma hukum Inggris Fladgate, mengatakan: “Mengingat arah perjalanan peraturan saat ini dan fakta bahwa CMA memutuskan untuk mengalokasikan sumber daya ke bidang ini, pengumuman mereka harus dilihat sebagai semacam peringatan tentang pembangunan yang agresif. AI -program tanpa verifikasi yang tepat.”
Di AS, Harris bertemu dengan CEO OpenAI, Alphabet, dan Microsoft di Gedung Putih dan menguraikan langkah-langkah untuk melawan risiko pengembangan AI yang tidak terkendali.
Pemerintah mengatakan akan menginvestasikan $140 juta (£111 juta) di tujuh lembaga penelitian AI nasional baru untuk melacak kemajuan dalam kecerdasan buatan yang “etis, dapat dipercaya, bertanggung jawab, dan melayani kebaikan bersama”. Pengembangan AI didominasi oleh sektor swasta, dengan industri teknologi menghasilkan 32 model pembelajaran mesin yang signifikan tahun lalu dibandingkan dengan tiga model yang diproduksi oleh akademisi.
Pengembang AI terkemuka juga telah setuju agar sistem mereka dievaluasi secara publik pada konferensi keamanan siber Defcon 31 tahun ini. Perusahaan yang telah setuju untuk berpartisipasi antara lain OpenAI, GoogleMicrosoft dan Stabilitas AI.
“Latihan independen ini akan memberi para peneliti dan publik informasi penting tentang implikasi model-model ini,” kata Gedung Putih.
Uni Eropa juga diberitahu pada hari Kamis bahwa mereka harus melindungi penelitian AI akar rumput atau berisiko menyerahkan kendali pengembangan teknologi kepada perusahaan AS.
Dalam surat terbuka yang dikoordinasikan oleh kelompok riset Jerman Laion – atau Jaringan Terbuka AI Skala Besar – Parlemen Eropa diberi tahu bahwa aturan satu ukuran untuk semua berisiko menghilangkan penelitian dan pengembangan terbuka.
“Aturan yang mengharuskan peneliti atau pengembang untuk memantau atau mengontrol penggunaan hilir dapat membuat rilis AI sumber terbuka tidak mungkin dilakukan di Eropa,” yang “mengabadikan perusahaan besar” dan “upaya untuk meningkatkan transparansi, Mengurangi persaingan, membatasi kebebasan akademik, dan mendorong investasi di AI di luar negeri,” bunyi surat itu.
“Eropa tidak boleh kehilangan kedaulatan AI. Penghapusan R&D sumber terbuka akan membuat komunitas ilmiah dan bisnis Eropa sangat bergantung pada segelintir perusahaan asing dan berpemilik untuk infrastruktur AI yang penting.”
Upaya AI terbesar oleh perusahaan seperti OpenAI dan Google sangat dikontrol oleh pembuatnya. Tidak mungkin mengunduh model di belakangnya Obrolan GPT, misalnya, dan akses berbayar yang ditawarkan OpenAI kepada pelanggan dilengkapi dengan sejumlah batasan hukum dan teknis dalam penggunaannya. Sebaliknya, upaya sumber terbuka melibatkan pembuatan model dan kemudian merilisnya untuk digunakan, ditingkatkan, atau diadaptasi oleh siapa saja sesuai keinginan mereka.
“Kami sedang mengerjakan AI sumber terbuka karena kami percaya AI jenis ini akan lebih aman, lebih mudah diakses, dan lebih demokratis,” kata Christoph Schuhmann, kepala organisasi di Laion.