Pemerintah Australia telah mengumumkan konsultasi dadakan selama delapan minggu yang akan menyelidiki apakah alat AI ‘berisiko tinggi’ harus dilarang.
Wilayah lain juga, termasuk Amerika Serikat, Uni Eropa, dan China langkah-langkah yang diambil untuk memahami dan berpotensi mitigasi risiko terkait dengan pesatnya perkembangan AI dalam beberapa bulan terakhir.
Pada 1 Juni, Menteri Perindustrian dan Sains Ed Husic diumumkan publikasi dua artikel — satu diskusi kertas tentang “AI yang Aman dan Bertanggung Jawab di Australia” ea hubungan tentang AI Generatif oleh Dewan Sains dan Teknologi Nasional.
Koran-koran tersebut bergabung dengan a konsultasi yang akan berlangsung hingga 26 Juli.
Pemerintah menginginkan umpan balik tentang cara mendukung ‘penggunaan AI yang aman dan bertanggung jawab’ dan sedang mendiskusikan apakah akan mengadopsi pendekatan sukarela seperti kerangka kerja etika, apakah diperlukan peraturan khusus, atau menggabungkan kedua pendekatan tersebut.
Satu pertanyaan dalam konsultasi langsung bertanya, “apakah aplikasi atau teknologi AI berisiko tinggi harus dilarang sepenuhnya?” dan kriteria apa yang harus digunakan untuk mengidentifikasi alat AI yang harus dilarang.
Draf matriks risiko untuk model AI telah dimasukkan untuk umpan balik dalam makalah diskusi lengkap. Meskipun hanya untuk memberikan contoh, AI dalam mobil self-driving diklasifikasikan sebagai “berisiko tinggi”, sementara alat AI generatif yang digunakan untuk tujuan seperti membuat catatan pasien diberi peringkat “berisiko sedang”.
#MEMILIKI itu sudah menjadi bagian dari hidup kita. Seiring perkembangan teknologi, kami perlu memastikannya memenuhi harapan warga Australia akan penggunaan yang bertanggung jawab. Bergabung dengan @IndustryGovAu pembahasan, di bawah ini. https://t.co/Gz11JCXlsG
—Kepala Ilmuwan Australia (@ScienceChiefAu) 1 Juni 2023
Dokumen tersebut menyoroti penggunaan “positif” AI di bidang medis, teknik, dan hukum, tetapi juga penggunaan “berbahaya” seperti alat palsu yang dalamgunakan di membuat berita bohong DAN kaleng di mana robot AI mendorong tindakan menyakiti diri sendiri.
Bias model AI dan “halusinasi” – informasi yang tidak masuk akal atau salah yang dihasilkan oleh AI – juga telah diangkat sebagai masalah.
Terkait: Microsoft CSO mengatakan AI akan membantu manusia berkembang, tetap menandatangani surat kiamat
Makalah diskusi mengatakan adopsi AI “relatif rendah” di negara ini karena memiliki “tingkat kepercayaan publik yang rendah”. Dia juga menunjuk regulasi AI di yurisdiksi lain dan di Italia larangan sementara di ChatGPT.
Sementara itu, laporan Dewan Sains dan Teknologi Nasional mengatakan Australia memiliki beberapa kemampuan AI yang menguntungkan dalam robotika dan visi komputer, tetapi “kemampuan dasarnya yang mendasari (model bahasa besar) dan bidang terkait relatif lemah,” dan menambahkan:
“Konsentrasi aset AI Generatif dalam sejumlah kecil perusahaan multinasional besar dan terutama perusahaan teknologi yang berbasis di AS menimbulkan risiko (sic) potensial bagi Australia.”
Laporan tersebut lebih lanjut membahas peraturan AI global, memberikan contoh model AI generatif, dan mengatakan bahwa mereka “kemungkinan akan memengaruhi segalanya mulai dari perbankan dan keuangan hingga utilitas, pendidikan, dan industri kreatif.” .
AI mata: 25.000 pedagang bertaruh pada pengambilan saham ChatGPT, AI menghisap lemparan dadu, dan banyak lagi