OpenAI dapat segera menghadapi tantangan peraturan terbesarnya, karena otoritas Italia bersikeras bahwa perusahaan memiliki waktu hingga 30 April untuk mematuhi undang-undang perlindungan data dan privasi lokal dan Eropa, tugas ahli kecerdasan buatan (AI) hampir mustahil.
Otoritas Italia dibebaskan larangan total pada produk GPT OpenAI pada akhir Maret, menjadi negara Barat pertama yang sepenuhnya menghindari produk tersebut. Tindakan tersebut dilakukan setelah terjadi pelanggaran data di mana pelanggan ChatGPT dan API GPT dapat melihat data yang dihasilkan oleh pengguna lain.
Kami yakin jumlah pengguna yang detailnya benar-benar diungkapkan kepada orang lain sangat sedikit dan telah menjangkau mereka yang mungkin terpengaruh. Kami menganggap ini sangat serius dan membagikan detail penyelidikan dan rencana kami di sini. 2/2 https://t.co/JwjfbcHr3g
—OpenAI (@OpenAI) 24 Maret 2023
Menurut terjemahan yang disediakan oleh Bing dari Italia memesan memerintahkan OpenAI untuk menghentikan operasi ChatGPT di negara tersebut hingga dapat menunjukkan kepatuhan:
“Dalam ketentuannya, SA Italia menyoroti bahwa tidak ada informasi yang diberikan kepada pengguna dan pihak berkepentingan yang datanya dikumpulkan oleh Open AI; lebih penting lagi, tampaknya tidak ada dasar hukum di balik pengumpulan besar-besaran dan pemrosesan data pribadi untuk “melatih” algoritme yang menjadi dasar platform tersebut.”
Keluhan Italia selanjutnya mengatakan bahwa OpenAI juga harus menerapkan langkah-langkah verifikasi usia untuk memastikan bahwa perangkat lunak dan layanannya mematuhi persyaratan layanan perusahaan yang mengharuskan pengguna berusia di atas 13 tahun.
Terkait: Anggota parlemen UE menyerukan AI ‘aman’ karena CEO Google memperingatkan tentang perkembangan pesat
Untuk mencapai kepatuhan privasi di Italia dan seluruh Uni Eropa, OpenAI perlu menyediakan landasan untuk proses pengumpulan datanya yang ekstensif.
Di bawah Peraturan Perlindungan Data Umum (GDPR) UE, Anda memakai teknologi tugas meminta persetujuan pengguna untuk pelatihan dengan data pribadi. Selain itu, perusahaan yang beroperasi di Eropa juga harus menawarkan opsi kepada orang Eropa untuk memilih keluar dari pengumpulan dan pembagian data.
Menurut para ahli, ini akan menjadi tantangan yang sulit bagi OpenAI karena modelnya dilatih pada data dalam jumlah besar, yang diambil dari internet dan digabungkan menjadi set pelatihan. Ini bentuk pelatihan kotak hitam sasaran untuk menciptakan sebuah paradigma yang disebut “kemunculan”, di mana ciri-ciri yang berguna terwujud dalam pola yang tak terduga.
“GPT-4… menunjukkan perilaku yang muncul.”
Tunggu tunggu tunggu tunggu. Jika kita tidak mengetahui data pelatihan, bagaimana kita bisa mengetahui apa yang “muncul” vs. apa “hasil”?!?!
Saya pikir mereka merujuk pada gagasan “darurat”, tetapi saya masih tidak yakin apa yang dimaksud. https://t.co/Mnupou6D1d— MMitchell (@mmitchell_ai) 11 April 2023
Sayangnya, ini berarti pengembang jarang memiliki cara untuk mengetahui dengan tepat apa yang ada di kumpulan data. Dan, karena mesin cenderung mengacak-acak lebih banyak titik data saat menghasilkan keluaran, mungkin di luar jangkauan insinyur modern untuk mengurai atau memodifikasi potongan data individual.
Margaret Mitchell, seorang ahli etika AI, dikatakan Tinjauan Teknologi MIT bahwa “OpenAI akan merasa hampir tidak mungkin untuk mengidentifikasi data orang dan menghapusnya dari modelnya.”
Untuk mencapai kepatuhan, OpenAI perlu menunjukkan bahwa ia memperoleh data yang digunakan untuk melatih modelnya dengan persetujuan pengguna, sesuatu yang dilakukan perusahaan riset dokumen menunjukkan bahwa itu tidak benar – atau menunjukkan bahwa ia memiliki “kepentingan yang sah” untuk mengorek data sejak awal.
Lilian Edwards, seorang dosen hukum Internet di Universitas Newcastle, mengatakan kepada MIT’s Technology Review bahwa perselisihan itu lebih besar dari sekadar tindakan Italia, dengan mengatakan “Pelanggaran OpenAI sangat mencolok sehingga kasus ini kemungkinan besar akan dibawa ke Pengadilan Kehakiman. Uni Eropa, pengadilan tertinggi di Uni Eropa.
Ini menempatkan OpenAI pada posisi yang berpotensi genting. Jika tidak dapat mengidentifikasi dan menghapus data individu berdasarkan permintaan pengguna, atau membuat perubahan pada data yang salah merepresentasikan individu, ia mungkin tidak dapat menggunakan produk ChatGPT di Italia setelah batas waktu 30 April.
Masalah perusahaan mungkin tidak berhenti di situ karena regulator Prancis, Jerman, Irlandia, dan UE juga sedang mempertimbangkan tindakan untuk mengatur ChatGPT.