- Eksekutif teknologi mengatakan peraturan diperlukan untuk menjaga orang tetap aman dari AI.
- Google sedang membangun perlindungan ke dalam AI-nya.
- Tetapi beberapa ahli mengatakan langkah-langkah keamanan AI saat ini tidak cukup.
Perusahaan teknologi berjanji untuk membangun langkah-langkah keamanan menjadi kecerdasan buatan (AI), tetapi beberapa ahli mengatakan upaya mereka tidak cukup.
CEO OpenAI Sam Altman dia menelepon di Kongres untuk melaksanakan hukum pidato ketakutan bahwa AI * dalam kesaksian minggu ini di gunung Capitoline. Sementara itu, mendiang penulis Geoffrey Hinton dia berhenti dari kantornya di Google untuk berbicara tentang bahaya teknologi. Ada tanda-tanda perkembangan di sekitar AI.
“Meskipun upaya Google baru-baru ini untuk meningkatkan transparansi dan keamanan seputar konten yang dihasilkan AI dan tempat perlindungannya patut dipuji, itu adalah langkah pertama dari perjalanan panjang.” Ani ChaudharyCEO manajemen informasi perusahaan Dashera katanya kepada Lifewire dalam wawancara email. “Masih ada celah yang signifikan untuk perlindungan pengguna yang harus diisi oleh AI.”
Masalah Keamanan AI
Altman mengatakan kepada anggota parlemen ketakutan terburuknya adalah bahwa teknologi AI canggih “tidak akan dapat membahayakan dunia” tanpa perlindungan yang tepat.
“Jika teknologi ini salah, itu bisa sangat salah dan kami ingin bersuara tentang itu,” kata Altman. pada sidang subkomite Senat rahasiaseni, hukum “Kami tidak ingin bekerja sama dengan pemerintah untuk mencegah hal itu terjadi.”
Altman bukan satu-satunya tokoh terkenal di dunia AI yang mengungkapkan keprihatinan tentang teknologi tersebut. kata Hinton pensiun dari Google untuk berbicara secara terbuka tentang potensi risiko sebagai seseorang yang tidak lagi bekerja untuk raksasa teknologi tersebut.
“Jika Geoff Hinton berkomentar tentang mengapa Google pergi, sepertinya mereka sekarang telah berhati-hati dan akan terus maju dengan produk-produk yang mendukung AI ini untuk mengejar persaingan secepat mungkin.” Vinod IyengarPakar AI dan Kepala Produk di AI ketigamereka memberi tahu Lifewire melalui email.
Lifewire telah menghubungi Google untuk memberikan komentar. Seorang juru bicara kerumunan menunjukkan * posting blog Upaya Google untuk membuat AI bertanggung jawab.
Dengan miliknya Chatbot bard bertenaga AIGoogle telah merilis penafian untuk memberi tahu pengguna bahwa produk tersebut masih dalam pengujian.
“Ada dua pilihan produk yang berguna di bidang ini – menunjukkan diagram alternatif,” kata Iyengar. “Ini adalah cara yang baik untuk membedakan model pengguna yang masih probabilistik dan belum ada yang menjawab dengan sempurna.”
Masih ada celah yang signifikan untuk diisi terkait perlindungan pengguna dari AI.
Tampaknya para juri juga percaya diri dengan kepribadian mereka, sehingga jawabannya lebih membosankan atau akademis dan tidak terdengar manusiawi, kata Iyengar. Sementara ChatGPT tampil sebagai asisten yang hidup dan efisien, Bing (setidaknya di versi lama) lebih gagah.
“Karena itu, Bard masih kalah signifikan terhadap propertinya dibandingkan dengan ChatGPT,” kata Iyengar. “Ini, tentu saja, sebuah anekdot, tetapi tampaknya menjadi pengalaman banyak orang di komunitas. Ini dapat menunjukkan bahwa contoh dari hal-hal manusia yang tidak cukup telah ditemukan.”
Alysia SilbergCEO sebuah perusahaan modal ventura jalanan globalyang berinvestasi dalam AI, mengatakan dalam email bahwa Google “secara signifikan” menerapkan langkah-langkah keamanan untuk meningkatkan keamanan dengan produk AI-nya.
“Meskipun kami bergerak ke arah yang benar untuk berhati-hati di sekitar mesin pembelajaran mandiri, kami harus mencatat bahwa teknologi berkembang pesat,” tambahnya. “Jadi akan selalu ada tantangan yang terus-menerus. Namun, pendekatan Google untuk pemantauan terus menerus, transparansi, dan kolaborasi dengan para ahli akan membantu meningkatkan keamanan di domain AI.”
Saatnya mengatur AI?
Ada pertarungan antara mereka yang mengatakan AI adalah industri dia bisa menjaga dirinya sendiri dan lainnya, seperti Altman, yang mengklaim bahwa undang-undang pemerintah diperlukan. Untuk menjaga keamanan pengguna, Silberg mencatat bahwa Google dan industri harus menetapkan kebijakan privasi yang kuat dan memprioritaskan pengembangan AI yang etis.
“Kebijakan ini dapat membantu melindungi pengguna dan meningkatkan kepercayaan pada teknologi AI,” katanya.
Google dan raksasa teknologi lainnya harus berbagi bagaimana model AI bekerja dan dimiliki satu set protokol standar Itu berlaku untuk pola penilaian dan keinginan ini, kata Iyengar.
“Sama seperti bagaimana semua orang berharap sebagian besar situs web mematuhi SOC atau teknologi kesehatan mematuhi HIPAA, AI, LLM juga harus memiliki perlindungan sendiri,” tambahnya.
Terima kasih telah memberi tahu kami!
Dapatkan Berita Teknologi Terbaru dikirim setiap hari?
Beritahu kami mengapa?
yang lain
Detail tidak cukup
sulit dimengerti