Lupakan Cambridge Analytica: Beginilah cara AI dapat mengancam pemilu

Pada tahun 2018, dunia terkejut mengetahui bahwa konsultan politik Inggris Cambridge Analytica telah memanen data pribadi setidaknya 50 juta pengguna Facebook tanpa persetujuan mereka dan menggunakannya untuk memengaruhi pemilu di AS dan di tempat lain.

Investigasi rahasia oleh Channel 4 News menghasilkan film dari CEO perusahaan saat itu, Alexander Nix, menyatakan bahwa dia tidak memiliki masalah dengan sengaja menyesatkan publik untuk mendukung klien politiknya, dengan mengatakan:

“Kedengarannya seperti hal yang mengerikan untuk dikatakan, tetapi ini adalah hal-hal yang belum tentu benar. Selama mereka percaya”

Skandal itu adalah peringatan tentang bahaya media sosial dan data besar, serta betapa rapuhnya demokrasi dalam menghadapi perubahan teknologi yang cepat yang terjadi secara global.

kecerdasan buatan

Bagaimana kecerdasan buatan (AI) cocok dengan gambaran ini? Mungkinkah itu juga digunakan untuk mempengaruhi pemilu dan mengancam integritas demokrasi di seluruh dunia?

Menurut Trish McCluskey, seorang profesor di Universitas Deakin, dan banyak lainnya, jawabannya adalah ya.

McCluskey memberi tahu Cointelegraph bahwa model bahasa besar seperti ChatGPT OpenAI “dapat menghasilkan konten yang tidak dapat dibedakan dari teks tulisan manusia,” yang dapat berkontribusi pada kampanye disinformasi atau penyebaran berita palsu secara online.

Di antara contoh lain tentang bagaimana AI berpotensi mengancam demokrasi, kata McCluskey Kemampuan AI untuk menghasilkan hoax yang dalam, yang dapat memalsukan video figur publik seperti calon presiden dan memanipulasi opini publik.

Meskipun pada umumnya masih mudah untuk mengetahui apakah sebuah video adalah deepfake, teknologinya berkembang pesat dan pada akhirnya akan menjadi tidak dapat dibedakan dari aslinya.

Misalnya, video deepfake mantan CEO FTX Sam Bankman-Fried yang ditautkan ke situs web phishing menunjukkan bagaimana bibir sering tidak sinkron dengan kata-kata, membuat pemirsa merasa ada sesuatu yang tidak beres.

Gary Marcu, seorang pengusaha AI dan salah satu penulis buku Mem-boot ulang AI: Membangun AI yang Dapat Kami Percayai, setuju dengan penilaian McCluskey, memberi tahu Cointelegraph bahwa dalam waktu dekat, satu-satunya risiko paling signifikan yang ditimbulkan oleh AI adalah:

“Ancaman dari Disinformasi Masif, Otomatis, dan Masuk Akal yang Mengagumkan Demokrasi.”

2021 peer-review kertas oleh peneliti Noémi Bontridder dan Yves Poullet berjudul “Peran kecerdasan buatan dalam disinformasi” juga menyoroti kemampuan sistem AI untuk berkontribusi pada disinformasi dan menyarankan melakukannya dengan dua cara:

“Pertama, mereka (AI) dapat dieksploitasi oleh pemangku kepentingan jahat untuk memanipulasi orang secara efektif dan dalam skala besar. Kedua, mereka secara langsung memperkuat penyebaran konten semacam itu”.

Selain itu, sistem AI saat ini hanya sebagus data yang dimasukkan ke dalamnya, yang dapat dilakukannya terkadang mereka bias jawaban yang dapat mempengaruhi pendapat pengguna.

Bagaimana mengurangi risikonya

Meskipun jelas bahwa AI berpotensi mengancam demokrasi dan pemilu di seluruh dunia, perlu disebutkan bahwa AI juga dapat memainkan peran positif dalam demokrasi dan melawan disinformasi.

Misalnya, McCluskey mengatakan AI dapat “digunakan untuk mendeteksi dan melaporkan disinformasi, untuk memfasilitasi pemeriksaan fakta, untuk memantau integritas pemilu,” serta untuk mendidik dan melibatkan warga negara dalam proses demokrasi.

“Kuncinya,” tambah McCluskey, “adalah memastikan bahwa teknologi AI dikembangkan dan digunakan secara bertanggung jawab, dengan regulasi dan perlindungan yang tepat.”

Contoh peraturan yang dapat membantu mengurangi kemampuan AI untuk menghasilkan dan menyebarkan disinformasi adalah Undang-Undang Layanan Digital Uni Eropa (DSA).

Terkait: CEO OpenAI untuk bersaksi di depan Kongres bersama dengan advokat “AI pause” dan eksekutif IBM

Saat DSA berlaku penuh, platform online besar seperti Twitter dan Facebook harus memenuhi daftar kewajiban yang dimaksudkan untuk meminimalkan misinformasi, antara lain, atau dikenakan denda hingga 6% dari pendapatan tahunan mereka.

DSA juga memperkenalkan peningkatan persyaratan transparansi untuk platform online ini, mengharuskan mereka untuk mengungkapkan bagaimana mereka merekomendasikan konten kepada pengguna, seringkali menggunakan algoritme kecerdasan buatan, serta bagaimana mereka memoderasi konten.

Bontridder dan Poullet mencatat bahwa perusahaan semakin banyak menggunakan AI untuk memoderasi konten, yang menurut mereka dapat “sangat bermasalah”, karena AI berpotensi untuk memoderasi secara berlebihan dan mengganggu kebebasan berbicara.

DSA hanya berlaku untuk operasi di Uni Eropa; McCluskey mencatat bahwa, sebagai fenomena global, kerja sama internasional diperlukan untuk mengatur AI dan melawan disinformasi.

Majalah: $3,4B Bitcoin dalam Sekotak Popcorn: Kisah Peretas Jalur Sutra

McCluskey menyarankan ini bisa melalui “perjanjian internasional tentang etika AI, standar privasi data, atau upaya bersama untuk melacak dan memerangi kampanye disinformasi.”

Pada akhirnya, McCluskey mengatakan bahwa “memerangi risiko AI yang berkontribusi terhadap disinformasi akan membutuhkan pendekatan multifaset”, yang melibatkan “peraturan pemerintah, pengaturan mandiri oleh perusahaan teknologi, kerja sama internasional, pendidikan publik, solusi teknologi, literasi media, dan Penelitian sedang berlangsung”. .