Kloning Suara AI Membantu Penipu—Berikut Cara Melindungi Diri Anda?

  • Penipuan pencarian suara saya adalah masalah yang berkembang.
  • Perangkat lunak yang disiapkan memungkinkan penipu untuk meniru suara orang.
  • Anda dapat melindungi diri sendiri dengan memverifikasi identitas pengunjung.

Tero Vesalainen / Getty Images



Waspadai panggilan telepon dari orang yang menelepon orang yang mereka cintai dalam masalah.


Kata pejabat federal mereka menggunakan penipu perangkat lunak suara yang canggih untuk melakukan penipuan darurat rumah dan penipuan perusahaan yang canggih. Bagian dari masalah yang berkembang adalah penjahat yang menggunakan kecerdasan buatan (AI).


“Dengan kemajuan terbaru dalam sintesis ucapan, sistem seperti VAL-E dapat membuat tiruan audio berkualitas tinggi hanya dengan rekaman 3 detik dari speaker tak terlihat.” Vijay BalasubramaniyanCEO perusahaan keamanan siber pin jatuh kata Lifewire dalam wawancara email.



Cara Kerja Penipuan Kloning Suara AI

Penipuan pencarian suara AI sering dimulai dengan panggilan dari seseorang yang terdengar akrab. Penipu mengatakan bahwa orang yang Anda cintai sedang dalam masalah dan membutuhkan uang untuk kecelakaan atau tagihan rumah sakit. Faktanya, orang di telepon adalah orang asing yang menggunakan perangkat lunak pengenalan suara.


“Kecerdasan buatan bukan lagi ide yang dibuat-buat dari film fiksi ilmiah. Kita hidup dengannya, di sini dan sekarang,” tulis FTC di situs webnya. “Seorang scammer dapat menggunakan AI untuk mengkloning suara orang yang Anda cintai. Yang diperlukan hanyalah rekaman audio singkat dari suara anggota keluarga Anda – yang dapat ia peroleh dari konten yang diposting online dan perangkat lunak pengenalan suara. Saat scammer menelepon Anda, itu akan terdengar seperti kekasihmu.



Penyempurnaan Suara memungkinkan pengguna untuk membuat ulang pola vokal unik dari satu orang. Tapi pedang itu juga tajam; kadar tamasCEO sebuah perusahaan pencegahan penipuan SEOONkatanya dalam email. Bahaya muncul ketika teknologi ini jatuh ke tangan yang salah.


“Kebanyakan individu dapat menggunakan suara canggih mereka untuk menipu, memanipulasi, dan menindas orang lain, dengan potensi untuk menyebabkan kerusakan emosional dan finansial yang serius,” tambah Kádár. “Hal ini terutama berlaku ketika perangkat lunak pencarian suara menjadi lebih mudah dan lebih terjangkau, membuka kotak pandora dari berbagai kemungkinan yang luar biasa.”


Darurat Keluarga bukan satu-satunya penipuan yang menggunakan pesan suara. Kádár mengatakan penipuan umum lainnya adalah ketika scammer menyamar sebagai anggota keluarga atau anggota keluarga, biasanya mengklaim bahwa mereka membutuhkan bantuan keuangan karena keadaan darurat atau keadaan darurat. “Holocaust, mengira dia membantu orang yang dicintai, mengirim uang, hanya untuk mengetahui kemudian bahwa itu adalah penipuan,” tambahnya.


Penipuan lainnya adalah penipuan CEO, ketika penipu mengkloning suara eksekutif perusahaan dan menghubungi karyawan, meminta mereka untuk mengungkapkan dana kawat atau informasi sensitif. pekerja tersebut, mengira bahwa dia diperintahkan untuk mengikuti atasannya, tanpa sadar melakukan penipuan.


Burung bisa menjadi semakin rentan terhadap penipuan dengan suara canggih; Stephen JJ Weismankata seorang ahli pencurian identitas dalam sebuah wawancara. Penipu bisa mendapatkan memo suara dari media sosial dan mereplikasinya menggunakan teknologi AI.


Gambar RainStar/Getty



Kasus menunjukkan Kartu Ruth Kanada, yang terbatas e CAD 3.000 dari scammer yang menggunakan teknologi suara AI canggih untuk membuat panggilannya seolah-olah berasal dari keponakannya. PENELEPON MENGATAKAN KEPEMAWANNYA DI PENJARA DAN MEMBUTUHKAN UANG JAMINAN SEGERA.


“Yang diperlukan hanyalah pemrograman suara AI generatif dan audio setidaknya selama 30 detik,” kata Weisman.



Penipuan Kloning Bercak Suara

Anda dapat melindungi diri dari AI dengan menghindari penipuan pesan suara yang canggih dengan tidak meminta informasi pribadi atau keuangan. Menurut FTC, scammers sering meminta Anda untuk membayar uang atau mengirimi Anda cara yang sulit untuk mendapatkan kembali uang Anda. Jika penelepon mengatakan untuk mengirim uang, mengirim mata uang kripto, atau membeli kartu hadiah dan memberikan nomor email dan PIN mereka, mungkin ada tanda-tanda penipuan.


Balasubramaniyan mengatakan bahwa itu adalah tanda bahaya jika tunduk pada manipulasi emosional dan sistem tekanan tinggi. “Jika pengguna terpaksa membantu diri mereka sendiri dalam situasi ini, tutup telepon dan hubungi kembali nomor telepon yang dikenal secara mandiri,” tambahnya.


Di masa mendatang, ada cara AI dapat mendeteksi penipuan. “Perusahaan menciptakan teknologi pendeteksi suara yang canggih,” kata Balasubramaniyan. “Teknologi pendeteksian ini menggunakan pengetahuan tentang suara manusia dan evolusi untuk menentukan kapan suara tersebut dikloning dengan menciptakan kembali anatomi fisik ucapan tersebut dan menentukan anomali dalam produksi ucapan.”

Source link