Seorang pengacara Florida dan kandidat politik dari Partai Demokrat mengklaim bahwa dia adalah target penipuan kloning suara AI canggih yang menipu ayahnya agar menyerahkan $35.000.

dari pos new york laporan Jay Schuster, seorang pengacara berusia 34 tahun yang mencalonkan diri sebagai anggota Dewan Perwakilan Rakyat Florida sebagai seorang Demokrat, baru-baru ini menjadi pusat penipuan kloning suara AI yang rumit yang hampir merugikan ayahnya sebesar $35.000. Itu artinya. Para penipu menggunakan AI untuk mengkloning suara Jay, mungkin menggunakan iklan kampanye TV berdurasi 15 detik sebagai bahan sumber, dan menelepon ayah Jay untuk mengungkapkan bahwa Jay ditangkap setelah kecelakaan mobil yang serius.

Ayahnya, seorang pensiunan pengacara yang saat itu sedang mengunjungi putrinya di New York, yakin bahwa suara histeris di telepon itu adalah putranya. Penipu itu, yang menyamar sebagai Jay, memohon kepada ayahnya untuk tidak memberi tahu siapa pun tentang situasinya. Tak lama kemudian, Jay menerima panggilan telepon dari seorang pria yang mengaku sebagai pengacara, meminta jaminan tunai sebesar $35.000 agar Jay tidak ditahan selama beberapa hari.

Penipuan tersebut berubah menjadi tidak biasa ketika seseorang yang diyakini sebagai pengacara memerintahkan Frank untuk membayar uang jaminan menggunakan mesin mata uang virtual, sehingga menimbulkan kecurigaan. Baru setelah saudara perempuan Jay dan temannya mengetahui bahwa penipuan kloning suara AI sedang meningkat, Jay menyadari ada yang tidak beres dan akhirnya menutup telepon.

Jay berspekulasi bahwa para penipu mungkin telah mengkloning suaranya dari iklan kampanye terbarunya dan rekaman video online lainnya. Dia terkejut dengan kecanggihan penipuan tersebut, dan mengatakan bahwa “yang diperlukan hanya beberapa detik dari suara seseorang” agar teknologi dapat menciptakan peniruan identitas yang meyakinkan.

Breitbart News telah banyak melaporkan bagaimana penipu mendistorsi AI untuk tujuan negatif.

“Kecerdasan buatan generatif semakin banyak digunakan untuk meniru suara orang yang Anda kenal dan berkomunikasi secara real time,” kata Jonathan Nelson, direktur manajemen produk di Hiya Inc., sebuah perusahaan analisis telepon dan perangkat lunak. Kemajuan teknologi ini mengikis teknik tradisional. Kepercayaan yang pernah dimiliki orang-orang terhadap ponsel mereka berubah menjadi potensi risiko di setiap dering.

Kemajuan teknologi dalam AI telah memudahkan penipu untuk menciptakan penipuan respons suara interaktif (IVR), yang umumnya dikenal sebagai “vishing” (phishing suara). “AI generatif dapat mengatasi serangan spam yang sangat spesifik dan menjadikannya lebih umum,” jelas Nelson. Teknik penipuan baru ini menjadi semakin lazim karena audio dibagikan secara luas secara online, sehingga memungkinkan penipu mengumpulkan data yang mereka perlukan untuk melakukan panggilan yang menipu.

Baca selengkapnya dari pos new york Di Sini.

Lucas Nolan adalah reporter Breitbart News yang meliput masalah kebebasan berpendapat dan sensor online.

Source link