Guncang AS! Tipuan Suara AI Mirip Suara Asli Digunakan untuk Kejahatan

Guncang AS! Tipuan Suara AI Mirip Suara Asli Digunakan untuk Kejahatan
Bahaya! Artificial Inteligence (AI) atau Kecerdasan Buatan ternyata bisa digunakan untuk aksi kejahatan. Suara di telepon tampak sangat nyata, seorang ibu Amerika Serikat (AS) mendengar putrinya menangis sebelum seorang pria mengambil alih dan meminta uang tebusan. Tapi gadis itu adalah tiruan kecerdasan buatan (AI) dan penculikan itu palsu. Bahaya terbesar AI, kata para ahli, adalah kemampuannya untuk menghancurkan batas-batas antara realitas dan fiksi, memberikan teknologi yang murah dan efektif kepada penjahat dunia maya untuk menyebarkan disinformasi. Dalam jenis penipuan baru yang mengguncang otoritas AS, penipu menggunakan alat kloning suara AI yang sangat meyakinkan – banyak tersedia secara online – untuk mencuri dari orang-orang dengan menyamar sebagai anggota keluarga. "Tolong saya, bu, tolong bantu saya," kata Jennifer DeStefano, seorang ibu yang berbasis di Arizona, mendengar suara berkata di ujung telepon. DeStefano "100 persen" yakin itu adalah putrinya yang berusia 15 tahun yang sangat tertekan saat pergi bermain ski. "Tidak pernah ada pertanyaan tentang siapa ini? Itu benar-benar suaranya… seperti cara dia menangis,” kata DeStefano kepada sebuah stasiun televisi lokal pada bulan April. "Aku tidak pernah ragu sedetik pun itu dia." Penipu yang mengambil alih telepon, yang berasal dari nomor yang tidak dikenal DeStefano, meminta hingga US$1 juta (S$1,3 juta). Tipuan bertenaga AI berakhir dalam beberapa menit ketika DeStefano menjalin kontak dengan putrinya. Namun kasus yang mengerikan itu, yang sekarang sedang diselidiki polisi, menggarisbawahi potensi penjahat dunia maya untuk menyalahgunakan klon AI. Penipuan kakek “Kloning suara AI, sekarang hampir tidak dapat dibedakan dari ucapan manusia, memungkinkan pelaku ancaman seperti scammer untuk mengekstraksi informasi dan dana dari korban secara lebih efektif,” kata Wasim Khaled, kepala eksekutif Blackbird.AI, kepada AFP. Pencarian Internet sederhana menghasilkan beragam aplikasi, banyak tersedia secara gratis, untuk membuat suara AI dengan sampel kecil – terkadang hanya beberapa detik – dari suara asli seseorang yang dapat dengan mudah dicuri dari konten yang diposting online. “Dengan sampel audio kecil, tiruan suara AI dapat digunakan untuk meninggalkan pesan suara dan teks suara. Itu bahkan dapat digunakan sebagai pengubah suara langsung pada panggilan telepon, ”kata Khaled. “Penipu dapat menggunakan aksen, jenis kelamin, atau bahkan meniru pola bicara orang yang dicintai. (Teknologi) memungkinkan pembuatan deepfake yang meyakinkan.” Dalam survei global terhadap 7.000 orang dari sembilan negara, termasuk Amerika Serikat, satu dari empat orang mengatakan bahwa mereka pernah mengalami penipuan kloning suara AI atau mengenal seseorang yang pernah mengalaminya. Tujuh puluh persen responden mengatakan mereka tidak yakin mereka bisa "membedakan antara suara kloning dan yang asli", kata survei, yang diterbitkan pada bulan Mei oleh McAfee Labs yang berbasis di AS. Pejabat Amerika telah memperingatkan tentang peningkatan apa yang dikenal sebagai "penipuan kakek-nenek" - di mana seorang penipu berperan sebagai cucu yang sangat membutuhkan uang dalam situasi sulit. “Anda mendapat telepon. Ada suara panik di telepon. Itu cucumu. Dia bilang dia dalam masalah besar – dia merusak mobil dan mendarat di penjara. Tetapi Anda dapat membantu dengan mengirimkan uang,” kata Komisi Perdagangan Federal (FTC) AS dalam sebuah peringatan di bulan Maret. “Kedengarannya seperti dia. Bagaimana itu bisa menjadi penipuan? Kloning suara, begitulah.” Dalam komentar di bawah peringatan FTC terdapat banyak kesaksian dari orang tua yang telah ditipu seperti itu. 'Jahat' Itu juga mencerminkan pengalaman Tuan Eddie, seorang anak berusia 19 tahun di Chicago yang kakeknya menerima telepon dari seseorang yang mirip dengannya, mengklaim bahwa dia membutuhkan uang setelah kecelakaan mobil. Tipu muslihat, yang dilaporkan oleh McAfee Labs, begitu meyakinkan sehingga kakeknya segera mulai mengemis uang dan bahkan mempertimbangkan untuk menggadaikan kembali rumahnya, sebelum kebohongan itu ditemukan. “Karena sekarang mudah untuk menghasilkan tiruan suara yang sangat realistis… hampir semua orang yang hadir secara online rentan terhadap serangan,” kata profesor UC Berkeley School of Information Hany Farid kepada AFP. “Penipuan ini mendapatkan daya tarik dan menyebar.” Awal tahun 2023, start-up AI ElevenLabs mengakui bahwa alat kloning suaranya dapat disalahgunakan untuk "tujuan jahat" setelah pengguna memposting audio deepfake yang mengaku sebagai aktor Emma Watson yang membaca biografi Adolf Hitler, Mein Kampf. Gal Tal-Hochberg, kepala petugas teknologi grup di perusahaan modal ventura Team8, mengatakan kepada AFP: "Kami dengan cepat mendekati titik di mana Anda tidak dapat mempercayai hal-hal yang Anda lihat di Internet." "Kami akan membutuhkan teknologi baru untuk mengetahui apakah orang yang Anda pikir Anda ajak bicara sebenarnya adalah orang yang Anda ajak bicara," paparnya seperti dilansir The Straits Times, Senin (12/6/2023).  (AFP/Red)