Connect with us

PerisaiDigital

Waspada Penipuan Suara AI, 3 Detik “Halo” Bisa Tiru Suara Anda!

Published

on

Rifinet.com – Kemajuan teknologi kecerdasan buatan (AI) telah membawa ancaman baru dalam dunia kejahatan siber. Di Korea Selatan, modus penipuan suara atau voice phishingmenggunakan AI kini tengah marak, menargetkan keluarga dan kerabat korban dengan suara tiruan yang nyaris sempurna.

Pelaku hanya membutuhkan rekaman suara korban selama 3 detik, biasanya didapatkan dari panggilan telepon singkat, untuk kemudian diolah menggunakan Deep Voice AI.

Teknologi ini mampu menghasilkan kalimat utuh dari sampel suara yang sangat singkat, memungkinkan pelaku untuk meniru suara korban dan meminta bantuan uang dengan dalih darurat kepada orang terdekat.

Pakar Keamanan Siber Angkat Bicara

Alfons Tanujaya, pakar keamanan siber dari Vaksin.com, menegaskan bahwa sulit untuk mencegah suara dari penyalahgunaan AI, terutama bagi figur publik yang rekaman suaranya mudah ditemukan. Semakin banyak sampel suara yang tersedia, semakin sempurna pula hasil tiruannya.

“Membedakan suara asli dan tiruan semakin lama semakin sulit, karena kemampuan AI memalsukan suara terus meningkat,” ujar Alfons.

Advertisement

Bagaimana Cara Melindungi Diri?

Pratama Persadha, Chairman Lembaga Riset Keamanan Siber CISSReC, menyarankan beberapa langkah pencegahan:

  1. Jangan Angkat Panggilan Asing: Waspadai panggilan dari nomor tidak dikenal dan gunakan aplikasi seperti Truecaller atau Getcontact untuk mengidentifikasi penelepon.
  2. Aktifkan Fitur Bisukan: Nyalakan fitur “bisukan penelepon tidak dikenal” pada WhatsApp untuk menghindari panggilan yang tidak diinginkan.
  3. Gunakan Voice Changer: Jika terpaksa mengangkat panggilan asing, gunakan aplikasi pengubah suara untuk melindungi suara asli Anda.
  4. Verifikasi Ulang: Selalu konfirmasi ulang kepada keluarga atau teman jika ada permintaan bantuan uang melalui telepon.

Pemerintah Korea Selatan juga tengah mengembangkan teknologi watermarkuntuk membedakan suara asli dan tiruan, meskipun terdengar sama di telinga manusia.

Tetap Waspada dan Jangan Mudah Tertipu!

Kejahatan siber terus berkembang seiring dengan kemajuan teknologi. Penting bagi kita untuk selalu waspada dan tidak mudah percaya dengan informasi yang diterima melalui telepon, terutama jika melibatkan permintaan uang atau informasi pribadi.

Dengan memahami modus operandi penipuan suara AI ini dan mengikuti langkah-langkah pencegahan yang disarankan, kita dapat melindungi diri dan orang terdekat dari ancaman kejahatan siber yang semakin canggih.