Ketika Suara Tak Lagi Bisa Dipercaya

Love Scamming di Era Voice Cloning dan Deepfake Audio

Yudapratama Wahyu Hadisurya Mahasiswa Magister Forensika Digital UII
Yudapratama Wahyu Hadisurya Mahasiswa Magister Forensika Digital UII

Otanaha.id -

Di era digital, jatuh cinta tidak selalu dimulai dari tatap muka. Cukup satu geser layar, sebuah pesan singkat, lalu percakapan yang mengalir setiap hari. Aplikasi kencan, media sosial, dan layanan pesan instan membuka ruang baru untuk berkenalan, berbagi kisah pribadi, bahkan membayangkan masa depan bersama. Semuanya terasa cepat dan mudah—dan barangkali justru di situlah masalahnya.

Di balik kemudahan tersebut, muncul bentuk penipuan yang kian rapi dan meyakinkan, dikenal sebagai love scamming. Jika sebelumnya penipuan semacam ini hanya mengandalkan kata-kata manis dan foto profil menarik, kini pelaku memanfaatkan teknologi yang jauh lebih canggih: voice cloning dan deepfake audio.

Dari Obrolan Ringan ke Suara yang Terasa Personal

Sebagian besar kasus love scamming tidak dimulai dengan kecurigaan. Perkenalan di aplikasi kencan berkembang menjadi percakapan rutin. Pesan dibalas cepat, perhatian diberikan konsisten, dan emosi korban dipahami dengan baik. Perlahan, rasa percaya tumbuh.

Ketika hubungan terasa semakin dekat, pola komunikasi pun berubah. Mulai dari pesan teks, beralih ke pesan suara, lalu panggilan telepon. Di fase inilah teknologi voice cloning mulai dimanfaatkan. Rekaman suara singkat—sekadar sapaan atau cerita ringan—dapat diolah dengan kecerdasan buatan untuk menghasilkan suara tiruan yang terdengar nyaris identik dengan aslinya.

Suara palsu ini kemudian digunakan untuk menyampaikan alasan-alasan mendesak: kecelakaan, masalah keluarga, hingga kebutuhan keuangan yang diklaim tidak bisa ditunda. Bagi banyak orang, mendengar suara pasangan terasa jauh lebih meyakinkan dibanding membaca teks. Justru karena itu, love scamming berbasis deepfake audio menjadi jauh lebih berbahaya.ia bekerja langsung pada emosi, sering kali tanpa memberi ruang untuk berpikir jernih.

Mengenal Voice Cloning dan Deepfake Audio

Voice cloning adalah teknologi kecerdasan buatan yang memungkinkan suara seseorang ditiru hanya dengan sampel suara yang relatif singkat. Hasil rekayasa ini dikenal sebagai deepfake audio. Dalam konteks kejahatan, teknologi tersebut digunakan untuk menyamar dan menipu.

Kesadaran penting yang perlu dibangun adalah bahwa di era digital saat ini, mendengar suara seseorang tidak lagi cukup untuk memastikan identitas di balik percakapan.

Jejak Digital dan Peran Multimedia Forensik

Meski terdengar nyaris sempurna, suara palsu bukan berarti mustahil dilacak. Di sinilah multimedia forensik berperan. Bidang ini mempelajari keaslian konten digital—audio, video, maupun gambar—melalui analisis pola suara, karakter frekuensi, hingga metadata digital.

Setiap pesan suara dan panggilan digital sejatinya meninggalkan rekam jejak. Jika bukti-bukti tersebut disimpan dengan baik, semuanya dapat membantu proses penelusuran dan membedakan suara asli dari suara yang telah direkayasa.

Langkah Sederhana Menghindari Jebakan

Bagi masyarakat awam, pencegahan tidak harus rumit. Prinsip dasar yang perlu dipegang adalah tidak menjadikan suara sebagai satu-satunya penanda keaslian seseorang, terutama jika belum pernah bertemu langsung.

Permintaan mendesak yang sarat emosi patut dicurigai. Cerita tentang kecelakaan, sakit mendadak, atau masalah keuangan sering digunakan untuk menekan empati korban agar tidak sempat berpikir panjang.

Langkah berikutnya adalah verifikasi. Jika seseorang mengaku sebagai pasangan atau orang dekat dan meminta bantuan, pastikan melalui saluran lain—misalnya video call atau konfirmasi kepada pihak yang benar-benar dikenal. Seluruh bukti digital seperti chat, pesan suara, dan bukti transfer sebaiknya disimpan dan tidak dihapus ketika muncul kecurigaan.

Korban Bukan Pihak yang Salah dan Kaitan dengan UU ITE
Perlu ditegaskan, love scamming, termasuk yang memanfaatkan deepfake audio, adalah kejahatan digital. Korban tidak perlu merasa malu atau menyalahkan diri sendiri. Laporan dan bukti yang disampaikan justru dapat membantu mencegah pelaku menjerat korban berikutnya.

Secara hukum, praktik ini dapat diproses melalui Undang-Undang Informasi dan Transaksi Elektronik (UU ITE). Berdasarkan UU Nomor 1 Tahun 2024 sebagai perubahan atas UU Nomor 11 Tahun 2008, penyebaran informasi bohong yang merugikan orang lain dapat dikenai Pasal 28 ayat (1), dengan ancaman pidana sebagaimana diatur dalam Pasal 45A, yaitu penjara paling lama enam tahun dan/atau denda paling banyak satu miliar rupiah.

Sementara itu, pemalsuan suara atau identitas digital berkaitan dengan Pasal 35 UU ITE, yang melarang manipulasi informasi elektronik agar tampak seolah-olah asli, dengan ancaman pidana penjara paling lama dua belas tahun dan/atau denda paling banyak dua belas miliar rupiah. Pembaruan regulasi ini menegaskan bahwa UU ITE ditujukan untuk menindak penyalahgunaan teknologi dan melindungi korban, bukan mencampuri urusan pribadi.

Penutup

Teknologi seperti voice cloning membawa banyak manfaat, mulai dari dunia kreatif hingga layanan digital. Namun, bersamaan dengan itu, muncul pula bentuk kejahatan yang semakin sulit dikenali. Di tengah maraknya aplikasi kencan dan pesatnya perkembangan kecerdasan buatan, kewaspadaan bukan lagi sekadar pilihan, melainkan kebutuhan.

Hubungan yang sehat tidak dibangun di atas tekanan, permintaan uang mendadak, atau kisah darurat yang terus diulang. Di era ketika suara pun bisa dipalsukan, mungkin satu-satunya yang tidak boleh kita serahkan sepenuhnya adalah akal sehat.

Yudapratama Wahyu Hadisurya
Mahasiswa Magister Forensika Digital UII