Waspada! Penipuan M-Banking Pakai AI Makin Ganas, Ini 4 Modus Jahat yang Harus Kamu Tahu

Genvoice.id | 29 Jun 2025

JAKARTA, GENVOICE.ID - Teknologi memang bikin hidup lebih praktis. Tapi Gen, jangan lupa, semakin canggih suatu teknologi, semakin besar juga potensi penyalahgunaannya. Dan sekarang, kecerdasan buatan alias AI lagi-lagi jadi sorotan karena banyak disalahgunakan buat aksi penipuan yang makin sulit dideteksi.

Kalau kamu merasa m-banking udah aman karena pakai fingerprint atau face ID, siap-siap mikir ulang. Soalnya, tahun 2025 diprediksi jadi era "penipuan canggih" yang ngandelin deepfake, kloning suara, sampai chatbot AI buat ngejebak korbannya. Gak main-main, beberapa kasus bahkan sampai rugi miliaran rupiah!

Mengutip laporan terbaru dari Forbes, para penipu digital sekarang udah bukan sekadar pakai email palsu atau link jebakan. Mereka upgrade senjata pakai teknologi AI dan nyasar siapa aja, dari pengguna m-banking biasa sampai pejabat tinggi dan eksekutif perusahaan.

Berikut ini 4 modus kejahatan digital berbasis AI yang lagi rame banget dan wajib kamu waspadai:


1. Modus Deepfake di Zoom, Email, dan Percakapan Bisnis

Kalau dulu modus BEC (Business Email Compromise) cuma pakai email nyaru bos, sekarang udah beda level, Gen. Pelaku bisa bikin video Zoom palsu yang nampilin wajah dan suara atasan kamu - semua itu hasil rekayasa AI!

Contohnya nih, di Hong Kong, seorang karyawan ditipu habis-habisan lewat video call deepfake dan diminta transfer uang perusahaan. Total kerugiannya nyentuh hampir Rp480 miliar. Gila, kan?

Menurut data, 53% profesional akuntansi di AS udah pernah jadi target serangan serupa. Bahkan 40% dari email-email BEC sekarang full dibuat oleh AI. Ngeri banget.


2. Chatbot AI Nyamar Jadi Gebetan, Siap Bikin Baper

Modus penipuan cinta online juga ikutan naik kelas. Dulu scammer masih ngetik sendiri, sekarang udah digantikan chatbot AI. Bot ini bisa ngajak ngobrol nonstop dengan gaya yang meyakinkan dan bahasa yang halus banget.

Lebih serem lagi, korban biasanya susah bedain mana manusia asli dan mana AI. Skema ini udah ramai banget di media sosial, dan bahkan sempet diungkap langsung oleh pelaku asal Nigeria dalam sebuah video pengakuan.


3. "Pig Butchering" Berbalut Investasi, Didukung AI Masif

Skema investasi palsu dengan bumbu asmara, alias "pig butchering", juga makin gencar. Bedanya, sekarang pelaku bisa nyebarin ribuan pesan sekaligus pake tools kayak Instagram Automatic Fans.

Contoh pesan jebakan: "Temanku rekomendasiin kamu. Apa kabar?" - kelihatannya biasa, padahal itu awal dari penipuan yang udah dirancang rapi pakai AI.

Biar makin meyakinkan, pelaku pakai deepfake video call dan suara hasil kloning biar korban gak curiga. Hasilnya? Banyak yang langsung percaya dan rela transfer uang.


4. Deepfake Buat Pemerasan, Eksekutif & Pejabat Jadi Sasaran

Nah, yang satu ini udah masuk level dark mode. Beberapa kasus di Singapura ngungkap pelaku mengirim video deepfake pakai wajah pejabat terkenal, lalu minta uang tebusan dalam bentuk kripto.

Mereka cukup ambil foto dari LinkedIn atau YouTube, lalu diolah jadi video palsu dengan bantuan AI. Hasilnya realistis banget, sampai bisa bikin orang panik dan langsung transfer uang buat nutupin "aib" yang sebenarnya palsu.

Teknik ini diyakini bakal makin menyebar dan nyasar banyak tokoh penting di dunia, termasuk di sektor swasta.


Jadi, Apa yang Bisa Kamu Lakuin, Gen?

  • Waspada! Jangan langsung percaya kalau ada yang ngajak video call mendadak atau kirim link random, apalagi yang ngaku-ngaku atasan atau gebetan online.

  • Jaga data pribadimu. Jangan gampang unggah info sensitif, terutama di medsos publik.

  • Update keamanan aplikasi. Aktifin verifikasi dua langkah dan pasang notifikasi semua transaksi m-banking kamu.

  • Cek fakta. Kalau ada sesuatu yang terasa aneh, lebih baik telusuri dulu sebelum ngambil tindakan.


Teknologi memang keren, tapi kamu juga harus lebih pintar dari yang niatnya jahat, Gen! Ingat, penipuan sekarang bukan lagi pakai modus lama. Mereka udah upgrade pakai AI, dan korbannya bisa siapa aja - termasuk kamu!

Jadi, jangan asal klik, jangan gampang percaya, dan pastikan kamu selalu selangkah lebih cerdas dari para penjahat digital.