Awas, Data Biometrik dan Tanda Tangan Rawan Dicuri
Jakarta, ID – Kaspersky telah mendeteksi dan memblokir lebih dari 142 juta klik tautan phishing pada kuartal II- 2025, meningkat 3,3% dibandingkan kuartal I-2025. Dua hal di antaranya, phishing tersebut menargetkan pencurian data biometerik dan tanda tangan.
Menurut Kaspesky, lembaga konsultan dan penyedia solusi siber asal Rusia, saat ini, phishing mengalami pergeseran didorong oleh teknik penipuan canggih berbasis AI dan metode penghindaran yang inovatif.
Pelaku kejahatan siber pun tengah mengeksploitasi peniruan profil seseorang dengan teknologi AI (deepfake), kloning suara, dan platform tepercaya, seperti Telegram dan Google Translate.
Tujuannya antara lain untuk mencuri data sensitif, termasuk biometrik, tanda tangan elektronik dan tulisan tangan, sehingga menimbulkan risiko yang belum pernah terjadi sebelumnya bagi individu dan bisnis.
Pakar keamanan di Kaspersky Olga Altukhova mengatakan, konvergensi AI dan taktik mengelak telah mengubah phishing menjadi tiruan komunikasi sah yang hampir alami, menantang, bahkan bagi pengguna yang paling waspada sekali pun.
“Penyerang tidak lagi puas dengan mencuri kata sandi. Mereka juga menargetkan data biometrik, tanda tangan elektronik, dan tulisan tangan, yang berpotensi menciptakan konsekuensi menghancurkan,” ujar Olga, dikutip InfoDigital.co.id, Jumat (7/11/2025).
Dengan mengeksploitasi platform tepercaya, seperti Telegram dan Google Translate, serta mengadopsi alat seperti CAPTCHA, menurut dia, penyerang dapat melampaui pertahanan tradisional.
“Pengguna pun harus semakin skeptis dan proaktif agar tidak menjadi korban,” saran Olga.
Phising Berbasis AI
Temuan Kaspersky mengungkapkan, kehadiran AI kini telah meningkatkan phishing menjadi ancaman yang sangat personal.
Model bahasa yang luas memungkinkan penyerang untuk membuat e-mail, pesan, dan situs web yang meyakinkan yang meniru sumber yang sah, serta menghilangkan kesalahan tata bahasa yang pernah mengungkap penipuan.
Bot berbasis AI di media sosial dan aplikasi perpesanan juga menyamar sebagai pengguna asli, melibatkan korban dalam percakapan berkepanjangan untuk membangun kepercayaan.
Bot seringkali memicu penipuan terkait investasi hingga personal, seperti hubungan romantis, memikat korban ke dalam peluang palsu dengan pesan audio buatan AI atau video deepfake.
Penyerang juga menciptakan tiruan deepfake audio dan video realistis dari tokoh tepercaya, mulai kolega, selebritas, atau bahkan pejabat bank, untuk mempromosikan hadiah palsu atau mengekstrak informasi sensitif.
Misalnya, panggilan otomatis yang meniru tim keamanan bank menggunakan suara yang dihasilkan AI untuk mengelabui pengguna agar membagikan kode autentikasi dua faktor (2FA), sehingga memungkinkan akses akun atau transaksi penipuan.
Selain itu, perangkat bertenaga AI menganalisis data publik dari media sosial atau situs web perusahaan untuk meluncurkan serangan tertarget, seperti e-mail terkait departemen HR atau panggilan palsu yang merujuk pada detail pribadi.
Join channel telegram websitekami.com agar tidak ketinggalan berita loker terbaru lainnya
Join now



