<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=2253229985023706&amp;ev=PageView&amp;noscript=1">

back to HRMI

Evolusi Cybercrime di Era GenAI dan Dampaknya pada Keamanan Data

Read Time 11 mins | 20 Okt 2025 | Written by: Nur Rachmi Latifa

Cybercrime di Era GenAI

Kemunculan Generative Artificial Intelligence (GenAI) seperti ChatGPT, Claude, dan Gemini telah membawa perubahan besar dalam cara manusia bekerja, berkomunikasi, dan berinovasi. Teknologi ini menawarkan efisiensi dan kreativitas tanpa batas, memungkinkan siapa pun menciptakan teks, gambar, atau bahkan kode hanya dengan perintah sederhana. Namun, di balik potensi besarnya, GenAI juga membuka peluang baru bagi pelaku kejahatan siber. Serangan yang dulu memerlukan kemampuan teknis tinggi kini bisa dilakukan secara otomatis, cepat, dan nyaris tanpa jejak. Evolusi ini menandai babak baru dunia digital, di mana GenAI tak hanya menjadi simbol kemajuan, tetapi juga sumber ancaman serius terhadap keamanan data dan kepercayaan pengguna di dunia maya.

Apa Itu Generative AI dan Mengapa Berisiko?

Generative Artificial Intelligence (GenAI) merupakan sistem kecerdasan buatan yang dirancang untuk menciptakan konten baru—mulai dari teks, gambar, video, hingga kode—dengan memanfaatkan data pelatihan dalam jumlah besar. Berbeda dari sistem AI tradisional yang berbasis aturan (rule-based), GenAI memiliki kemampuan adaptif untuk memahami konteks, meniru gaya bahasa manusia, dan menghasilkan keluaran yang terasa alami hanya dalam hitungan detik. Inovasi ini menjadikan GenAI sangat menarik karena dapat digunakan di berbagai bidang, mulai dari penulisan otomatis, desain kreatif, hingga pengembangan perangkat lunak, sekaligus membuka babak baru dalam kolaborasi antara manusia dan mesin.

Namun, kemudahan akses yang ditawarkan GenAI juga membawa risiko besar. Melalui antarmuka sederhana seperti chatbot berbasis web atau aplikasi mobile, siapa pun kini bisa memanfaatkan kekuatan teknologi ini—termasuk pelaku kejahatan siber. Tools seperti WormGPT dan FraudGPT telah muncul sebagai versi “gelap” dari model AI yang dirancang tanpa filter etika, memungkinkan pembuatan malware, skrip phishing, serta pesan manipulatif yang sangat meyakinkan. Seperti yang diungkapkan oleh Luu dan Samuel (2025) dalam jurnal Exposing the Impact of GenAI for Cybercrime, fenomena ini menunjukkan bagaimana demokratisasi teknologi AI secara tidak langsung memperluas jangkauan dan daya serang pelaku kejahatan di dunia maya.

Menurut teori affordance yang dikemukakan Gibson (1979), teknologi memberikan “peluang tindakan” baru bagi penggunanya, tergantung pada niat dan konteks penggunaan. Dalam kasus GenAI, kemampuan untuk menghasilkan konten dan kode secara cepat menciptakan affordance yang dimanfaatkan tidak hanya untuk inovasi, tetapi juga untuk aktivitas berbahaya. Wach et al. (2023) menegaskan dalam Entrepreneurial Business and Economics Review bahwa kemampuan GenAI untuk meniru manusia dapat mempercepat penyebaran disinformasi dan serangan sosial teknik. Dengan kata lain, GenAI bukan sekadar alat bantu produktivitas, melainkan pisau bermata dua yang dapat memperkuat sekaligus mengancam keamanan data dan infrastruktur digital global.

Baca juga: Cara EvilAI Menipu Pengguna Lewat Tampilan Aplikasi AI Asli

Evolusi Cybercrime di Era GenAI

Dulu, cybercrime dilakukan oleh sekelompok individu dengan kemampuan teknis tinggi yang memahami jaringan, pemrograman, dan celah keamanan sistem. Kini, berkat kemampuan otomatisasi GenAI, siapa pun dengan koneksi internet dapat melancarkan serangan tanpa perlu menjadi ahli. Fenomena ini dikenal sebagai democratization of AI—yakni meluasnya akses terhadap teknologi yang sebelumnya hanya dikuasai oleh kalangan terbatas. GenAI membuat kejahatan siber semakin mudah, cepat, dan masif, karena alat yang sebelumnya eksklusif kini tersedia secara publik dan dapat digunakan tanpa batasan etika. 

Fenomena ini menggambarkan pergeseran besar dari serangan tradisional menuju serangan otomatis berbasis AI, di mana batas antara pengguna biasa dan peretas profesional semakin kabur. Penelitian empiris dalam jurnal Exposing the Impact of GenAI for Cybercrime: An Investigation into the Dark Side (Luu & Samuel, 2025) menemukan bahwa setelah rilis ChatGPT pada 30 November 2022:

  • Jumlah IP berbahaya meningkat drastis berdasarkan data AbuseIPDB yang menganalisis lebih dari 464 juta laporan aktivitas berbahaya di jaringan global.
  • Kasus penipuan kripto di Chainabuse melonjak rata-rata 721 kasus per minggu dan terus meningkat setelahnya, menunjukkan bahwa pelaku kejahatan mulai memanfaatkan AI untuk memperluas jangkauan serangan secara otomatis.

Lonjakan ini menunjukkan bahwa GenAI tidak hanya memperbanyak jumlah pelaku kejahatan, tetapi juga meningkatkan kompleksitas dan kecerdasan serangan. Dengan kemampuan menghasilkan bahasa alami, kode, serta media palsu, penjahat kini dapat membuat phishing email yang sangat personal, deepfake untuk menipu identitas, atau bahkan menulis skrip malware canggih hanya dengan perintah sederhana seperti:

“Buatkan saya kode ransomware yang terenkripsi otomatis.”

Dengan kemampuan seperti itu, batas antara script kiddie dan expert hacker kini nyaris hilang. Luu & Samuel (2025) juga menegaskan bahwa GenAI telah memperluas attack surface global—meningkatkan jumlah vektor serangan digital dan menurunkan hambatan masuk bagi pelaku baru di dunia kejahatan siber. Hal ini diperkuat oleh laporan dari Europol (2024) yang menyebut bahwa penggunaan GenAI oleh penjahat siber berkembang pesat dalam skema phishing, social engineering, dan penipuan finansial lintas negara. Evolusi ini memperlihatkan bahwa GenAI bukan hanya alat inovasi, tetapi juga akselerator bagi gelombang baru kejahatan digital yang lebih cepat, canggih, dan sulit dilacak.

Dua Lensa Teoritis: Affordance dan Technological Amplification

Fenomena meningkatnya kejahatan siber di era GenAI dapat dijelaskan melalui dua teori utama: Affordance Theory dan Technological Amplification. Kedua konsep ini menjelaskan bahwa teknologi bukan hanya alat teknis, melainkan juga ruang bagi manusia untuk mengekspresikan niat dan perilakunya. Artinya, dampak suatu teknologi tidak ditentukan oleh algoritma semata, tetapi oleh bagaimana manusia memanfaatkannya dalam konteks sosial dan etika.

Affordance Theory, pertama kali diperkenalkan oleh James J. Gibson (1979), menjelaskan bahwa setiap teknologi membuka peluang tindakan (action possibilities) bagi penggunanya. Dalam konteks GenAI, affordance muncul ketika kemampuan seperti pembuatan teks, kode, atau gambar digunakan bukan untuk produktivitas, melainkan untuk tujuan jahat seperti phishing otomatis, deepfake, dan rekayasa sosial. Luu & Samuel (2025) dalam jurnal Exposing the Impact of GenAI for Cybercrime menyebut bahwa kemudahan akses dan fleksibilitas GenAI telah menciptakan criminal affordance baru—menurunkan hambatan teknis dan memperluas peluang bagi siapa pun untuk melakukan kejahatan digital secara masif.

Sementara itu, Technological Amplification Theory menegaskan bahwa teknologi bersifat netral, namun memperbesar niat manusia di baliknya. Seperti telepon mempercepat komunikasi, GenAI mempercepat tindakan baik maupun jahat, termasuk pembuatan malware, disinformasi, dan serangan siber terotomatisasi. Luu & Samuel (2025) menggambarkan GenAI sebagai technological amplifier yang memperkuat kapasitas manusia untuk menciptakan dampak—baik positif maupun negatif—dalam skala yang belum pernah ada sebelumnya. Dengan demikian, permasalahan utama bukan terletak pada AI itu sendiri, melainkan pada kesadaran dan tanggung jawab manusia dalam mengendalikannya.

Modus Kejahatan Baru Berbasis GenAI

Kemampuan GenAI telah menciptakan gelombang baru serangan yang lebih meyakinkan, masif, dan sulit dideteksi. Teknologi ini tidak hanya mempercepat proses pembuatan konten berbahaya, tetapi juga meningkatkan kualitas manipulasi sehingga korban lebih mudah tertipu. Menurut Luu & Samuel (2025), kejahatan siber kini tidak lagi terbatas pada pelaku berpengalaman, karena siapa pun dapat memanfaatkan model AI terbuka untuk menciptakan serangan yang tampak alami dan profesional.

  • Phishing Otomatis dan Personalisasi Pesan
    Pelaku dapat menghasilkan ribuan email phishing yang disesuaikan dengan nama, jabatan, atau bahkan gaya komunikasi korban. Pesan menjadi lebih manusiawi, bebas dari kesalahan bahasa, dan sulit dibedakan dari email resmi. Bahkan, GenAI dapat mensimulasikan pola komunikasi perusahaan tertentu untuk meningkatkan tingkat keberhasilan serangan.
  • Deepfake dan Voice Cloning
    AI mampu meniru wajah atau suara seseorang dengan presisi tinggi. Kasus penipuan melalui panggilan “bos palsu” yang meminta transfer uang kini marak terjadi di berbagai perusahaan, dan menurut Europol (2024), serangan berbasis deepfake telah meningkat tajam dalam konteks penipuan finansial lintas negara.
  • Pembuatan Malware Otomatis
    GenAI dapat menulis dan menguji kode berbahaya tanpa memerlukan pengalaman pemrograman. Tools seperti WormGPT dan FraudGPT memungkinkan pelaku membuat skrip serangan lengkap hanya dengan prompt sederhana, bahkan menyesuaikan perilaku malware sesuai target sistem operasi.
  • Penipuan Kripto dan NFT
    Di ekosistem blockchain, AI digunakan untuk membuat situs palsu, dompet kripto tiruan, dan pesan penipuan otomatis. Analisis data Chainabuse dalam studi Luu & Samuel (2025) menunjukkan tren kenaikan signifikan dalam laporan penipuan kripto sejak 2022, menandakan meningkatnya penggunaan AI dalam mengotomatisasi kejahatan finansial berbasis aset digital.
  • Chatbot Penipu (AI Social Engineer)
    Bot cerdas digunakan untuk berinteraksi dengan korban secara real time, meniru empati dan gaya bicara manusia agar korban merasa percaya dan menyerahkan data sensitifnya. Dalam beberapa kasus, bot ini bahkan mampu mempertahankan percakapan panjang dan beradaptasi dengan emosi korban, menciptakan ilusi keaslian yang sempurna.

Secara keseluruhan, GenAI telah mengubah wajah kejahatan digital dengan menghadirkan modus-modus baru yang jauh lebih halus dan personal. Jika sebelumnya kejahatan siber bergantung pada eksploitasi teknis, kini fokusnya bergeser pada eksploitasi psikologis manusia. Inilah alasan mengapa pendekatan keamanan masa depan harus mencakup bukan hanya perlindungan teknologi, tetapi juga peningkatan kesadaran dan ketahanan manusia terhadap manipulasi berbasis AI.

Dampak Serangan GenAI terhadap Keamanan Data

Lonjakan serangan berbasis AI membawa implikasi langsung terhadap keamanan data pribadi, korporasi, dan infrastruktur digital global. Jika sebelumnya ancaman utama datang dari serangan teknis seperti eksploitasi sistem atau brute force attack, kini ancaman terbesar muncul dari serangan cerdas berbasis manipulasi konten dan perilaku manusia. GenAI memungkinkan pelaku menciptakan serangan yang tampak sah, sangat personal, dan sulit dibedakan dari aktivitas normal, sehingga meningkatkan risiko kebocoran data dan penyalahgunaan informasi di berbagai sektor.

  • Kebocoran Data Internal: Kasus nyata seperti insiden Samsung (2023) menunjukkan bagaimana engineer tanpa sadar membocorkan kode sumber internal perusahaan ke ChatGPT saat mencoba mencari solusi teknis. Data yang dimasukkan ke dalam model publik berpotensi tersimpan atau digunakan untuk pelatihan ulang, menimbulkan risiko kebocoran informasi rahasia yang tak bisa dikendalikan.
  • Pencurian Identitas dan Kredensial: Phishing berbasis GenAI kini mampu meniru domain, tampilan website, bahkan gaya komunikasi internal perusahaan dengan tingkat keaslian tinggi. Serangan seperti ini tidak lagi mudah dideteksi hanya dengan melihat ejaan atau desain yang janggal, karena AI dapat meniru dengan sempurna bahasa dan tone profesional target perusahaan.
  • Disinformasi dan Manipulasi Publik: Teknologi deepfake dan synthetic media digunakan untuk menciptakan video palsu, pesan suara, atau berita bohong yang tampak autentik. Fenomena ini tidak hanya mengancam individu, tetapi juga dapat mengguncang reputasi institusi, pasar keuangan, hingga stabilitas politik suatu negara.
  • Bypass Sistem Keamanan: Konten buatan AI memiliki struktur linguistik dan visual yang berbeda dari serangan tradisional, membuatnya sulit dideteksi oleh sistem keamanan lama seperti spam filter atau antivirus signature-based. Bahkan, beberapa serangan AI mampu menghindari algoritma deteksi otomatis dengan menghasilkan variasi konten setiap kali dijalankan.

Ketika data telah menjadi “bahan bakar ekonomi digital”, kehilangan atau manipulasi data tidak hanya menimbulkan kerugian finansial, tetapi juga menghancurkan kepercayaan pelanggan dan reputasi bisnis. Dalam konteks ini, Luu & Samuel (2025) menekankan bahwa ancaman dari GenAI menandai pergeseran paradigma dari technical risk menjadi human-driven data risk, di mana kesalahan manusia dan kurangnya kesadaran menjadi faktor terbesar kebocoran data modern. Perlindungan data kini menuntut strategi menyeluruh—menggabungkan kebijakan keamanan, edukasi pengguna, dan tata kelola AI yang bertanggung jawab.

Upaya Mitigasi dan Strategi Pertahanan

Untuk menekan risiko yang muncul dari evolusi cybercrime berbasis GenAI, diperlukan pendekatan berlapis yang tidak hanya mengandalkan teknologi, tetapi juga mencakup kebijakan, etika, dan edukasi manusia. Serangan berbasis AI tidak dapat dihadapi dengan solusi tunggal; melainkan membutuhkan kombinasi antara regulasi, sistem deteksi otomatis, dan peningkatan literasi digital di seluruh lapisan masyarakat. Pendekatan multidimensional ini menjadi kunci dalam membangun ketahanan siber yang berkelanjutan di era GenAI.

AI Governance dan Regulasi Proaktif

Pemerintah dan industri perlu menerapkan kerangka seperti NIST AI Risk Management Framework (2025) dan EU AI Act (2024) yang mengklasifikasikan risiko AI ke dalam empat kategori utama: unacceptable, high, limited, dan minimal risk. Regulasi ini membantu memastikan penggunaan AI yang bertanggung jawab, transparan, dan sesuai dengan prinsip etika. Seperti dijelaskan oleh Luu & Samuel (2025) dalam Exposing the Impact of GenAI for Cybercrime, lemahnya tata kelola AI menjadi salah satu pemicu penyalahgunaan teknologi generatif untuk kejahatan digital, sehingga regulasi lintas negara menjadi kebutuhan mendesak.

Pendidikan & Pelatihan Kesadaran Keamanan Siber

Organisasi perlu menanamkan kesadaran bahwa manusia adalah lini pertahanan pertama terhadap serangan siber. Pelatihan keamanan siber tidak lagi cukup hanya berupa seminar atau modul teks, melainkan perlu menggunakan pendekatan gamifikasi, microlearning, dan storytelling interaktif agar lebih menarik dan mudah diingat. Materi pelatihan juga harus mencakup cara mengenali tanda-tanda phishing, deepfake, dan manipulasi sosial berbasis AI agar karyawan mampu bertindak cepat ketika menghadapi ancaman nyata.

AI untuk Melawan AI (Counter-AI Defense)

Dalam situasi di mana pelaku kejahatan menggunakan AI untuk menyerang, maka pertahanan pun harus berevolusi dengan AI. Sistem AI-driven security kini digunakan untuk mendeteksi anomali, mengenali pola serangan baru, dan mengidentifikasi konten berbahaya yang dihasilkan oleh model generatif. Pendekatan ini memungkinkan organisasi merespons ancaman secara adaptif dan prediktif, bukan reaktif seperti sebelumnya.

Transparansi dan Audit Model AI

Para pengembang perlu menerapkan prinsip Responsible AI Development melalui transparansi algoritma dan audit model secara berkala. Inisiatif seperti model cards, dataset provenance, dan sistem audit independen akan membantu melacak sumber data pelatihan serta mengidentifikasi potensi penyalahgunaan lebih awal.

Kolaborasi Multistakeholder

Perlindungan data tidak bisa hanya menjadi tanggung jawab tim IT semata. Diperlukan kolaborasi erat antara akademisi, regulator, pelaku industri, serta masyarakat sipil untuk menciptakan ekosistem keamanan digital yang saling memperkuat. Pendekatan lintas sektor ini memastikan bahwa setiap pihak memiliki peran dalam membangun keamanan siber yang resilien dan adaptif terhadap ancaman berbasis AI.

Strategi mitigasi paling efektif bukan sekadar memperkuat pertahanan teknis, tetapi juga membangun budaya keamanan siber yang sadar risiko. Dengan menggabungkan kebijakan yang tegas, inovasi teknologi pertahanan, dan literasi digital yang kuat, dunia dapat memanfaatkan potensi GenAI secara positif tanpa terjebak dalam gelombang penyalahgunaannya.

Tantangan Etika dan Regulasi

Salah satu isu paling kompleks dalam perkembangan GenAI adalah pertanggungjawaban moral — siapa yang harus disalahkan ketika AI digunakan untuk kejahatan? Apakah pembuat model, pengguna, atau penyedia platform? Pertanyaan ini menjadi semakin relevan karena batas antara pencipta dan pengguna semakin kabur di era teknologi terbuka. AI kini mampu bertindak secara otonom berdasarkan data pelatihan yang sulit ditelusuri, sehingga menimbulkan dilema baru dalam penegakan hukum dan etika digital. Menurut Luu & Samuel (2025) dalam Exposing the Impact of GenAI for Cybercrime, lebih dari 1,7 juta model AI telah diunggah di platform seperti Hugging Face, dan sebagian di antaranya dilatih tanpa pengawasan etika atau tinjauan keamanan. 

Banyak model bersifat privat (private LLMs) yang dikembangkan secara tertutup untuk tujuan manipulatif atau bahkan kriminal. Hal ini menciptakan ruang abu-abu antara kebebasan penelitian dan penyalahgunaan teknologi. Dalam laporan UNESCO (2023) tentang Ethics of Artificial Intelligence, disebutkan bahwa ketiadaan pedoman global yang seragam membuat banyak negara masih beroperasi dengan standar etika yang berbeda-beda, memperburuk risiko lintas batas dalam penyalahgunaan AI. Tantangan lainnya juga mencakup:

  • Desentralisasi AI: siapa yang mengawasi model open-source yang dijalankan secara lokal tanpa regulasi pusat? Sistem ini sulit diawasi karena tidak memiliki otoritas tunggal yang bertanggung jawab.
  • Keterbatasan hukum internasional: hingga kini belum ada konsensus global mengenai batas etika dan tanggung jawab hukum atas penggunaan GenAI. Perbedaan pandangan antarnegara membuat penerapan sanksi dan pengawasan sulit dilakukan secara konsisten.
  • Konflik antara inovasi dan regulasi: regulasi yang terlalu ketat dapat memperlambat inovasi dan penelitian, namun kebebasan tanpa batas berpotensi menimbulkan risiko keamanan global. Dilema ini menggambarkan ketegangan antara upaya melindungi masyarakat dan mendorong kemajuan teknologi.

Solusi jangka panjang memerlukan keseimbangan antara security by design dan freedom to innovate. Artinya, keamanan dan etika harus tertanam sejak tahap pengembangan model, bukan hanya diterapkan sebagai reaksi setelah terjadi insiden. AI perlu diarahkan dengan prinsip tanggung jawab sosial, transparansi, dan kesadaran kolektif terhadap risiko yang ditimbulkannya. Seperti yang disimpulkan oleh OECD AI Policy Observatory (2024), masa depan AI yang aman hanya dapat dicapai melalui kolaborasi lintas disiplin—antara ilmuwan, regulator, pengembang, dan masyarakat—agar inovasi dapat terus berkembang tanpa mengorbankan nilai-nilai kemanusiaan dan keamanan global.

Baca juga: Evolusi Algoritma dalam Menangkal Deepfake

Kesimpulan

Evolusi cybercrime di era GenAI menunjukkan paradoks kemajuan teknologi: semakin pintar sistemnya, semakin berbahaya potensi penyalahgunaannya. Berdasarkan bukti empiris dari penelitian terbaru, peluncuran model GenAI berhubungan dengan peningkatan signifikan aktivitas jahat di dunia maya—baik dalam konteks umum maupun pada ekosistem kripto.

GenAI bersifat netral, tetapi niat manusia menentukan arah dampaknya. Ketika kemampuan luar biasa ini disalahgunakan, keamanan data menjadi taruhan utama. Oleh karena itu, melindungi data di era GenAI bukan hanya soal cybersecurity, melainkan juga human responsibility. Dengan regulasi yang kuat, edukasi publik, dan kolaborasi lintas sektor, dunia masih bisa memanfaatkan GenAI sebagai alat kemajuan—bukan alat kejahatan.

Satu Solusi Kelola Keamanan Siber Karyawan Secara Simple & Otomatis

Nur Rachmi Latifa

Penulis yang berfokus memproduksi konten seputar Cybersecurity, Privacy dan Human Cyber Risk Management.

WhatsApp Icon Mira