Kemunculan Generative Artificial Intelligence (GenAI) seperti ChatGPT, Claude, dan Gemini telah membawa perubahan besar dalam cara manusia bekerja, berkomunikasi, dan berinovasi. Teknologi ini menawarkan efisiensi dan kreativitas tanpa batas, memungkinkan siapa pun menciptakan teks, gambar, atau bahkan kode hanya dengan perintah sederhana. Namun, di balik potensi besarnya, GenAI juga membuka peluang baru bagi pelaku kejahatan siber. Serangan yang dulu memerlukan kemampuan teknis tinggi kini bisa dilakukan secara otomatis, cepat, dan nyaris tanpa jejak. Evolusi ini menandai babak baru dunia digital, di mana GenAI tak hanya menjadi simbol kemajuan, tetapi juga sumber ancaman serius terhadap keamanan data dan kepercayaan pengguna di dunia maya.
Generative Artificial Intelligence (GenAI) merupakan sistem kecerdasan buatan yang dirancang untuk menciptakan konten baru—mulai dari teks, gambar, video, hingga kode—dengan memanfaatkan data pelatihan dalam jumlah besar. Berbeda dari sistem AI tradisional yang berbasis aturan (rule-based), GenAI memiliki kemampuan adaptif untuk memahami konteks, meniru gaya bahasa manusia, dan menghasilkan keluaran yang terasa alami hanya dalam hitungan detik. Inovasi ini menjadikan GenAI sangat menarik karena dapat digunakan di berbagai bidang, mulai dari penulisan otomatis, desain kreatif, hingga pengembangan perangkat lunak, sekaligus membuka babak baru dalam kolaborasi antara manusia dan mesin.
Namun, kemudahan akses yang ditawarkan GenAI juga membawa risiko besar. Melalui antarmuka sederhana seperti chatbot berbasis web atau aplikasi mobile, siapa pun kini bisa memanfaatkan kekuatan teknologi ini—termasuk pelaku kejahatan siber. Tools seperti WormGPT dan FraudGPT telah muncul sebagai versi “gelap” dari model AI yang dirancang tanpa filter etika, memungkinkan pembuatan malware, skrip phishing, serta pesan manipulatif yang sangat meyakinkan. Seperti yang diungkapkan oleh Luu dan Samuel (2025) dalam jurnal Exposing the Impact of GenAI for Cybercrime, fenomena ini menunjukkan bagaimana demokratisasi teknologi AI secara tidak langsung memperluas jangkauan dan daya serang pelaku kejahatan di dunia maya.
Menurut teori affordance yang dikemukakan Gibson (1979), teknologi memberikan “peluang tindakan” baru bagi penggunanya, tergantung pada niat dan konteks penggunaan. Dalam kasus GenAI, kemampuan untuk menghasilkan konten dan kode secara cepat menciptakan affordance yang dimanfaatkan tidak hanya untuk inovasi, tetapi juga untuk aktivitas berbahaya. Wach et al. (2023) menegaskan dalam Entrepreneurial Business and Economics Review bahwa kemampuan GenAI untuk meniru manusia dapat mempercepat penyebaran disinformasi dan serangan sosial teknik. Dengan kata lain, GenAI bukan sekadar alat bantu produktivitas, melainkan pisau bermata dua yang dapat memperkuat sekaligus mengancam keamanan data dan infrastruktur digital global.
Baca juga: Cara EvilAI Menipu Pengguna Lewat Tampilan Aplikasi AI Asli
Dulu, cybercrime dilakukan oleh sekelompok individu dengan kemampuan teknis tinggi yang memahami jaringan, pemrograman, dan celah keamanan sistem. Kini, berkat kemampuan otomatisasi GenAI, siapa pun dengan koneksi internet dapat melancarkan serangan tanpa perlu menjadi ahli. Fenomena ini dikenal sebagai democratization of AI—yakni meluasnya akses terhadap teknologi yang sebelumnya hanya dikuasai oleh kalangan terbatas. GenAI membuat kejahatan siber semakin mudah, cepat, dan masif, karena alat yang sebelumnya eksklusif kini tersedia secara publik dan dapat digunakan tanpa batasan etika.
Fenomena ini menggambarkan pergeseran besar dari serangan tradisional menuju serangan otomatis berbasis AI, di mana batas antara pengguna biasa dan peretas profesional semakin kabur. Penelitian empiris dalam jurnal Exposing the Impact of GenAI for Cybercrime: An Investigation into the Dark Side (Luu & Samuel, 2025) menemukan bahwa setelah rilis ChatGPT pada 30 November 2022:
Lonjakan ini menunjukkan bahwa GenAI tidak hanya memperbanyak jumlah pelaku kejahatan, tetapi juga meningkatkan kompleksitas dan kecerdasan serangan. Dengan kemampuan menghasilkan bahasa alami, kode, serta media palsu, penjahat kini dapat membuat phishing email yang sangat personal, deepfake untuk menipu identitas, atau bahkan menulis skrip malware canggih hanya dengan perintah sederhana seperti:
“Buatkan saya kode ransomware yang terenkripsi otomatis.”
Dengan kemampuan seperti itu, batas antara script kiddie dan expert hacker kini nyaris hilang. Luu & Samuel (2025) juga menegaskan bahwa GenAI telah memperluas attack surface global—meningkatkan jumlah vektor serangan digital dan menurunkan hambatan masuk bagi pelaku baru di dunia kejahatan siber. Hal ini diperkuat oleh laporan dari Europol (2024) yang menyebut bahwa penggunaan GenAI oleh penjahat siber berkembang pesat dalam skema phishing, social engineering, dan penipuan finansial lintas negara. Evolusi ini memperlihatkan bahwa GenAI bukan hanya alat inovasi, tetapi juga akselerator bagi gelombang baru kejahatan digital yang lebih cepat, canggih, dan sulit dilacak.
Fenomena meningkatnya kejahatan siber di era GenAI dapat dijelaskan melalui dua teori utama: Affordance Theory dan Technological Amplification. Kedua konsep ini menjelaskan bahwa teknologi bukan hanya alat teknis, melainkan juga ruang bagi manusia untuk mengekspresikan niat dan perilakunya. Artinya, dampak suatu teknologi tidak ditentukan oleh algoritma semata, tetapi oleh bagaimana manusia memanfaatkannya dalam konteks sosial dan etika.
Affordance Theory, pertama kali diperkenalkan oleh James J. Gibson (1979), menjelaskan bahwa setiap teknologi membuka peluang tindakan (action possibilities) bagi penggunanya. Dalam konteks GenAI, affordance muncul ketika kemampuan seperti pembuatan teks, kode, atau gambar digunakan bukan untuk produktivitas, melainkan untuk tujuan jahat seperti phishing otomatis, deepfake, dan rekayasa sosial. Luu & Samuel (2025) dalam jurnal Exposing the Impact of GenAI for Cybercrime menyebut bahwa kemudahan akses dan fleksibilitas GenAI telah menciptakan criminal affordance baru—menurunkan hambatan teknis dan memperluas peluang bagi siapa pun untuk melakukan kejahatan digital secara masif.
Sementara itu, Technological Amplification Theory menegaskan bahwa teknologi bersifat netral, namun memperbesar niat manusia di baliknya. Seperti telepon mempercepat komunikasi, GenAI mempercepat tindakan baik maupun jahat, termasuk pembuatan malware, disinformasi, dan serangan siber terotomatisasi. Luu & Samuel (2025) menggambarkan GenAI sebagai technological amplifier yang memperkuat kapasitas manusia untuk menciptakan dampak—baik positif maupun negatif—dalam skala yang belum pernah ada sebelumnya. Dengan demikian, permasalahan utama bukan terletak pada AI itu sendiri, melainkan pada kesadaran dan tanggung jawab manusia dalam mengendalikannya.
Kemampuan GenAI telah menciptakan gelombang baru serangan yang lebih meyakinkan, masif, dan sulit dideteksi. Teknologi ini tidak hanya mempercepat proses pembuatan konten berbahaya, tetapi juga meningkatkan kualitas manipulasi sehingga korban lebih mudah tertipu. Menurut Luu & Samuel (2025), kejahatan siber kini tidak lagi terbatas pada pelaku berpengalaman, karena siapa pun dapat memanfaatkan model AI terbuka untuk menciptakan serangan yang tampak alami dan profesional.
Secara keseluruhan, GenAI telah mengubah wajah kejahatan digital dengan menghadirkan modus-modus baru yang jauh lebih halus dan personal. Jika sebelumnya kejahatan siber bergantung pada eksploitasi teknis, kini fokusnya bergeser pada eksploitasi psikologis manusia. Inilah alasan mengapa pendekatan keamanan masa depan harus mencakup bukan hanya perlindungan teknologi, tetapi juga peningkatan kesadaran dan ketahanan manusia terhadap manipulasi berbasis AI.
Lonjakan serangan berbasis AI membawa implikasi langsung terhadap keamanan data pribadi, korporasi, dan infrastruktur digital global. Jika sebelumnya ancaman utama datang dari serangan teknis seperti eksploitasi sistem atau brute force attack, kini ancaman terbesar muncul dari serangan cerdas berbasis manipulasi konten dan perilaku manusia. GenAI memungkinkan pelaku menciptakan serangan yang tampak sah, sangat personal, dan sulit dibedakan dari aktivitas normal, sehingga meningkatkan risiko kebocoran data dan penyalahgunaan informasi di berbagai sektor.
Ketika data telah menjadi “bahan bakar ekonomi digital”, kehilangan atau manipulasi data tidak hanya menimbulkan kerugian finansial, tetapi juga menghancurkan kepercayaan pelanggan dan reputasi bisnis. Dalam konteks ini, Luu & Samuel (2025) menekankan bahwa ancaman dari GenAI menandai pergeseran paradigma dari technical risk menjadi human-driven data risk, di mana kesalahan manusia dan kurangnya kesadaran menjadi faktor terbesar kebocoran data modern. Perlindungan data kini menuntut strategi menyeluruh—menggabungkan kebijakan keamanan, edukasi pengguna, dan tata kelola AI yang bertanggung jawab.
Untuk menekan risiko yang muncul dari evolusi cybercrime berbasis GenAI, diperlukan pendekatan berlapis yang tidak hanya mengandalkan teknologi, tetapi juga mencakup kebijakan, etika, dan edukasi manusia. Serangan berbasis AI tidak dapat dihadapi dengan solusi tunggal; melainkan membutuhkan kombinasi antara regulasi, sistem deteksi otomatis, dan peningkatan literasi digital di seluruh lapisan masyarakat. Pendekatan multidimensional ini menjadi kunci dalam membangun ketahanan siber yang berkelanjutan di era GenAI.
Pemerintah dan industri perlu menerapkan kerangka seperti NIST AI Risk Management Framework (2025) dan EU AI Act (2024) yang mengklasifikasikan risiko AI ke dalam empat kategori utama: unacceptable, high, limited, dan minimal risk. Regulasi ini membantu memastikan penggunaan AI yang bertanggung jawab, transparan, dan sesuai dengan prinsip etika. Seperti dijelaskan oleh Luu & Samuel (2025) dalam Exposing the Impact of GenAI for Cybercrime, lemahnya tata kelola AI menjadi salah satu pemicu penyalahgunaan teknologi generatif untuk kejahatan digital, sehingga regulasi lintas negara menjadi kebutuhan mendesak.
Organisasi perlu menanamkan kesadaran bahwa manusia adalah lini pertahanan pertama terhadap serangan siber. Pelatihan keamanan siber tidak lagi cukup hanya berupa seminar atau modul teks, melainkan perlu menggunakan pendekatan gamifikasi, microlearning, dan storytelling interaktif agar lebih menarik dan mudah diingat. Materi pelatihan juga harus mencakup cara mengenali tanda-tanda phishing, deepfake, dan manipulasi sosial berbasis AI agar karyawan mampu bertindak cepat ketika menghadapi ancaman nyata.
Dalam situasi di mana pelaku kejahatan menggunakan AI untuk menyerang, maka pertahanan pun harus berevolusi dengan AI. Sistem AI-driven security kini digunakan untuk mendeteksi anomali, mengenali pola serangan baru, dan mengidentifikasi konten berbahaya yang dihasilkan oleh model generatif. Pendekatan ini memungkinkan organisasi merespons ancaman secara adaptif dan prediktif, bukan reaktif seperti sebelumnya.
Para pengembang perlu menerapkan prinsip Responsible AI Development melalui transparansi algoritma dan audit model secara berkala. Inisiatif seperti model cards, dataset provenance, dan sistem audit independen akan membantu melacak sumber data pelatihan serta mengidentifikasi potensi penyalahgunaan lebih awal.
Perlindungan data tidak bisa hanya menjadi tanggung jawab tim IT semata. Diperlukan kolaborasi erat antara akademisi, regulator, pelaku industri, serta masyarakat sipil untuk menciptakan ekosistem keamanan digital yang saling memperkuat. Pendekatan lintas sektor ini memastikan bahwa setiap pihak memiliki peran dalam membangun keamanan siber yang resilien dan adaptif terhadap ancaman berbasis AI.
Strategi mitigasi paling efektif bukan sekadar memperkuat pertahanan teknis, tetapi juga membangun budaya keamanan siber yang sadar risiko. Dengan menggabungkan kebijakan yang tegas, inovasi teknologi pertahanan, dan literasi digital yang kuat, dunia dapat memanfaatkan potensi GenAI secara positif tanpa terjebak dalam gelombang penyalahgunaannya.
Salah satu isu paling kompleks dalam perkembangan GenAI adalah pertanggungjawaban moral — siapa yang harus disalahkan ketika AI digunakan untuk kejahatan? Apakah pembuat model, pengguna, atau penyedia platform? Pertanyaan ini menjadi semakin relevan karena batas antara pencipta dan pengguna semakin kabur di era teknologi terbuka. AI kini mampu bertindak secara otonom berdasarkan data pelatihan yang sulit ditelusuri, sehingga menimbulkan dilema baru dalam penegakan hukum dan etika digital. Menurut Luu & Samuel (2025) dalam Exposing the Impact of GenAI for Cybercrime, lebih dari 1,7 juta model AI telah diunggah di platform seperti Hugging Face, dan sebagian di antaranya dilatih tanpa pengawasan etika atau tinjauan keamanan.
Banyak model bersifat privat (private LLMs) yang dikembangkan secara tertutup untuk tujuan manipulatif atau bahkan kriminal. Hal ini menciptakan ruang abu-abu antara kebebasan penelitian dan penyalahgunaan teknologi. Dalam laporan UNESCO (2023) tentang Ethics of Artificial Intelligence, disebutkan bahwa ketiadaan pedoman global yang seragam membuat banyak negara masih beroperasi dengan standar etika yang berbeda-beda, memperburuk risiko lintas batas dalam penyalahgunaan AI. Tantangan lainnya juga mencakup:
Solusi jangka panjang memerlukan keseimbangan antara security by design dan freedom to innovate. Artinya, keamanan dan etika harus tertanam sejak tahap pengembangan model, bukan hanya diterapkan sebagai reaksi setelah terjadi insiden. AI perlu diarahkan dengan prinsip tanggung jawab sosial, transparansi, dan kesadaran kolektif terhadap risiko yang ditimbulkannya. Seperti yang disimpulkan oleh OECD AI Policy Observatory (2024), masa depan AI yang aman hanya dapat dicapai melalui kolaborasi lintas disiplin—antara ilmuwan, regulator, pengembang, dan masyarakat—agar inovasi dapat terus berkembang tanpa mengorbankan nilai-nilai kemanusiaan dan keamanan global.
Baca juga: Evolusi Algoritma dalam Menangkal Deepfake
Evolusi cybercrime di era GenAI menunjukkan paradoks kemajuan teknologi: semakin pintar sistemnya, semakin berbahaya potensi penyalahgunaannya. Berdasarkan bukti empiris dari penelitian terbaru, peluncuran model GenAI berhubungan dengan peningkatan signifikan aktivitas jahat di dunia maya—baik dalam konteks umum maupun pada ekosistem kripto.
GenAI bersifat netral, tetapi niat manusia menentukan arah dampaknya. Ketika kemampuan luar biasa ini disalahgunakan, keamanan data menjadi taruhan utama. Oleh karena itu, melindungi data di era GenAI bukan hanya soal cybersecurity, melainkan juga human responsibility. Dengan regulasi yang kuat, edukasi publik, dan kolaborasi lintas sektor, dunia masih bisa memanfaatkan GenAI sebagai alat kemajuan—bukan alat kejahatan.