10.000 Malware dalam Sekejap: Bagaimana AI Mempercepat Serangan Siber?
Read Time 8 mins | Written by: Nur Rachmi Latifa

Teknologi kecerdasan buatan (AI) yang awalnya dikembangkan untuk meningkatkan keamanan kini justru dimanfaatkan oleh pelaku kejahatan siber untuk mempercepat dan memperumit serangan. Dengan kemampuan AI dalam mengotomatisasi pembuatan malware, menyembunyikan kode berbahaya, hingga menyusun serangan phishing yang lebih meyakinkan, ancaman siber kini berkembang dengan kecepatan yang belum pernah terjadi sebelumnya. Hal ini membuat sistem keamanan yang ada harus terus beradaptasi, karena metode konvensional semakin rentan tertipu oleh teknik AI. Jika dibiarkan tanpa strategi mitigasi yang tepat, AI dapat menjadi alat yang sangat efektif bagi para peretas untuk mengecoh sistem deteksi dan menyerang jaringan perusahaan maupun individu dengan skala yang jauh lebih besar. Inilah alasan mengapa memahami dan mengantisipasi dampak AI dalam kejahatan siber menjadi semakin penting bagi semua pihak.
AI: Senjata Baru dalam Kejahatan Siber
Kecerdasan buatan (AI) kini tidak hanya digunakan untuk memperkuat keamanan siber, tetapi juga dimanfaatkan oleh pelaku kejahatan untuk melancarkan serangan yang lebih canggih dan sulit dideteksi. Dengan kemampuannya dalam menganalisis pola, mengotomatisasi tugas, dan menghasilkan kode secara cepat, AI memungkinkan peretas untuk menciptakan malware yang lebih variatif, menghindari sistem deteksi, dan menyesuaikan serangan berdasarkan targetnya. Salah satu teknik yang sering digunakan adalah penggunaan Large Language Models (LLMs) untuk mengubah atau menyembunyikan kode berbahaya agar sulit dikenali oleh alat keamanan tradisional. Selain itu, AI juga dapat digunakan untuk menyebarkan serangan phishing yang lebih meyakinkan dengan meniru gaya komunikasi manusia, meningkatkan peluang keberhasilan penipuan secara drastis.
Meskipun AI banyak digunakan oleh pakar keamanan siber untuk meningkatkan deteksi ancaman dan mencegah serangan, pelaku kejahatan siber juga memanfaatkannya untuk tujuan sebaliknya. AI dalam keamanan siber digunakan untuk mengidentifikasi pola anomali, memblokir aktivitas mencurigakan, dan memperkuat perlindungan terhadap serangan. Sebaliknya, peretas menggunakan AI untuk melewati sistem keamanan dengan cara seperti obfuscation (penyembunyian kode), manipulasi data untuk menyesatkan model deteksi, hingga menciptakan deepfake yang dapat digunakan dalam rekayasa sosial. Perbedaan mendasar ini menunjukkan bahwa AI dapat menjadi pedang bermata dua—bisa melindungi, tetapi juga bisa menjadi alat serangan yang sangat efektif di tangan yang salah.
Salah satu contoh nyata dari pemanfaatan AI dalam serangan siber adalah munculnya alat seperti WormGPT, yang dirancang untuk membantu pembuatan email phishing yang sangat meyakinkan tanpa kesalahan tata bahasa yang mencurigakan. Selain itu, penelitian dari Palo Alto Networks Unit 42 menemukan bahwa AI dapat digunakan untuk menciptakan 10.000 varian malware berbasis JavaScript hanya dalam waktu singkat, membuatnya lebih sulit dideteksi oleh sistem keamanan. Bahkan, para peretas juga mulai mengeksploitasi AI dalam adversarial machine learning, di mana mereka secara bertahap mengubah data masukan untuk menipu model deteksi agar menganggap kode berbahaya sebagai aman. Dengan perkembangan pesat teknologi ini, ancaman AI dalam dunia kejahatan siber semakin nyata dan memerlukan strategi mitigasi yang lebih canggih dari para profesional keamanan siber.
Baca juga: Risiko dan Ancaman Migrasi Pengguna Telegram ke Forum Dark Web
Malware AI-Generated: Evolusi Baru dalam Serangan Siber
Kemajuan kecerdasan buatan (AI) telah membawa dampak besar dalam dunia keamanan siber, terutama dalam penciptaan dan modifikasi malware dengan cepat menggunakan Large Language Models (LLMs). Dengan teknologi ini, peretas dapat secara otomatis membuat berbagai varian malware hanya dalam hitungan menit, sesuatu yang sebelumnya membutuhkan waktu berhari-hari. AI memungkinkan penjahat siber untuk mengubah sedikit bagian dari kode berbahaya tanpa mengubah fungsinya, sehingga sistem keamanan lebih sulit mengenali ancaman tersebut. Akibatnya, malware yang dihasilkan dengan bantuan AI menjadi lebih variatif dan semakin sulit dideteksi oleh sistem perlindungan siber.
Salah satu cara AI membantu malware menghindari deteksi adalah dengan teknik penyamaran kode atau obfuscation. Teknik ini membuat kode berbahaya terlihat berbeda tanpa mengubah cara kerjanya. Misalnya, AI dapat mengganti nama variabel, membagi string kode menjadi bagian kecil, menambahkan potongan kode yang tidak berpengaruh pada eksekusi, atau mengubah struktur program agar tampak baru. Dengan metode ini, malware menjadi lebih sulit dikenali oleh sistem keamanan yang menggunakan pola kode untuk mendeteksi ancaman. Dibandingkan dengan metode penyamaran tradisional, AI dapat menghasilkan perubahan yang lebih alami, sehingga semakin sulit untuk dibedakan dari kode yang tidak berbahaya.
Penelitian dari Palo Alto Networks Unit 42 menunjukkan betapa besar pengaruh AI dalam menciptakan malware secara massal. Para peneliti menggunakan LLMs untuk membuat 10.000 varian malware berbasis JavaScript dalam waktu singkat, tanpa mengubah fungsi aslinya. Teknik ini terbukti mampu mengelabui sistem keamanan berbasis AI seperti Innocent Until Proven Guilty (IUPG) dan PhishingJS, bahkan membalikkan keputusan sistem dari “berbahaya” menjadi “aman” dengan tingkat keberhasilan mencapai 88%. Temuan ini menunjukkan bahwa AI bukan hanya mempercepat pembuatan malware, tetapi juga dapat memperdaya sistem keamanan yang ada, sehingga mempersulit upaya perlindungan terhadap serangan siber.
Teknik AI yang Membantu Malware Menghindari Deteksi
Seiring dengan berkembangnya teknologi kecerdasan buatan (AI), pelaku kejahatan siber semakin canggih dalam menyembunyikan malware agar tidak terdeteksi oleh sistem keamanan. Dengan bantuan AI, mereka dapat mengubah struktur kode malware, menciptakan varian baru dengan cepat, dan bahkan menipu sistem deteksi berbasis kecerdasan buatan. Berikut adalah beberapa teknik AI yang digunakan untuk membuat malware lebih sulit dikenali.
Mengubah Kode Malware Secara Halus Tanpa Mengubah Fungsinya
AI memungkinkan malware untuk diubah secara halus tanpa memengaruhi cara kerjanya. Teknik ini disebut transformasi kode alami, di mana AI mengubah susunan kode dengan mengganti nama variabel, membagi kode menjadi bagian-bagian kecil, atau menambahkan kode tidak berguna agar terlihat berbeda dari versi aslinya. Perubahan ini membuat malware tampak seperti program yang sah, sehingga lebih sulit dikenali oleh sistem keamanan yang mendeteksi ancaman berdasarkan pola kode.
Menciptakan Varian Malware Baru dalam Waktu Singkat
Dengan bantuan AI, peretas dapat menciptakan ribuan varian malware hanya dalam waktu singkat. Teknologi ini memungkinkan mereka untuk terus memperbarui kode berbahaya, sehingga setiap versi malware tampak berbeda dari sebelumnya. Hal ini menjadi tantangan besar bagi sistem keamanan berbasis Machine Learning (ML), karena model deteksi biasanya bekerja dengan membandingkan pola kode baru dengan database ancaman yang sudah ada. Jika malware terus berubah, maka sistem keamanan akan kesulitan mengenali dan memblokirnya.
Menipu Sistem Keamanan agar Tidak Mengenali Malware
Salah satu ancaman terbesar dari malware berbasis AI adalah kemampuannya untuk menipu sistem deteksi keamanan. Model keamanan seperti Innocent Until Proven Guilty (IUPG) dan PhishingJS menggunakan kecerdasan buatan untuk mengidentifikasi ancaman berdasarkan pola yang mencurigakan. Namun, dengan teknik transformasi kode yang dilakukan AI, sistem ini bisa tertipu dan menganggap malware sebagai kode yang aman. Dalam penelitian yang dilakukan oleh Palo Alto Networks Unit 42, sistem deteksi bahkan mengalami kesalahan dalam mengklasifikasikan malware hingga 88% setelah kode malware diubah menggunakan AI.
Teknik-teknik ini menunjukkan bahwa AI dapat digunakan untuk mengelabui sistem keamanan dengan cara yang jauh lebih efektif dibandingkan metode tradisional. Oleh karena itu, diperlukan inovasi dalam sistem keamanan siber agar dapat terus beradaptasi dan menghadapi ancaman yang semakin kompleks ini.
Generative AI dan Phishing: Ancaman yang Berkembang
Perkembangan Generative AI telah membawa ancaman baru dalam dunia kejahatan siber, salah satunya dalam pembuatan email phishing yang lebih meyakinkan. Alat seperti WormGPT, yang merupakan versi ilegal dari chatbot berbasis kecerdasan buatan, dirancang khusus untuk membantu peretas membuat pesan phishing dengan tata bahasa yang sempurna dan gaya komunikasi yang lebih alami. Sebelumnya, banyak email phishing mudah dikenali karena kesalahan ejaan atau kalimat yang terdengar tidak wajar. Namun, dengan bantuan AI, email phishing kini dapat dibuat dengan sangat persuasif, meniru gaya komunikasi resmi, dan disesuaikan dengan targetnya, sehingga lebih sulit dibedakan dari email yang sah.
Selain meningkatkan kualitas phishing, AI juga mempercepat penyebaran serangan berbasis rekayasa sosial. Dengan kemampuan untuk mengotomatisasi pembuatan ribuan email phishing yang unik, AI memungkinkan serangan dilakukan dalam skala besar tanpa perlu campur tangan manusia. AI juga dapat menganalisis data korban, seperti informasi dari media sosial atau email sebelumnya, untuk menyesuaikan pesan phishing agar lebih relevan dan meningkatkan kemungkinan korban tertipu. Teknik ini dikenal sebagai spear phishing, di mana email dibuat khusus untuk menargetkan individu atau organisasi tertentu dengan informasi yang tampak kredibel.
Salah satu contoh nyata penggunaan AI dalam serangan phishing tingkat lanjut terjadi pada berbagai insiden di mana peretas berhasil menipu karyawan perusahaan besar dengan email yang tampak seperti komunikasi resmi dari atasan mereka. AI digunakan untuk meniru gaya bahasa eksekutif perusahaan dan mengelabui korban agar memberikan akses ke informasi sensitif atau melakukan transfer dana ke akun peretas. Bahkan, ada kasus di mana AI digunakan untuk membuat deepfake suara yang meniru suara pejabat perusahaan, sehingga meningkatkan tingkat keberhasilan serangan. Dengan semakin canggihnya teknologi AI, serangan phishing menjadi lebih sulit dideteksi, dan perusahaan serta individu perlu meningkatkan kewaspadaan serta memperkuat sistem keamanan mereka untuk menghadapinya.
Eksploitasi AI untuk Menyerang Infrastruktur Siber
Kecerdasan buatan (AI) tidak hanya dimanfaatkan untuk membuat malware atau serangan phishing, tetapi juga digunakan untuk menyerang sistem infrastruktur siber yang lebih luas. Salah satu serangan yang berhasil dilakukan adalah TPUXtract, di mana sekelompok peneliti menemukan cara untuk mencuri model AI dari Google Edge TPUs dengan tingkat keberhasilan mencapai 99,91%. Serangan ini bekerja dengan menangkap sinyal elektromagnetik yang dihasilkan oleh chip pemrosesan AI saat sedang digunakan. Dengan menganalisis pola sinyal ini, peretas dapat merekonstruksi cara kerja model AI yang seharusnya terlindungi. Ancaman ini berbahaya karena bisa digunakan untuk mencuri teknologi AI milik perusahaan atau institusi penelitian, bahkan untuk memodifikasi model AI agar bisa disalahgunakan.
Dampak dari serangan seperti TPUXtract bisa sangat serius, terutama bagi perusahaan yang menggunakan AI untuk inovasi atau keamanan. Jika peretas berhasil mencuri model AI, mereka bisa membuat tiruan teknologi yang sama tanpa izin atau menggunakannya untuk kepentingan jahat. Selain itu, pencurian model AI juga membuka celah keamanan baru, karena informasi tentang cara kerja sistem bisa dimanfaatkan untuk menciptakan serangan yang lebih spesifik dan sulit dideteksi. Ini juga berdampak pada risiko pencurian hak kekayaan intelektual (intellectual property theft), di mana perusahaan yang telah menginvestasikan banyak sumber daya dalam pengembangan AI bisa kehilangan keunggulan teknologi mereka akibat eksploitasi ini.
Selain serangan terhadap perangkat keras AI, AI juga dieksploitasi untuk memanipulasi sistem prediksi keamanan, seperti Exploit Prediction Scoring System (EPSS). Sistem ini digunakan oleh banyak perusahaan keamanan untuk memprediksi seberapa besar risiko sebuah celah keamanan (CVE) akan diserang. Namun, penelitian menunjukkan bahwa sistem ini bisa dimanipulasi dengan cara meningkatkan aktivitas buatan, seperti menyebarkan berita palsu tentang kerentanan di media sosial atau mengunggah file kosong di GitHub yang seolah-olah berisi eksploitasi. Dengan cara ini, peretas bisa membuat ancaman tertentu terlihat lebih berbahaya dari yang sebenarnya, sehingga perusahaan atau tim keamanan menghabiskan waktu dan sumber daya mereka untuk menanganinya, sementara serangan sebenarnya tetap tidak terdeteksi. Eksploitasi semacam ini menunjukkan bahwa AI bisa digunakan tidak hanya untuk memperkuat pertahanan, tetapi juga untuk mengelabui strategi keamanan dengan cara yang sulit dikenali.
Apa yang Bisa Dilakukan untuk Mengatasi Ancaman AI dalam Kejahatan Siber?
Untuk menghadapi ancaman malware yang dihasilkan oleh AI, sistem keamanan harus terus berkembang dengan metode deteksi yang lebih canggih. Salah satu cara yang bisa dilakukan adalah dengan meningkatkan teknik deteksi berbasis kecerdasan buatan, seperti behavior-based analysis, yang tidak hanya mengandalkan pola kode statis, tetapi juga menganalisis bagaimana sebuah program berperilaku saat dijalankan. Selain itu, adversarial AI juga bisa digunakan untuk melatih model deteksi agar lebih tahan terhadap manipulasi kode berbahaya. Dengan mengembangkan sistem keamanan yang mampu mengenali pola perubahan yang dibuat AI dalam malware, organisasi dapat lebih cepat mengidentifikasi dan menghentikan ancaman sebelum menyebar lebih luas.
Selain meningkatkan deteksi malware, penting juga untuk memperkuat keamanan model AI itu sendiri agar tidak mudah disalahgunakan oleh pelaku kejahatan siber. Salah satu langkah yang bisa dilakukan adalah penerapan guardrails lebih ketat pada model AI generatif, seperti membatasi respons terhadap permintaan yang berpotensi berbahaya, meningkatkan pemantauan aktivitas pengguna, serta menerapkan autentikasi yang lebih ketat untuk akses ke model AI canggih. Banyak penyedia layanan AI, seperti OpenAI, sudah mulai memperketat aturan untuk mencegah penggunaan AI dalam aktivitas siber berbahaya. Namun, perusahaan dan organisasi yang menggunakan AI dalam operasional mereka juga harus memastikan bahwa model yang mereka gunakan tidak rentan terhadap penyalahgunaan atau manipulasi.
Di tingkat organisasi, ada beberapa langkah yang dapat diterapkan untuk melindungi diri dari serangan berbasis AI. Pelatihan keamanan siber bagi karyawan menjadi sangat penting, terutama dalam meningkatkan kesadaran akan serangan phishing berbasis AI yang semakin sulit dibedakan dari komunikasi asli. Selain itu, organisasi juga harus menerapkan zero trust security, yang memastikan setiap akses ke sistem diperiksa dengan ketat, serta memperkuat threat intelligence untuk memantau perkembangan ancaman berbasis AI secara real-time. Menggunakan pendekatan keamanan yang lebih proaktif dan mengadopsi teknologi deteksi AI yang lebih canggih akan membantu organisasi tetap selangkah lebih maju dalam menghadapi ancaman siber yang berkembang pesat.
Baca juga: Bagaimana Hacker Memanfaatkan AI untuk Meningkatkan Serangan Siber?
Kesimpulan
Kecerdasan buatan (AI) memiliki dua sisi dalam keamanan siber—bisa digunakan untuk memperkuat perlindungan, tetapi juga bisa dimanfaatkan oleh peretas untuk melancarkan serangan yang lebih canggih. Dengan kemampuannya dalam membuat malware, menghindari deteksi keamanan, dan mengotomatiskan serangan phishing, AI telah meningkatkan risiko kejahatan siber secara signifikan. Oleh karena itu, pengawasan yang ketat, regulasi yang jelas, dan inovasi dalam teknologi keamanan sangat diperlukan agar AI lebih banyak dimanfaatkan untuk melindungi, bukan sebagai alat bagi penjahat siber. Jika tidak ada langkah pencegahan yang tepat, ancaman berbasis AI akan terus berkembang dan semakin sulit dikendalikan, membahayakan individu, perusahaan, dan infrastruktur digital di seluruh dunia.