Internet telah memudahkan kita untuk berkomunikasi dan berbagi informasi secara instan, namun di balik kemudahan tersebut muncul ancaman baru seperti hoaks dan doxxing yang semakin meresahkan. Hoaks menyebarkan disinformasi yang dapat memengaruhi opini publik, sementara doxxing mengancam privasi dengan membocorkan data pribadi seseorang di ruang digital. Kedua fenomena ini tidak hanya mengganggu kenyamanan pengguna, tetapi juga berpotensi menimbulkan bahaya nyata bagi keamanan individu maupun masyarakat. Karena itu, hadirnya solusi digital berbasis AI menjadi sangat penting untuk mendeteksi, mencegah, sekaligus meminimalkan dampak negatif dari hoaks dan doxxing, sehingga ruang online tetap aman dan dapat dipercaya.
Hoaks merupakan penyebaran informasi palsu yang dikemas seolah-olah benar dengan tujuan menipu atau memengaruhi opini publik. Dampaknya tidak hanya sebatas menimbulkan keresahan sosial, tetapi juga dapat menggiring persepsi politik dan memengaruhi pengambilan keputusan publik. Penelitian FNDEX: Fake News and Doxxing Detection with Explainable AI oleh Dorsaf Sallami dan Esma Aïmeur (2024) menegaskan bahwa hoaks memiliki potensi besar dalam membentuk opini dan bahkan memicu tindakan nyata di dunia offline, seperti terlihat pada kasus konspirasi politik dan misinformasi terkait pandemi.
Sementara itu, doxxing adalah praktik membocorkan data pribadi seseorang di internet tanpa izin, yang biasanya dilakukan dengan niat jahat. Bentuk doxxing bervariasi, mulai dari deanonymizing (membuka identitas anonim), targeting (mempublikasikan alamat atau nomor telepon), hingga delegitimizing (merusak reputasi dengan informasi tertentu). Dampaknya serius karena korban dapat mengalami intimidasi, pelecehan, hingga ancaman fisik. Dalam ulasan Sallami & Aïmeur (2024), doxxing disebut sebagai “senjata digital” yang memperparah kerentanan individu di ruang online. Hal ini sejalan dengan Douglas (2016) dalam Ethics and Information Technology, yang menekankan bahwa doxxing merenggut privasi dan keamanan personal secara langsung.
Lebih berbahaya lagi, hoaks dan doxxing sering kali saling memperkuat. Informasi palsu dapat menjadi pemicu doxxing, sebagaimana terlihat dalam kasus Pizzagate di AS, di mana hoaks politik berujung pada penyebaran data pribadi pekerja restoran yang tak bersalah, hingga memicu insiden bersenjata. Contoh lain adalah video Plandemic yang menyebarkan misinformasi vaksin COVID-19 dan mendorong doxxing terhadap tokoh medis seperti Dr. Anthony Fauci. Ketika hoaks dipadukan dengan doxxing, dampaknya tidak hanya merusak reputasi dan privasi, tetapi juga membahayakan keselamatan fisik, menjadikannya ancaman serius bagi keutuhan masyarakat digital.
Baca juga: Bagaimana AI Membuat Insider Threat Lebih Sulit Dideteksi
Kecerdasan buatan (AI) telah terbukti efektif dalam mendeteksi hoaks melalui penerapan machine learning dan deep learning. Model berbasis transformer seperti BERT, RoBERTa, dan DistilBERT mampu menganalisis bahasa secara mendalam untuk membedakan berita palsu dan berita nyata dengan akurasi mendekati sempurna. Dalam penelitian FNDEX: Fake News and Doxxing Detection with Explainable AI oleh Dorsaf Sallami dan Esma Aïmeur, RoBERTa misalnya mencapai akurasi hingga 99,65% dalam tugas deteksi hoaks, jauh melampaui metode tradisional yang sebelumnya hanya mencapai sekitar 93%. Hasil ini menegaskan bahwa AI tidak hanya mempercepat proses verifikasi informasi, tetapi juga meningkatkan presisi dalam menyaring konten digital.
Selain itu, AI juga memainkan peran penting dalam mendeteksi doxxing, yaitu penyebaran data pribadi secara ilegal di media sosial. Tantangan utama terletak pada keragaman pola bahasa yang digunakan pelaku, namun model transformer mampu mengenali pola teks yang berisi informasi sensitif seperti alamat, nomor telepon, atau akun media sosial. Penelitian Sallami & Aïmeur (2024) menunjukkan bahwa model seperti RoBERTa mampu mencapai akurasi hingga 99,99% dalam mendeteksi doxxing, melampaui baseline metode tradisional yang berkisar di bawah 97%. Keunggulan ini menandakan bahwa AI dapat menjadi “tameng digital” yang efektif dalam melindungi privasi pengguna.
Tidak berhenti di deteksi, AI juga menyediakan solusi anonimisasi data untuk menjaga privasi tanpa mengurangi makna informasi. FNDEX memperkenalkan teknik tiga langkah: identifikasi pola Personally Identifiable Information (PII), penggunaan placeholder, lalu penggantian data sensitif dengan format anonim. Misalnya, nama seseorang akan diubah menjadi “FULL NAME” atau alamat menjadi “ADDRESS,” sehingga struktur kalimat tetap utuh namun identitas asli terlindungi. Lebih jauh, sistem ini dilengkapi dengan Explainable AI (XAI) seperti LIME yang memberikan penjelasan transparan mengapa sebuah teks diklasifikasikan sebagai hoaks atau doxxing. Transparansi ini tidak hanya membangun kepercayaan pengguna, tetapi juga meningkatkan literasi digital dalam memahami bagaimana teknologi bekerja melawan ancaman online.
Dalam penelitian FNDEX: Fake News and Doxxing Detection with Explainable AI oleh Dorsaf Sallami dan Esma Aïmeur (2024), solusi digital berbasis AI terbukti membawa dampak besar dalam mengurangi risiko hoaks dan doxxing di ruang online. Berikut adalah manfaat utamanya:
AI dapat menekan arus hoaks dan doxxing dengan cara mendeteksi konten berbahaya sebelum viral. Dengan dukungan model transformer seperti RoBERTa dan BERT, sistem ini mampu mengenali pola bahasa yang sering digunakan dalam berita palsu maupun teks yang berisi data pribadi. Proses otomatis ini jauh lebih cepat dibandingkan verifikasi manual oleh manusia, sehingga penyebaran dapat dihentikan sejak dini. Hasilnya, informasi yang menyesatkan maupun ancaman privasi tidak sempat membesar dan merugikan banyak orang.
Deteksi dan anonimisasi berbasis AI memberikan perlindungan nyata terhadap data pribadi. Informasi sensitif seperti nama, alamat, atau nomor telepon yang biasanya menjadi sasaran doxxing dapat segera disamarkan tanpa mengurangi konteks isi teks. Dengan perlindungan ini, individu tidak lagi mudah menjadi korban pelecehan, intimidasi, diskriminasi, atau bahkan ancaman fisik. Perlindungan ini menciptakan rasa aman dan kepercayaan diri bagi masyarakat untuk tetap aktif di dunia digital tanpa rasa takut.
Keberadaan AI yang transparan memperkuat kepercayaan publik terhadap ekosistem digital. Dengan adanya Explainable AI (XAI), pengguna dapat memahami alasan mengapa suatu konten ditandai sebagai hoaks atau doxxing. Transparansi ini penting agar masyarakat merasa sistem bekerja adil, objektif, dan tidak bias. Ketika pengguna percaya bahwa teknologi berpihak pada keamanan mereka, loyalitas dan partisipasi aktif di platform digital pun meningkat.
Selain proteksi, AI juga memiliki fungsi edukasi yang membantu meningkatkan literasi digital. Melalui penjelasan sistem deteksi, masyarakat dapat belajar mengenali ciri-ciri hoaks dan potensi doxxing secara mandiri. Hal ini membuat publik lebih kritis dalam memilah informasi serta lebih sadar terhadap bahaya membagikan data pribadi. Dengan cara ini, AI tidak hanya menjadi benteng pertahanan digital, tetapi juga sarana pemberdayaan kolektif untuk menciptakan budaya bermedia yang lebih sehat.
Penggunaan AI untuk melawan hoaks dan doxxing tidak terlepas dari tantangan, salah satunya adalah risiko bias dalam model. Penelitian FNDEX: Fake News and Doxxing Detection with Explainable AI oleh Dorsaf Sallami dan Esma Aïmeur (2024) menekankan pentingnya transparansi melalui Explainable AI agar pengguna memahami keputusan model dan tidak terjebak pada hasil yang berpotensi bias. Jika bias tidak dikendalikan, ada risiko sistem salah menandai konten yang sebenarnya valid, atau sebaliknya, gagal mendeteksi hoaks yang berbahaya. Hal ini pernah disoroti juga oleh Shin (2021) dalam International Journal of Human-Computer Studies, yang menyatakan bahwa bias dapat merusak kepercayaan publik terhadap sistem AI.
Tantangan lain adalah menjaga privasi saat melatih model. Untuk melatih AI agar mampu mendeteksi pola hoaks dan doxxing, seringkali diperlukan dataset besar yang berisi teks dan data sensitif. Jika pengelolaan data tidak dilakukan dengan hati-hati, risiko kebocoran privasi justru meningkat. Dalam penelitian Sallami & Aïmeur, solusi ini diatasi dengan proses anonimisasi tiga langkah menggunakan placeholder untuk melindungi Personally Identifiable Information (PII). Pendekatan serupa juga direkomendasikan oleh Terrovitis et al. (2008) dalam VLDB Endowment Proceedings, yang menekankan pentingnya anonimisasi untuk menjaga keseimbangan antara perlindungan privasi dan kegunaan data.
Selain itu, penerapan AI juga membutuhkan standar etis dalam penggunaan data. Tanpa kerangka etis yang jelas, AI bisa disalahgunakan, baik dalam bentuk pengawasan berlebihan maupun diskriminasi. FNDEX secara eksplisit menyatakan bahwa etika adalah inti dari kerangka kerja mereka, terutama dalam menjaga agar data yang digunakan benar-benar sesuai dengan batasan hukum dan tidak melanggar hak individu. Hal ini sejalan dengan pandangan Wardle & Derakhshan (2017) dalam jurnal “Information Disorder: Toward an Interdisciplinary Framework for Research and Policymaking”, yang menekankan perlunya tata kelola informasi yang etis untuk mencegah erosi kepercayaan publik. Dengan etika yang kuat, AI dapat berfungsi sebagai alat pemberdayaan, bukan ancaman baru di ruang digital.
Baca juga: AI Chatbot sebagai Solusi Inovatif dalam Cybersecurity Awareness
Hoaks dan doxxing merupakan ancaman serius di ruang digital yang saling memperkuat dampaknya, karena informasi palsu dapat memicu pembocoran data pribadi, sementara doxxing memperbesar efek hoaks dengan menyerang individu secara langsung. Dalam menghadapi tantangan ini, kecerdasan buatan (AI) menawarkan solusi yang efektif melalui deteksi otomatis untuk menyaring konten berbahaya, anonimisasi data guna menjaga privasi, serta transparansi lewat Explainable AI agar pengguna memahami alasan di balik keputusan sistem. Dengan penerapan solusi digital berbasis AI yang etis dan terpercaya, ruang online dapat berkembang menjadi ekosistem yang lebih aman, sehat, dan mampu mendukung kepercayaan publik terhadap informasi yang beredar.