Adversarial Attacks: Trik Pada Kecerdasan Buatan Dengan Perubahan Kecil
Bayangkan sebuah skenario di mana kendaraan otonom secara keliru mengidentifikasi seseorang yang berjalan di jalan sebagai kerucut lalu lintas. Hal tersebut adalah sifat mendasar dari serangan adversarial di bidang pembelajaran mesin (Machine Learning). Manipulasi terhadap data yang digunakan oleh Teknik Serangan ini dapat menipu model kecerdasan buatan (Ai) dengan menginduksi prediksi yang salah, dan umumnya terjadi melalui perubahan yang tidak terlihat oleh mata manusia.
Cara kerja Serangan Adversarial
Serangan Adversarial akan memanipulasi batasan keputusan model pembelajaran mesin, khususnya jaringan saraf yang ada didalamnya. Model-model ini dilatih pada kumpulan data yang luas dan memperoleh kemampuan untuk mengenali pola yang diberikan. Namun demikian, mekanisme internal yang rumit dari sistem ini terkadang dapat mengakibatkan overfitting atau kerentanan (vulnerability) ketika menangani kumpulan data tertentu.
Pihak yang menyebrang akan menciptakan situasi dengan melakukan sedikit modifikasi pada data yang sesungguhnya, sehingga menyebabkan masukan yang diberikan akan berada di luar batas pengetahuan yang dipelajari oleh model yang diciptakan. Perubahan ini bisa sangat kecil, seperti menambahkan elemen acak pada gambar atau memasukkan kesalahan dalam bahasa. Perubahan tersebut cukup signifikan sehingga mengakibatkan kategorisasi yang salah.
Tujuan utama Serangan Adversarial
1. Kesalahan Klasifikasi yang Ditargetkan (Targetted Missclasification):
Penyerang dengan sengaja memanipulasi model untuk mengklasifikasikan input secara salah ke dalam kelas tertentu yang telah ditentukan. Misalnya, mengubah tampilan rambu berhenti menyerupai rambu ijin pada mobil self-driving.
2. Kesalahan klasifikasi yang tidak ditargetkan (Un-Targetted Missclasification):
Tujuan penyerang adalah dengan sengaja menyebabkan model membuat prediksi yang salah, tanpa preferensi terhadap kelas keluaran tertentu. Hal ini seperti merubah atau membuat gambar kucing menjadi representasi yang benar-benar berbeda.
Contoh Serangan Adversarial
Berbagai metodologi tersedia untuk menghasilkan contoh-contoh yang tidak bersahabat dan mendukung Serangan adversarial. Pendekatan berbasis gradien sering digunakan dalam serangan ini, di mana penyerang akan menghitung gradien – arah perubahan yang memaksimalkan kesalahan model – dan secara bertahap memodifikasi data masukan ke arah perubahan tersebut hingga hasil Serangan yang diinginkan dapat tercapai.
Masalah di dunia praktis
Serangan adversarial menghadirkan ancaman besar terhadap beragam aplikasi kecerdasan buatan (Ai):
1. Mobil Otonom (Self-Driving Cars)
Memanipulasi rambu lalu lintas atau garis jalur mobil dapat berpotensi menimbulkan kecelakaan.
2. Teknologi pengenalan Wajah (Face Recognition)
Identifikasi atau peniruan identitas yang tidak akurat jika seseorang memanipulasi fitur wajahnya.
3. Transaksi Keuangan (Financial Transaction)
Memalsukan data keuangan untuk terlibat dalam aktivitas penipuan dan pencurian.
4. Sistem diagnostik medis (Medical Diagnosis System)
Tindakan salah dalam mendiagnosis gambar medis dapat mengakibatkan dampak yang serius pada penanganan medis.
Tindakan Penanggulangan untuk Melindungi Terhadap Serangan Adversarial
Para ilmuwan saat ini sedang aktif mengembangkan teknik untuk melindungi dari serangan musuh, seperti :
1. Pelatihan atas Teknik Serangan Adversarial
Hal yang dilakukan adalah melibatkan model pada contoh-contoh serangan adversarial selama proses pelatihan, sehingga dapat meningkatkan kemampuan pengguna teknologi untuk menahan serangan dan mempertahankan kinerja yang dimiliki.
2. Validasi
Hal yang dilakukan adalah menggabungkan berbagai mekanisme teknis untuk mendeteksi dan menghilangkan masukan (input) yang tidak realistis atau tidak masuk akal, sehingga kemampuan untuk mengidentifikasi dan menyaring sampel yang berlawanan akan meningkat.
3. Metode Deteksi
Metodologi teknis baru saat ini sedang dirancang untuk mendeteksi kasus-kasus serangan adversarial yang merugikan (sebelum berbagai kasus tersebut dimasukkan ke dalam model).
Prospek Serangan Adversarial:
Konflik antara penyerang dan pelindung di bidang kecerdasan buatan masih terus berlanjut. Seiring dengan kemajuan dan kompleksitas model kecerdasan buatan, teknik untuk memanipulasinya juga akan mengalami kemajuan. Investigasi tanpa henti perlu dilakukan terhadap taktik ofensif dan defensif yang terjadi. Hal ini sangat penting untuk dilakukan untuk menjamin penerapan sistem kecerdasan buatan (Ai) aman dan dapat diandalkan dimasa yang akan datang.
Kesimpulan
Serangan Adversarial mengungkap kelemahan model pembelajaran mesin (Machine Learning) dan menekankan betapa pentingnya memasukkan langkah-langkah keamanan dalam pengembangannya. Dengan memahami serangan-serangan ini dan mengembangkan upaya perlindungan yang tangguh, dapat menjamin bahwa AI akan terus memberikan pengaruh positif dimasa mendatang
Sumber :
https://datascientest.com/en/adversarial-attack-definition-and-protection-against-this-threat#:~:text=An%20Adversarial%20Attack%20involves%20the,the%20field%20of%20Artificial%20Intelligence.