Keracunan data adalah serangan siber di mana musuh memasukkan data berbahaya atau menyesatkan ke dalam kumpulan data pelatihan AI. Tujuannya adalah untuk merusak perilaku mereka dan memperoleh hasil yang tidak tepat, bias, atau merugikan. Risiko terkait adalah menciptakan pintu belakang untuk eksploitasi jahat terhadap sistem AI/ML.
Serangan-serangan ini menjadi perhatian besar bagi para pengembang dan organisasi yang menerapkan teknologi kecerdasan buatan, terutama ketika sistem AI menjadi lebih terintegrasi ke dalam infrastruktur penting dan kehidupan sehari-hari.
Bidang keamanan AI berkembang pesat, dengan ancaman yang terus berkembang dan mekanisme pertahanan inovatif yang terus-menerus membentuk lanskap peracunan data dan tindakan penanggulangannya. Menurut laporan yang dirilis bulan lalu oleh Management Intelligence Company NisosPelaku kejahatan menggunakan berbagai serangan peracunan data, mulai dari pelabelan yang salah dan injeksi data hingga pendekatan yang lebih canggih seperti peracunan tampilan terpisah dan gangguan pintu belakang.
Laporan Nisos mengungkapkan peningkatan kecanggihan, dimana pelaku ancaman mengembangkan teknik yang lebih bertarget dan tidak terdeteksi. Hal ini menggarisbawahi perlunya pendekatan multifaset terhadap keamanan AI yang mencakup strategi tingkat teknis, organisasi, dan kebijakan.
Menurut Analis Intelijen Senior Nisos Patrick Laughlin, keracunan skala kecil pun memengaruhi 0,001% data pelatihan, yang secara signifikan memengaruhi perilaku model AI. Serangan keracunan data mempunyai konsekuensi luas di berbagai bidang seperti layanan kesehatan, keuangan, dan keamanan nasional.
“Hal ini menggarisbawahi perlunya kombinasi tindakan teknis yang kuat, kebijakan organisasi, dan kewaspadaan terus-menerus untuk memitigasi ancaman ini secara efektif,” kata Laughlin kepada TechNewsWorld.
Langkah-langkah keamanan AI saat ini tidak memadai
Dia menunjukkan bahwa praktik keamanan siber saat ini menekankan perlunya pengawasan yang lebih baik. Meskipun praktik keamanan siber yang ada saat ini memberikan landasan, laporan ini menunjukkan bahwa strategi baru diperlukan untuk memerangi ancaman keracunan data yang muncul.
“Hal ini menyoroti perlunya sistem deteksi ancaman yang dibantu AI, pengembangan algoritma pembelajaran yang kuat, dan penerapan metode canggih seperti blockchain untuk integritas data,” kata Laughlin.
Laporan ini juga menekankan pentingnya ML yang menjaga privasi dan sistem pertahanan adaptif yang dapat mempelajari dan merespons serangan baru. Masalah-masalah ini melampaui bisnis dan infrastruktur, ia memperingatkan.
Serangan-serangan ini menghadirkan berbagai risiko yang mempengaruhi berbagai bidang yang memengaruhi infrastruktur penting seperti sistem layanan kesehatan, kendaraan otonom, pasar keuangan, keamanan nasional, dan aplikasi militer.
“Lebih jauh lagi, laporan tersebut menunjukkan bahwa serangan-serangan ini melemahkan kepercayaan publik terhadap teknologi AI dan memperburuk masalah sosial seperti penyebaran informasi yang salah dan prasangka,” tambahnya.
Keracunan data mengancam sistem kritis
Laughlin memperingatkan bahwa kompromi dalam pengambilan keputusan dalam sistem kritis adalah salah satu risiko keracunan data yang paling serius. Bayangkan situasi yang melibatkan kendaraan otonom yang secara langsung mengancam analisis layanan kesehatan atau nyawa manusia.
Sektor keuangan prihatin dengan potensi kerugian finansial yang signifikan dan volatilitas pasar akibat sistem AI yang dikompromikan. Selain itu, laporan tersebut juga memperingatkan bahwa risiko menurunnya kepercayaan terhadap sistem AI dapat memperlambat penerapan teknologi AI yang bermanfaat.
“Potensi risiko keamanan nasional mencakup kerentanan infrastruktur penting dan fasilitasi kampanye disinformasi skala besar,” katanya.
Laporan tersebut mengutip beberapa contoh keracunan data, termasuk serangan tahun 2016 terhadap filter spam Gmail Google yang memungkinkan musuh melewati filter tersebut dan mengirimkan email berbahaya.
Contoh penting lainnya adalah kompromi chatbot Tay Microsoft pada tahun 2016, yang menghasilkan respons yang menyinggung dan tidak pantas setelah terkena data pelatihan berbahaya.
Laporan tersebut juga menunjukkan kelemahan dalam sistem kendaraan otonom, serangan terhadap sistem pengenalan wajah dan pengklasifikasi pencitraan medis, serta potensi kerentanan dalam model perkiraan pasar keuangan.
Strategi untuk memitigasi serangan keracunan data
Laporan Nisos merekomendasikan beberapa strategi untuk memitigasi serangan keracunan data. Salah satu vektor perlindungan utama adalah penerapan praktik validasi dan sanitasi data yang kuat. Cara lainnya adalah menerapkan pemantauan dan audit berkelanjutan terhadap sistem AI.
“Hal ini juga menyarankan penggunaan pelatihan model adversarial untuk meningkatkan ketahanan model, mendiversifikasi sumber data, menerapkan praktik pengelolaan data yang aman, dan berinvestasi dalam program kesadaran dan pendidikan pengguna,” kata Laughlin.
Dia menyarankan agar pengembang AI harus mengontrol dan mengisolasi sumber kumpulan data dan berinvestasi dalam pertahanan terprogram dan sistem deteksi ancaman yang dibantu AI.
Tantangan masa depan
Menurut laporan tersebut, tren masa depan sangat mengkhawatirkan. Seperti taktik serangan siber lainnya, pelaku kejahatan adalah pembelajar yang cepat dan sangat gesit dalam berinovasi.
Laporan ini menyoroti kemajuan yang diharapkan seperti teknik toksisitas yang lebih canggih dan adaptif yang menghindari metode deteksi saat ini. Hal ini juga menunjukkan potensi kerentanan dalam paradigma yang muncul seperti pembelajaran transfer dan sistem pembelajaran gabungan.
“Hal ini dapat menimbulkan permukaan serangan baru,” kata Laughlin.
Laporan ini juga mengangkat kekhawatiran mengenai kompleksitas sistem AI dan tantangan dalam menyeimbangkan keamanan AI dengan aspek penting lainnya seperti privasi dan keadilan.
Industri harus mempertimbangkan perlunya standardisasi dan kerangka peraturan untuk menangani keamanan AI secara komprehensif, simpulnya.