
Apsinuodijimas duomenimis yra kibernetinė ataka, kai priešai į AI mokymo duomenų rinkinius įterpia kenkėjiškus ar klaidinančius duomenis. Tikslas yra sugadinti jų elgesį ir sukelti iškreiptus, šališkus ar žalingus rezultatus. Susijęs pavojus yra užpakalinių durų kūrimas piktavališkam AI/ML sistemų išnaudojimui.
Šios atakos kelia didelį susirūpinimą kūrėjams ir organizacijoms, diegiančioms dirbtinio intelekto technologijas, ypač kai dirbtinio intelekto sistemos tampa labiau integruotos į svarbiausią infrastruktūrą ir kasdienį gyvenimą.
Dirbtinio intelekto saugumo sritis sparčiai vystosi, o kylančios grėsmės ir novatoriški gynybos mechanizmai nuolat formuoja duomenų apsinuodijimo ir jo atsakomųjų priemonių kraštovaizdį. Remiantis praėjusį mėnesį valdomos žvalgybos bendrovės „Nisos“ paskelbta ataskaita, blogi veikėjai naudoja įvairių tipų duomenų apsinuodijimo atakas, pradedant klaidingu ženklinimu ir duomenų įvedimu, baigiant sudėtingesniais metodais, tokiais kaip apsinuodijimas atskirtu vaizdu ir užpakalinių durų klastojimas.
„Nisos“ ataskaitoje atskleidžiamas vis sudėtingumas, kai grėsmės veikėjai kuria tikslingesnes ir neaptinkamas technologijas. Jame pabrėžiamas daugialypio požiūrio į AI saugumą, apimančio technines, organizacines ir politikos lygmens strategijas, poreikis.
Pasak Nisos vyresniojo žvalgybos analitiko Patricko Laughlino, net nedidelio masto apsinuodijimas, paveikiantis tik 0,001% treniruočių duomenų, gali reikšmingai paveikti AI modelių elgesį. Apsinuodijimo duomenimis išpuoliai gali turėti didelių pasekmių įvairiuose sektoriuose, pavyzdžiui, sveikatos priežiūros, finansų ir nacionalinio saugumo srityse.
„Tai pabrėžia būtinybę derinti tvirtas technines priemones, organizacinę politiką ir nuolatinį budrumą, kad būtų veiksmingai sumažintos šios grėsmės“, – sakė Laughlinas „TechNewsWorld“.
Dabartinės AI saugumo priemonės yra netinkamos
Dabartinė kibernetinio saugumo praktika pabrėžia geresnių apsauginių turėklų poreikį, pasiūlė jis. Nors esama kibernetinio saugumo praktika yra pagrindas, ataskaitoje teigiama, kad reikia naujų strategijų kovojant su besikeičiančiomis duomenų apsinuodijimo grėsmėmis.
„Tai pabrėžia, kad reikia dirbtinio intelekto padedamų grėsmių aptikimo sistemų, kurti iš prigimties patikimus mokymosi algoritmus ir įdiegti pažangias technologijas, tokias kaip „blockchain“, kad būtų užtikrintas duomenų vientisumas“, – pasiūlė Laughlin.
Ataskaitoje taip pat pabrėžiama privatumą išsaugančių ML ir prisitaikančių gynybos sistemų, galinčių mokytis ir reaguoti į naujas atakas, svarba. Jis perspėjo, kad šios problemos apima ne tik verslą ir infrastruktūrą.
Šios atakos kelia didesnę riziką, paveikiančią kelias sritis, kurios gali paveikti svarbiausią infrastruktūrą, pvz., sveikatos priežiūros sistemas, autonomines transporto priemones, finansų rinkas, nacionalinį saugumą ir karines programas.
„Be to, ataskaitoje teigiama, kad šios atakos gali sumažinti visuomenės pasitikėjimą dirbtinio intelekto technologijomis ir paaštrinti visuomenės problemas, tokias kaip dezinformacijos skleidimas ir šališkumas“, – pridūrė jis.
Apsinuodijimas duomenimis kelia grėsmę ypatingoms sistemoms
Laughlinas perspėja, kad sukompromituotas sprendimų priėmimas kritinėse sistemose yra vienas iš rimčiausių duomenų apsinuodijimo pavojų. Pagalvokite apie situacijas, susijusias su sveikatos priežiūros diagnostika arba autonominėmis transporto priemonėmis, kurios gali kelti tiesioginį pavojų žmonių gyvybei.
Nerimą kelia galimi dideli finansiniai nuostoliai ir rinkos nestabilumas dėl pažeistų AI sistemų finansų sektoriuje. Be to, ataskaitoje įspėjama, kad pasitikėjimo dirbtinio intelekto sistemomis erozijos rizika gali sulėtinti naudingų AI technologijų pritaikymą.
„Galimas pavojus nacionaliniam saugumui apima kritinės infrastruktūros pažeidžiamumą ir didelio masto dezinformacijos kampanijų palengvinimą“, – pažymėjo jis.
Ataskaitoje minimi keli duomenų apsinuodijimo pavyzdžiai, įskaitant 2016 m. ataką prieš „Google Gmail“ pašto šiukšlių filtrą, leidusią priešininkams apeiti filtrą ir siųsti kenkėjiškus el.
Kitas pastebimas pavyzdys yra 2016 m. „Microsoft“ „Tay“ pokalbių roboto kompromisas, kuris sukėlė įžeidžiančius ir netinkamus atsakymus po kenkėjiškų mokymo duomenų.
Ataskaitoje taip pat pateikiamos nuorodos į parodytus autonominių transporto priemonių sistemų pažeidžiamumus, atakas prieš veido atpažinimo sistemas ir galimus medicininių vaizdų klasifikatorių bei finansų rinkų prognozavimo modelių pažeidžiamumus.
Apsinuodijimo duomenimis išpuolių mažinimo strategijos
Nisos ataskaitoje rekomenduojamos kelios strategijos, kaip sušvelninti apsinuodijimo duomenimis atakas. Vienas iš pagrindinių gynybos vektorių yra patikimų duomenų patvirtinimo ir dezinfekavimo metodų įgyvendinimas. Kitas yra nuolatinis AI sistemų stebėjimas ir auditas.
„Taip pat siūloma naudoti priešpriešinį pavyzdinį mokymą, siekiant pagerinti modelio patikimumą, įvairinti duomenų šaltinius, įgyvendinti saugią duomenų tvarkymo praktiką ir investuoti į vartotojų informuotumo ir švietimo programas“, – sakė Laughlin.
Jis pasiūlė dirbtinio intelekto kūrėjams kontroliuoti ir atskirti duomenų rinkinių šaltinį ir investuoti į programinę apsaugą bei AI padedamas grėsmių aptikimo sistemas.
Ateities iššūkiai
Anot pranešimo, ateities tendencijos turėtų kelti didesnį susirūpinimą. Panašiai kaip ir kitose kibernetinės atakos strategijose, blogi veikėjai greitai mokosi ir labai patogu diegti naujoves.
Ataskaitoje pabrėžiama laukiama pažanga, pvz., sudėtingesni ir prisitaikantys apsinuodijimo metodai, kuriais galima išvengti dabartinių aptikimo metodų. Tai taip pat nurodo galimus pažeidžiamumus atsirandančiose paradigmose, tokiose kaip mokymosi perkėlimas ir jungtinės mokymosi sistemos.
„Tai gali sukurti naujus atakos paviršius“, – pastebėjo Laughlinas.
Ataskaitoje taip pat išreiškiamas susirūpinimas dėl didėjančio dirbtinio intelekto sistemų sudėtingumo ir iššūkių derinant AI saugumą su kitais svarbiais aspektais, pavyzdžiui, privatumu ir sąžiningumu.
Jis padarė išvadą, kad pramonė turi atsižvelgti į standartizacijos ir reguliavimo sistemų poreikį, kad būtų visapusiškai sprendžiama DI saugumo problema.