
Kalbant apie kibernetinį saugumą 2025 m., dirbtinis intelektas daugeliui analitikų ir profesionalų yra svarbiausias dalykas.
Dirbtinį intelektą naudos ir priešai, ir gynėjai, tačiau užpuolikai iš to turės daugiau naudos, teigė Willy Leichteris, AppSOC, programų saugumo ir pažeidžiamumo valdymo tiekėjo San Chosė mieste, Kalifornijoje, CMO.
„Žinome, kad dirbtinis intelektas bus vis dažniau naudojamas abiejose kibernetinio karo pusėse“, – sakė jis „TechNewsWorld“. „Tačiau užpuolikai ir toliau bus mažiau suvaržyti, nes mažiau nerimauja dėl AI tikslumo, etikos ar nenumatytų pasekmių. DI bus naudingi tokiems metodams kaip labai suasmenintas sukčiavimas ir senų trūkumų tikrinimo tinklai.
„Nors AI turi didžiulį gynybos potencialą, yra daugiau suvaržymų – tiek teisinių, tiek praktinių – kurie sulėtins pritaikymą“, – sakė jis.
Chrisas Haukas, vartotojų privatumo čempionas iš Pixel Privacy, internetinių vartotojų saugos ir privatumo vadovų leidėjo, prognozavo, kad 2025-ieji bus DI ir AI metai, nes geri vaikinai naudoja AI, kad apsigintų nuo dirbtinio intelekto vykdomų kibernetinių atakų.
„Tikėtina, kad tai bus mūšių pirmyn ir atgal metai, nes abi pusės naudos informaciją, kurią surinko iš ankstesnių atakų, kad sukurtų naujas atakas ir naują gynybą“, – sakė jis „TechNewsWorld“.
AI saugumo rizikos mažinimas
Leichteris taip pat prognozavo, kad kibernetiniai priešai pradės dažniau taikytis į AI sistemas. „AI technologija labai išplečia atakos plotą, nes greitai kyla grėsmių modeliams, duomenų rinkiniams ir mašinų kalbos operacijų sistemoms“, – paaiškino jis. „Be to, kai dirbtinio intelekto programos iš laboratorijos perkeliamos į gamybą, visas poveikis saugumui nebus suprantamas tol, kol neatsiras neišvengiami pažeidimai.
Karlas Holmqvistas, tapatybės apsaugos bendrovės „Lastwall“, įsikūrusios Honolulu, įkūrėjas ir generalinis direktorius, sutiko. „Nekontroliuojamas, masinis AI įrankių, kurie dažnai diegiami be tvirtų saugumo pagrindų, diegimas 2025 m. sukels rimtų pasekmių“, – sakė jis „TechNewsWorld“.
„Neturėdamos tinkamų privatumo priemonių ir saugumo sistemų, šios sistemos taps pagrindiniais pažeidimų ir manipuliavimo taikiniais“, – sakė jis. „Šis laukinių vakarų požiūris į DI diegimą leis pavojingai atskleisti duomenis ir sprendimų priėmimo sistemas, todėl organizacijas skubiai teikti pirmenybę pagrindinei saugumo kontrolei, skaidrioms AI sistemoms ir nuolatiniam stebėjimui, siekiant sumažinti šią didėjančią riziką.
Leichteris taip pat tvirtino, kad apsaugos komandos turės prisiimti didesnę atsakomybę už AI sistemų apsaugą 2025 m.
„Tai skamba akivaizdžiai, tačiau daugelyje organizacijų pradinius AI projektus vadovavo duomenų mokslininkai ir verslo specialistai, kurie dažnai apeina įprastus programų saugos procesus“, – sakė jis. „Saugumo komandos kovos pralaimėtai, jei bandys blokuoti ar sulėtinti AI iniciatyvas, tačiau jos turės pritraukti nesąžiningus AI projektus į saugos ir atitikties skėtį.
Leichteris taip pat atkreipė dėmesį, kad 2025 m. dirbtinis intelektas išplės priešininkų, nukreiptų į programinės įrangos tiekimo grandines, puolimą. „Jau matėme, kad tiekimo grandinės tapo pagrindiniu atakų vektoriumi, nes sudėtingos programinės įrangos paketai labai priklauso nuo trečiųjų šalių ir atvirojo kodo. “, – sakė jis. „Dėl AI pritaikymo sprogimo šis taikinys tampa didesnis, nes atsiranda naujų sudėtingų atakų prieš duomenų rinkinius ir modelius vektorius.
„Suprasti modelių kilmę ir išlaikyti besikeičiančių duomenų rinkinių vientisumą yra sudėtinga problema, todėl šiuo metu nėra jokio veiksmingo būdo, kaip dirbtinio intelekto modelis nesužinotų nuodingų duomenų“, – pridūrė jis.
Duomenų apsinuodijimo grėsmė dirbtinio intelekto modeliams
Michaelas Liebermanas, CTO ir Kusari, programinės įrangos tiekimo grandinės saugumo įmonės Ridžfilde, JAV, vienas iš įkūrėjų, taip pat mano, kad didelių kalbų modelių nuodijimas yra reikšmingas 2025 m. pokytis. šis metodas greičiausiai reikalauja daug išteklių, palyginti su paprastesne taktika, pvz., kenkėjiškų atvirų LLM platinimu“, – sakė jis. TechNewsWorld.
„Dauguma organizacijų nerengia savo modelių“, – paaiškino jis. „Vietoj to, jie pasikliauja iš anksto paruoštais modeliais, kuriuos dažnai galima įsigyti nemokamai. Dėl šių modelių kilmės skaidrumo trūkumo piktybiški veikėjai gali lengvai pristatyti žalingus modelius, kaip rodo Hugging Face kenkėjiškų programų incidentas. Šis incidentas įvyko 2024 m. pradžioje, kai buvo išsiaiškinta, kad į Hugging Face platformą buvo įkelta apie 100 LLM su paslėptomis užpakalinėmis durimis, galinčiomis vykdyti savavališką kodą vartotojų įrenginiuose.
„Ateities duomenų apsinuodijimo pastangos greičiausiai bus nukreiptos į pagrindinius žaidėjus, tokius kaip OpenAI, Meta ir Google, kurie rengia savo modelius dideliuose duomenų rinkiniuose, todėl tokias atakas aptikti bus sunkiau“, – prognozavo Liebermanas.
„Tikėtina, kad 2025 m. užpuolikai pralenks gynėjus“, – pridūrė jis. „Užpuolikai yra finansiškai motyvuoti, o gynėjai dažnai stengiasi užsitikrinti pakankamą biudžetą, nes saugumas paprastai nelaikomas pajamų varikliu. Gali prireikti didelio AI tiekimo grandinės pažeidimo, panašaus į SolarWinds Sunburst incidentą, kad pramonė būtų paskatinta rimtai žiūrėti į grėsmę.
Dirbtinio intelekto dėka 2025 m. bus daugiau grėsmių subjektų, kurie pradės sudėtingesnes atakas. „Kadangi dirbtinis intelektas tampa vis pajėgesnis ir prieinamesnis, mažiau kvalifikuotų užpuolikų patekimo kliūtis sumažės, o atakų vykdymo greitis bus didesnis. “, – paaiškino Justinas Blackburnas, vyresnysis debesų grėsmių aptikimo inžinierius iš „AppOmni“, „SaaS“ saugos valdymo programinės įrangos įmonės San Mateo mieste, Kalifornijoje.
„Be to, atsiradę dirbtinio intelekto robotai leis grėsmės veikėjams įvykdyti didelio masto atakas su minimaliomis pastangomis“, – sakė jis „TechNewsWorld“. „Ginkluoti šiais dirbtinio intelekto įrankiais, net mažiau pajėgūs priešai gali gauti neteisėtą prieigą prie jautrių duomenų ir sutrikdyti paslaugas tokiu mastu, kokį anksčiau matydavo tik sudėtingesni, gerai finansuojami užpuolikai.
Scenarijaus kūdikiai auga
2025 m. atsiradęs agentinis AI – DI, galintis priimti savarankiškus sprendimus, prisitaikyti prie aplinkos ir imtis veiksmų be tiesioginio žmogaus įsikišimo – paaštrins ir gynėjų problemas. „Tikimasi, kad dirbtinio intelekto pažanga suteiks galimybę nevalstybiniams veikėjams kurti autonominius kibernetinius ginklus“, – sakė Merilendo universiteto pasaulinio universiteto Adelfyje, Md., Kibernetinio saugumo ir informacinių technologijų mokyklos kolegijos docentas Jasonas Pittmanas.
„Agentinis AI veikia savarankiškai, elgdamasis į tikslą“, – sakė jis „TechNewsWorld“. „Tokios sistemos gali naudoti pasienio algoritmus, kad nustatytų pažeidžiamumą, įsiskverbtų į sistemas ir tobulintų savo taktiką realiu laiku be žmogaus valdymo. “
„Šios savybės išskiria jį iš kitų AI sistemų, kurios remiasi iš anksto nustatytomis instrukcijomis ir reikalauja žmogaus indėlio“, – paaiškino jis.
„Kaip ir Morris Worm praėjusiais dešimtmečiais, agentinių kibernetinių ginklų paleidimas gali prasidėti kaip nelaimingas atsitikimas, o tai kelia daugiau rūpesčių. Taip yra todėl, kad pažangių AI įrankių prieinamumas ir atvirojo kodo mašininio mokymosi sistemų platinimas sumažina kliūtis kurti sudėtingus kibernetinius ginklus. Sukūrus galingą autonomijos funkciją, agentinis AI gali lengvai išvengti saugos priemonių.
Kad ir koks būtų kenksmingas dirbtinis intelektas grėsmių subjektų rankose, jis taip pat gali padėti geriau apsaugoti duomenis, pvz., asmens identifikavimo informaciją (PII). „Išanalizavę daugiau nei šešis milijonus „Google“ disko failų, nustatėme, kad 40 % failų buvo AII, dėl kurių įmonėms kyla duomenų pažeidimo pavojus“, – sakė Rich Vibert, vienas iš Londono duomenų privatumo platformos Metomic įkūrėjų ir generalinis direktorius.
„Kai įžengsime į 2025 m., vis daugiau įmonių pirmenybę teiks automatizuotiems duomenų klasifikavimo būdams, kad sumažintų pažeidžiamos informacijos, netyčia išsaugomos viešai prieinamuose failuose ir bendradarbiavimo darbo srityse SaaS ir debesų aplinkose, kiekį“, – tęsė jis.
„Verslo įmonės vis dažniau diegs AI pagrįstus įrankius, kurie gali automatiškai identifikuoti, pažymėti ir apsaugoti neskelbtiną informaciją“, – sakė jis. „Šis pokytis leis įmonėms neatsilikti nuo didžiulio kasdien generuojamų duomenų kiekio, užtikrinant, kad jautrūs duomenys būtų nuolat apsaugoti ir sumažintas nereikalingas duomenų poveikis.
Nepaisant to, 2025-ieji taip pat gali sukelti saugumo profesionalų nusivylimo bangą, kai gerbėjus pasieks ažiotažas apie dirbtinį intelektą. „CISO 10 % sumažins pirmenybę gen AI naudojimui, nes trūksta kiekybiškai įvertinamos vertės“, – savo tinklaraštyje rašė Cody Scott, vyresnysis Forrester Research, rinkos tyrimų bendrovės, kurios būstinė yra Kembridže, Masažas, analitikas.
„Remiantis Forrester 2024 m. duomenimis, 35 % pasaulinių CISO ir CIO mano, kad pagrindinis prioritetas yra gen AI naudojimo atvejų tyrinėjimas ir diegimas, siekiant pagerinti darbuotojų našumą“, – pažymėjo jis. „Saugumo produktų rinka greitai paskelbė apie numatomą dirbtinio intelekto našumo naudą, tačiau praktinių rezultatų trūkumas skatina nusivylimą.
„Mintis apie autonominį saugumo operacijų centrą naudojant gen AI sukėlė daug ažiotažų, tačiau tai negalėjo būti toliau nuo realybės“, – tęsė jis. „2025 m. ši tendencija išliks, o saugumo specialistai dar labiau pasiners į nusivylimą, nes tokie iššūkiai kaip netinkamas biudžetas ir nerealizuota AI nauda sumažina į saugumą orientuotų AI diegimų skaičių.