
„Cisco“ imasi radikalaus požiūrio į AI saugumą savo naujame AI gynybos sprendime.
Išskirtiniame interviu su Rowanu Cheungu iš „The Rundown AI“ „Cisco“ vykdomasis viceprezidentas ir CPO Jeetu Patelis sakė, kad „AI Defence“ „imasi radikalaus požiūrio, kad spręstų iššūkius, kurių negali įveikti esami saugumo sprendimai“.
AI gynyba, paskelbta praėjusią savaitę, siekia pašalinti riziką kuriant ir diegiant AI programas, taip pat nustatyti, kur AI naudojamas organizacijoje.
AI gynyba gali apsaugoti AI sistemas nuo atakų ir apsaugoti modelių elgesį įvairiose platformose, naudodama tokias funkcijas kaip:
- Šešėlinių ir sankcionuotų AI programų aptikimas viešuosiuose ir privačiuose debesyse;
- Automatizuotas dirbtinio intelekto modelių testavimas siekiant išspręsti šimtus galimų saugos ir saugumo problemų; ir
- Nuolatinis tikrinimas apsaugo nuo galimų grėsmių saugai ir saugumui, pvz., greito įterpimo, paslaugų atsisakymo ir neskelbtinų duomenų nutekėjimo.
Sprendimas taip pat leidžia saugos komandoms geriau apsaugoti savo organizacijų duomenis teikiant išsamų darbuotojų naudojamų AI programėlių vaizdą, sukurti politiką, ribojančią prieigą prie nesankcionuotų AI įrankių, įgyvendinti apsaugos priemones nuo grėsmių ir konfidencialių duomenų praradimo užtikrinant atitiktį.
„Dėl dirbtinio intelekto įmonėms kyla naujų pavojų, kurių tradiciniai kibernetinio saugumo sprendimai nepašalina“, – pranešime teigė Kentas Noyesas, technologijų paslaugų bendrovės „World Wide Technology“ Sent Luise pasaulinis dirbtinio intelekto ir kibernetinių inovacijų vadovas. „Cisco AI Defence yra reikšmingas šuolis į priekį DI saugumo srityje, užtikrinantis visišką įmonės AI turto matomumą ir apsaugą nuo besivystančių grėsmių.
Teigiamas žingsnis siekiant dirbtinio intelekto saugumo
M. J. Kaufmannas, Bostono „O'Reilly Media“, technologijų profesionalams skirtos mokymosi platformos operatorės, autorius ir instruktorius patvirtino „Cisco“ esamų kibernetinio saugumo sprendimų analizę. „Cisco teisus“, – sakė ji „TechNewsWorld“. „Esami įrankiai nesugeba išspręsti daugelio operaciniu būdu sukeltų atakų prieš AI sistemas, pvz., greitas injekcijos atakas, duomenų nutekėjimą ir neteisėtus modelio veiksmus.
„Įgyvendintojai turi imtis veiksmų ir įgyvendinti tikslinius sprendimus, kad juos išspręstų“, – pridūrė ji.
„Cisco“ turi unikalią galimybę pasiūlyti tokį sprendimą, pažymėjo Jackas E. Goldas, IT konsultacijų bendrovės „J.Gold Associates“ įkūrėjas ir pagrindinis analitikas Nortboro mieste, Masso valstijoje. „Taip yra todėl, kad jie turi daug duomenų iš savo tinklo. telemetrija, kurią galima naudoti norint sustiprinti AI galimybes, kurias jie nori apsaugoti“, – sakė jis „TechNewsWorld“.
Jis pridūrė, kad „Cisco“ taip pat nori užtikrinti saugumą įvairiose platformose – vietinėse, debesyje ir kelių debesų sistemoje – ir visuose modeliuose.
„Bus įdomu pamatyti, kiek įmonių tai priims“, – sakė jis. „Turėdama tokias galimybes, „Cisco“ tikrai juda teisinga kryptimi, nes paprastai įmonės į tai nežiūri labai efektyviai.
Kelių modelių apsauga nuo kelių debesų yra svarbi AI saugumui.
„Kelių modelių, kelių debesų AI sprendimai išplečia organizacijos atakų paviršių, sukurdami sudėtingumą skirtingose aplinkose su nenuosekliais saugos protokolais, keliais duomenų perdavimo taškais ir iššūkiais koordinuojant stebėjimą ir atsaką į incidentus – veiksnius, kuriuos grėsmės veikėjai gali lengviau išnaudoti. „TechNewsWorld“ sakė Patricia Thaine, „Private AI“, duomenų saugumo ir privatumo įmonės Toronte, generalinė direktorė ir viena iš įkūrėjų.
Dėl apribojimų
Nors „Cisco“ požiūris į tinklo lygmens saugos valdiklių įterpimą per esamą infrastruktūros tinklelį yra perspektyvus, jis taip pat atskleidžia apribojimus, teigia Dev Nag, „QueryPal“, klientų aptarnavimo pokalbių roboto, esančio San Franciske, generalinis direktorius ir įkūrėjas.
„Nors tinklo lygio matomumas suteikia vertingos telemetrijos, daug AI būdingų atakų įvyksta programos ir modelio sluoksniuose, kurių vien tinklo stebėjimas negali aptikti“, – sakė jis „TechNewsWorld“.
„Praėjusiais metais įsigytas „Robust Intelligence“ suteikia „Cisco“ svarbių modelių patvirtinimo ir vykdymo laiko apsaugos galimybių, tačiau jų dėmesys tinklo integravimui gali sukelti spragų užtikrinant tikrąjį AI kūrimo gyvavimo ciklą“, – sakė jis. „Kritinėms sritims, tokioms kaip mokymo vamzdynų saugumas, modelio tiekimo grandinės tikrinimas ir apsauginių turėklų koregavimas, reikia gilios integracijos su MLOps įrankiais, kurie peržengia tradicinę Cisco į tinklą orientuotą paradigmą.
„Pagalvokite apie galvos skausmą, kurį matėme dėl atvirojo kodo tiekimo grandinės atakų, kai pažeidžiamas kodas yra atvirai matomas“, – pridūrė jis. „Modelinių tiekimo grandinės atakų beveik neįmanoma aptikti palyginus.
Nagas pažymėjo, kad žvelgiant iš įgyvendinimo perspektyvos, „Cisco AI Defence“ pirmiausia yra esamų saugos produktų perpakavimas su tam tikromis AI specifinėmis stebėjimo galimybėmis.
„Nors jų platus diegimo pėdsakas suteikia pranašumų matomumui visos įmonės mastu, sprendimas šiuo metu atrodo labiau reaguojantis nei transformuojantis“, – teigė jis. „Kai kurioms organizacijoms, pradedančioms dirbtinio intelekto kelionę, kuri jau dirba su Cisco saugos produktais, Cisco AI Defence gali suteikti naudingų valdiklių, tačiau toms, kurios siekia pažangių AI galimybių, greičiausiai reikės sudėtingesnės saugos architektūros, specialiai sukurtos mašininio mokymosi sistemoms.
Daugeliui organizacijų, norint sumažinti AI riziką, reikalingi žmogaus įsiskverbimo tikrintojai, kurie suprastų, kaip modeliams užduoti klausimus, kurie atskleidžia neskelbtiną informaciją, pridūrė Karen Walsh, kibernetinio saugumo konsultacinės bendrovės West Hartford, Conn, generalinė direktorė.
„Cisco“ leidimas rodo, kad jų galimybė sukurti konkrečiam modeliui pritaikytus apsauginius turėklus sumažins šią riziką, kad dirbtinis intelektas nesimokytų apie blogus duomenis, neatsakytų į kenkėjiškas užklausas ir nesidalintų nenumatyta informacija“, – sakė ji „TechNewsWorld“. „Bent jau galime tikėtis, kad tai leis nustatyti ir sušvelninti pradines problemas, kad rašiklių bandytojai galėtų sutelkti dėmesį į sudėtingesnes AI kompromisų strategijas.
Kritinis poreikis kelyje į AGI
Kevinas Okemwas, rašantis „Windows Central“, pažymi, kad dirbtinio intelekto gynybos paleidimas negalėjo įvykti geresniu metu, nes didžiosios AI laboratorijos artėja prie tikro dirbtinio bendrojo intelekto (AGI), kuris turėtų atkartoti žmogaus intelektą, kūrimo.
„Kadangi AGI su kiekvienais metais vis labiau artėja, statymai negali būti didesni“, – sakė James McQuiggan, saugumo supratimo advokatas KnowBe4, saugumo supratimo mokymų teikėjas Klirvoteryje, Fla.
„AGI gebėjimas mąstyti kaip žmogus, turintis intuiciją ir orientaciją, gali sukelti revoliuciją pramonės šakose, tačiau tai taip pat kelia pavojų, kuris gali turėti toli siekiančių pasekmių“, – sakė jis „TechNewsWorld“. „Tvirtas AI saugumo sprendimas užtikrina, kad AGI vystytųsi atsakingai, sumažinant riziką, pavyzdžiui, nesąžiningų sprendimų priėmimą ar nenumatytas pasekmes.
„AI saugumas nėra tik „malonu turėti“ ar kažkas, apie ką reikia galvoti ateinančiais metais“, – pridūrė jis. „Tai labai svarbu, kai pereiname prie AGI.
Egzistencinis pražūtis?
Okemwa taip pat rašė: „Nors AI gynyba yra žingsnis teisinga kryptimi, dar reikia pamatyti, kaip ji bus pritaikyta organizacijose ir pagrindinėse AI laboratorijose. Įdomu tai, kad „OpenAI“ generalinis direktorius (Samas Altmanas) pripažįsta, kad technologija kelia grėsmę žmonijai, tačiau mano, kad AI bus pakankamai protingas, kad neleistų dirbtiniam intelektui sukelti egzistencinę pražūtį.
„Aš matau tam tikrą optimizmą dėl AI gebėjimo savarankiškai reguliuotis ir užkirsti kelią katastrofiškoms pasekmėms, bet taip pat pastebiu, kad pažangių AI sistemų suderinimas su žmogiškosiomis vertybėmis vis dar yra vėlesnė mintis, o ne būtina“, – Adamas Ennamli, vyriausiasis rizikos ir saugumo pareigūnas. Kanados generaliniame banke sakė „TechNewsWorld“.
„Sąvoka, kad dirbtinis intelektas išspręs savo egzistencines rizikas, yra pavojingai optimistiškas, kaip rodo dabartinės AI sistemos, kuriomis jau galima manipuliuoti, siekiant sukurti žalingą turinį ir apeiti saugos kontrolę“, – pridūrė Stephenas Kowskis, kompiuterių ir tinklo saugumo skyriaus „SlashNext“ techninis vadovas. įmonė, Pleasanton, Kalifornija.
„Techninės apsaugos priemonės ir žmonių priežiūra išlieka būtinos, nes dirbtinio intelekto sistemas iš esmės lemia jų mokymo duomenys ir užprogramuoti tikslai, o ne įgimtas žmogaus gerovės troškimas“, – sakė jis „TechNewsWorld“.
„Žmonės yra gana kūrybingi“, – pridūrė Goldas. „Aš neperku šitų pasaulio pabaigos nesąmonių. Išsiaiškinsime būdą, kaip dirbtinį intelektą dirbti mums ir padaryti tai saugiai. Tai nereiškia, kad kelyje problemų nekils, bet ne visi pateksime į „Matricą“.






