Vyriausybės siekia sukurti saugumo priemones, susijusias su dirbtiniu intelektu, tačiau kliūtys ir neryžtingumas vilkina tarptautinius susitarimus dėl prioritetų ir kliūčių, kurių reikia vengti.
2023 m. lapkritį Didžioji Britanija paskelbė Bletchley deklaraciją, kuria sutiko sustiprinti pasaulines pastangas bendradarbiauti dirbtinio intelekto saugumo srityje su 28 šalimis, įskaitant JAV, Kiniją ir Europos Sąjungą.
Gegužės mėn. vyko antrasis pasaulinis dirbtinio intelekto aukščiausiojo lygio susitikimas, kurio metu JK ir Korėjos Respublika užsitikrino 16 pasaulinių dirbtinio intelekto technologijų įmonių įsipareigojimą siekti tam tikrų saugos rezultatų, pagrįstų šiuo susitarimu, gegužę ir toliau siekti dirbtinio intelekto saugos taisyklių.
„Deklaracija įgyvendina pagrindinius viršūnių susitikimo tikslus, nes nustato bendrą susitarimą ir atsakomybę dėl rizikos, galimybių ir tolesnio tarptautinio bendradarbiavimo paribių AI saugos ir tyrimų srityje, ypač glaudesnio mokslinio bendradarbiavimo“, – teigiama Didžiosios Britanijos atskirame pareiškime, pridėtame prie deklaracijos.
Gegužę priimtas Europos Sąjungos AI įstatymas tapo pirmuoju pasaulyje dideliu įstatymu, reglamentuojančiu dirbtinį intelektą. Tai apima vykdymo galias ir nuobaudas, pvz., 38 mln. USD baudas arba 7 % metinių pasaulinių pajamų, jei įmonės pažeidžia įstatymą.
Po to, reaguodama į Johnny'į, dvipartinė JAV senatorių grupė rekomendavo Kongresui parengti 32 mlrd.
„Vyriausybės būtinai turi būti įtrauktos į dirbtinį intelektą, ypač kai kalbama apie nacionalinio saugumo klausimus. Turime išnaudoti AI teikiamas galimybes, bet taip pat saugotis rizikos. Vienintelis būdas vyriausybėms tai padaryti yra būti informuotoms, o norint gauti informaciją reikia daug laiko ir pinigų“, – „TechNewsWorld“ sakė Josephas Thackeris, pagrindinis „SaaS“ saugos bendrovės „AppOmni“ dirbtinio intelekto inžinierius ir saugumo tyrinėtojas.
AI sauga būtina SaaS platformoms
DI saugos svarba kasdien auga. Beveik kiekvienas programinės įrangos produktas, įskaitant AI programas, dabar yra sukurtas kaip programinė įranga kaip paslauga (SaaS), pažymėjo Thacker. Todėl labai svarbu užtikrinti šių SaaS platformų saugumą ir vientisumą.
„Mums reikalingos patikimos SaaS programų saugos priemonės. Investicijos į SaaS saugumą turėtų būti svarbiausias bet kurios AI kuriančios ar diegiančios įmonės prioritetas“, – pasiūlė jis.
Esami SaaS pardavėjai į viską prideda dirbtinio intelekto ir kelia daugiau rizikos. Vyriausybinės agentūros turėtų į tai atsižvelgti, tvirtino jis.
JAV atsakas į AI saugos poreikius
Thackeris nori, kad JAV vyriausybė imtųsi greitesnio ir apgalvotesnio požiūrio į realybę, kai trūksta AI saugos standartų. Tačiau jis gyrė 16 pagrindinių DI įmonių įsipareigojimą teikti pirmenybę saugumui ir atsakingam pasienio AI modelių diegimui.
„Tai rodo augantį supratimą apie AI riziką ir norą įsipareigoti jas sumažinti. Tačiau tikrasis išbandymas bus tai, kaip šios įmonės laikosi savo įsipareigojimų ir kaip skaidrios saugos praktikos“, – sakė jis.
Vis dėlto jo pagyrimai nutrūko dviejose pagrindinėse srityse. Jis nematė jokio paminėjimo apie pasekmes ar suderintas paskatas. Abu yra nepaprastai svarbūs, pridūrė jis.
Thakerio teigimu, reikalavimas dirbtinio intelekto įmonėms skelbti saugos sistemas rodo atskaitomybę, o tai leis suprasti jų testavimo kokybę ir gylį. Skaidrumas leis atlikti visuomenės kontrolę.
„Tai taip pat gali priversti dalytis žiniomis ir plėtoti geriausią praktiką visoje pramonėje“, – pastebėjo jis.
Thackeris taip pat nori greitesnių teisėkūros veiksmų šioje srityje. Tačiau jis mano, kad artimiausiu metu JAV vyriausybei bus sudėtingas didelis judėjimas, atsižvelgiant į tai, kaip lėtai paprastai juda JAV pareigūnai.
„Tikimės, kad dvipartinė grupė, susirinkusi pateikdama šias rekomendacijas, pradės daug pokalbių“, – sakė jis.
Vis dar naršyti nežinomybėmis AI taisyklėse
Pasaulinis AI viršūnių susitikimas buvo didelis žingsnis į priekį saugant AI evoliuciją, sutiko Melissa Ruzzi, AppOmni dirbtinio intelekto direktorė. Taisyklės yra svarbiausia.
„Tačiau prieš net pagalvodami apie taisyklių nustatymą, reikia atlikti daug daugiau tyrimų“, – sakė ji „TechNewsWorld“.
Ji pridūrė, kad čia labai svarbus AI pramonės įmonių bendradarbiavimas, kad savanoriškai prisijungtų prie iniciatyvų, susijusių su AI sauga.
„Slenksčių ir objektyvių priemonių nustatymas yra pirmasis iššūkis, kurį reikia ištirti. Nemanau, kad mes dar pasiruošę juos nustatyti visai AI sričiai“, – sakė Ruzzi.
Norint išsiaiškinti, kas tai gali būti, reikės daugiau tyrimų ir duomenų. Ruzzi pridūrė, kad vienas didžiausių iššūkių yra dirbtinio intelekto taisyklėms neatsilikti nuo technologijų raidos jiems netrukdant.
Pradėkite nuo AI žalos apibrėžimo
Pasak Davido Brauchlerio, pagrindinio NCC grupės saugumo konsultanto, vyriausybės turėtų apsvarstyti žalos apibrėžimus kaip atskaitos tašką nustatydamos dirbtinio intelekto gaires.
Dirbtinio intelekto technologijoms tampant įprastesnėmis, gali atsirasti pokytis nuo AI rizikos klasifikavimo atsižvelgiant į jos mokymo skaičiavimo pajėgumus. Šis standartas buvo neseniai priimto JAV vykdomojo įsakymo dalis.
Vietoj to, perėjimas gali pakrypti į apčiuopiamą žalą, kurią AI gali padaryti vykdydamas savo veiklą. Jis pažymėjo, kad apie tokią galimybę užsimenama įvairiuose teisės aktuose.
„Pavyzdžiui, dirbtinio intelekto sistemoje, kuri valdo šviesoforus, turėtų būti daug daugiau saugos priemonių nei apsipirkimo asistente, net jei pastarajam reikia daugiau skaičiavimo galios, kad būtų galima išmokyti“, – sakė Brauchleris „TechNewsWorld“.
Kol kas trūksta aiškaus AI kūrimo ir naudojimo reguliavimo prioritetų požiūrio. Vyriausybės turėtų teikti pirmenybę realiam poveikiui žmonėms, kaip šios technologijos yra įgyvendinamos. Jis pastebėjo, kad teisės aktai neturėtų bandyti numatyti ilgalaikės greitai besikeičiančios technologijos ateities.
Jei dėl AI technologijų kyla dabartinis pavojus, vyriausybės gali atitinkamai reaguoti, kai tik bus konkreti informacija. B. Brauchleris patikslino, kad bandymai iš anksto įteisinti tuos grasinimus greičiausiai bus nesąmonė.
„Tačiau jei norime užkirsti kelią žalos asmenims taikant į poveikį nukreiptus teisės aktus, mums nereikia prognozuoti, kaip ateityje pasikeis AI forma ar mada“, – sakė jis.
Vyriausybės kontrolės, teisėkūros priežiūros subalansavimas
Thacker, reguliuodamas AI, mato sudėtingą pusiausvyrą tarp valdymo ir priežiūros. Rezultatas neturėtų būti naujovių slopinimas griežtais įstatymais ar pasikliauti vien įmonės savireguliacija.
„Manau, kad lengva reguliavimo sistema kartu su aukštos kokybės priežiūros mechanizmais yra teisingas kelias. Vyriausybės turėtų nustatyti apsauginius turėklus ir užtikrinti, kad būtų laikomasi reikalavimų, kartu leisdamos tęsti atsakingą plėtrą“, – samprotavo jis.
Thackeris mato tam tikras analogijas tarp AI taisyklių ir branduolinių ginklų dinamikos. Jis perspėjo, kad AI dominuojančios šalys gali įgyti didelių ekonominių ir karinių pranašumų.
„Tai sukuria paskatas tautoms sparčiai plėtoti AI pajėgumus. Tačiau pasaulinis bendradarbiavimas dirbtinio intelekto saugumo srityje yra labiau įmanomas nei branduolinių ginklų srityje, nes mes turime didesnį tinklo poveikį internetu ir socialine žiniasklaida“, – pastebėjo jis.