
Praėjusiais metais dirbtinio intelekto (AI) peržengė tai, kas įmanoma, pramonės šakos lenktyniauja integruoti savo galimybes, kad padidintų produktyvumą ir automatizuotų sudėtingas užduotis.
2024 m. AI pažangos pagreitėjo tempu, viršijančiu ankstesnes aukštųjų technologijų naujoves, sudarydamas pagrindą dar didesniam trikdymui. Tačiau dėl šios spartos pažangos kyla rizika: be žmogaus priežiūros, AI klaidos gali būti tokios pat monumentalios kaip jos proveržiai.
Generacinė ir agentinė AI jau sustiprina vartotojų galimybes gauti sudėtingą turinį įvairiose laikmenose, o AI varomos sveikatos priežiūros priemonės keičia diagnostiką-tam tikromis užduotimis pralenkia žmonių gydytojus. Šie pokyčiai rodo artėjančią sveikatos priežiūros paslaugų teikimo transformaciją, nes AI yra pasirengusi atlikti dar didesnį vaidmenį verslo ir pramonės operacijose.
PG galia taip pat gimsta humanoidinių agentų, pažymėtų „Anders Indset“, autorių ir „Deep-Tech“ investuotojus į tokias eksponentines technologijas kaip AI, „Quantum Technology“, „Health Tech“ ir kibernetinis saugumas. Žvelgiant į 2025 m., Technologijų aplinka greitai vystosi, atkreipiant dėmesį į humanoidų agentus.
„Šie metai prasidėjo nuo jaudulio, susijusio su didelių kalbų modeliais (LLM), tačiau planuojama baigti novatoriškais autonominių humanoidinių robotų pažanga“, – „Indset“ pasakojo „Technewsworld“.
2024 m. Robotų plėtra padidėjo, o naujovės, kurios kadaise atrodė toli. Jis pastebėjo, kad ilgai lauktas visiškai autonominių humanoidų, anksčiau apsiribojančių pramoninėmis aplinkybėmis, išleidimas, pastebėjo.
2025 m. Atvykimas lemia platų AI pritaikymą robotikoje, sustiprinta žmogaus roboto sąveika ir robotikos, kaip paslaugos (RAAS) modelių, kilimas. Tai padarys pažangius robotinius sprendimus, prieinamus daugiau pramonės šakų, – paaiškino „Indset“, apibūdindamas tolesnį robotikos pramonės transformacinį laikotarpį.
„Humanoidiniai agentai pakeis mūsų sąveiką su technologijomis ir išplės AI programų įvairiose srityse galimybes“, – prognozavo jis.
AI plečiamas vaidmuo kibernetiniame saugume ir biologiniame saugume
AI vaidins vis kritiškesnį vaidmenį „Cyberwarfare“, perspėjo Alejandro Rivas-Vasquez, „Global“ skaitmeninės kriminalistikos ir reagavimo į incidentus vadovas NCC grupėje. AI ir mašinų mokymasis (ML) padarys kibernetinį karą mirtingesnį, o dėl hiper-ryšio dėl hipereracijos sujungimo nėra įkaito.
Kibernetinio saugumo gynyba, jau sėkminga „Digital Warriors“ įrankis, apims ne tik skaitmeninių sistemų apsaugą, kad būtų galima apsaugoti žmones tiesiogiai per implantuojamą technologiją. Neuroninės sąsajos, biologinė žlugimo, autentifikavimo lustai ir pažengę medicininiai implantai pakeis žmonių sąveiką su technologijomis.
Pasak NCC grupės konsultanto Bobbie Walkerio, šios naujovės taip pat sukels didelę riziką.
„Įsilaužėliai galėtų išnaudoti nervines sąsajas, kad kontroliuotų veiksmus ar manipuliuotų suvokimu, sukeltų pažintinę manipuliaciją ir asmeninės autonomijos pažeidimus. Nuolatinis sveikatos ir elgesio duomenų stebėjimas per implantus kelia didelį susirūpinimą dėl privatumo, nes kenkėjiškų veikėjų ar invazinės vyriausybės stebėjimo rizika yra piktnaudžiaujama “, – pasakojo Walkeris„ Technewsworld “.
Norint sušvelninti šią riziką, bus būtina naujos rėmų sujungimo technologijos, sveikatos priežiūros ir privatumo taisyklės. Walkeris perspėjo, kad „skaitmeninės bioetikos“ ir „ISO“ standartų standartai, skirti biologiniam saugumui.
„Kylanti kibernetinio biologinio saugumo sritis paskatins mus pergalvoti kibernetinio saugumo ribas, užtikrinant, kad į mūsų kūną integruota technologija yra saugi, etiška ir apsaugoti ją naudojančius asmenis“,-pridūrė ji.
Anot Walkerio, ankstyvieji smegenų ir kompiuterio sąsajų (BCIS) tyrimai rodo, kad prieštaringos sąnaudos gali apgauti šiuos įrenginius, pabrėždami piktnaudžiavimo galimybes. Tobulėjant implantams, auga valstybės remiamo kibernetinio karjeros ir privatumo pažeidimų rizika, pabrėžiant tvirtų saugumo priemonių ir etinių svarstymų poreikį.
AI pagrįstų duomenų atsarginė kopija kelia saugumo problemas
Pagrindinis N2WS sprendimų architektas Sebastianas Straubas pareiškė, kad AI pažangai geriau suteikia organizacijas atnaujinti operacijas po stichinių nelaimių, elektros energijos tiekimo nutraukimo ir kibernetinių išpuolių. AI automatizavimas padidins veiklos efektyvumą, spręsdama žmonių trūkumus.
Jis paaiškino, kad AI varoma atsarginė automatizavimas sumažins administracinės intervencijos poreikį iki beveik nulio. AI išmoks sudėtingų duomenų naudojimo, atitikties reikalavimų ir organizacinių poreikių modelių. Be to, AI taps aktyviu duomenų valdymo ekspertu, autonomiškai nustatydama, ką reikia sukurti ir kada, įskaitant laikymąsi atitikties standartų, tokių kaip GDPR, HIPAA ar PCI DSS.
Tačiau Straubas perspėjo, kad kadangi šis AI dominavimo lygis smarkiai keičia atkūrimo katastrofų procesus, klaidos įvyks per mokymosi procesą. 2025 m. Pamatysime, kad AI nėra sidabrinė kulka. Pasikliaudami mašinomis automatizuojant nelaimių atkūrimą, atsiras klaidų.
„Bus apgailėtini pasitikėjimo ir atitikties pažeidimų pažeidimai, nes įmonės sužinos sunkų būdą, kurio žmonės turi būti DR sprendimų priėmimo proceso dalis“,-sakė Straubas „Technewsworld“.
AI poveikis kūrybiškumui ir švietimui
Daugeliui AI vartotojų įrankiai, padedantys patobulinti komunikacijos įgūdžius, jau naudojami stabiliai. „ChatGPT“ ir kitos AI rašymo priemonės pabrėžs žmonių rašymo vertę, o ne asmeninių kalbos užduočių sprendimą.
Studentai ir komunikatoriai pakoreguos prašydami AI rašymo įrankių, kad jų vardu būtų sukurtas darbas iki turinio kūrimo proceso nuo pradžios iki pabaigos. Jie pasitelks technologijas, kad galėtų redaguoti, patobulinti ar išplėsti originalų mąstymą, pasiūlė Plagiatizmo aptikimo įmonės „Turnitin“ AI viceprezidentui Ericui Wangui.
Žvelgiant į ateitį, Wangas „Technewsworld“ sakė, kad rašymas bus pripažintas kaip kritinis įgūdis, ne tik į rašymą orientuotose studijų srityse, bet ir mokymosi, darbo ir gyvenimo aplinkoje. Šis pakeitimas pasireikš kaip technologijų įgalintų laukų, vaidmenų ir įmonių humanizavimas.
Jis mato generatyvaus AI keitimo vaidmenį, o ankstyvos stadijos naudojimas padeda organizuoti ir išplėsti idėjas, o vėlesni etapai tobulina ir sustiprina rašymą. Pers.
Paslėpta AI varomų modelių rizika
Anot Michaelo Liebermano, CTO ir programinės įrangos kūrimo saugumo platformos „Kusari“ įkūrėjų, AI taps labiau paplitusi ir sudėtingesnė. Jo susirūpinimas kelia nemokamus modelius, esančius platformose.
„Mes jau matėme atvejų, kai kai kurie šių platformų modeliai buvo nustatyti kaip kenkėjiška programa. Tikiuosi, kad tokie išpuoliai padidės, nors greičiausiai jos bus slaptesnės. Šie kenkėjiški modeliai gali apimti paslėptus užpakalinius duris arba būti sąmoningai išmokyti kenksmingai elgtis konkrečiuose scenarijuose “, – pasakojo Liebermanas„ Technewsworld “.
Jis mato vis daugiau apsinuodijimo duomenų, susijusių su LLMS manipuliavimu, paplitimą ir perspėja, kad dauguma organizacijų nemoko savo modelių.
„Vietoj to, jie remiasi iš anksto apmokytais modeliais, dažnai prieinamus nemokamai. Dėl skaidrumo dėl šių modelių ištakų kenkėjiškiems aktoriams lengva pristatyti kenksmingus “, – tęsė jis, kaip pavyzdį cituodamas apkabinamą veido kenkėjiškos programos įvykį.
Tikėtina, kad būsimos apsinuodijimo duomenimis, tikėtina, kad būtų nukreipti pagrindiniai žaidėjai, tokie kaip „Openai“, „Meta“ ir „Google“, kurių didžiuliuose duomenų rinkiniuose tokios atakos daro sudėtingesnius.
„2025 m. Užpuoliai greičiausiai pralenkia gynėjus. Užpuolikai yra finansiškai motyvuoti, o gynėjai dažnai stengiasi užsitikrinti tinkamus biudžetus, nes vertybiniai popieriai paprastai nėra vertinami kaip pajamų variklis. Gali prireikti reikšmingo AI tiekimo grandinės pažeidimo – panašaus į „Solarwinds Sunburst“ incidentą -, kad pramonė galėtų rimtai atsižvelgti į grėsmę “, – padarė išvadą„ Turnitin “Wang.