
Advokatų kontoros susiduria su realybe, kad nors dirbtinis intelektas (AI) gali parengti trumpą tekstą per kelias sekundes, jis taip pat gali haliucinuoti teisines teorijas, kurios yra pakankamai įtikinamos, kad nepastebėtų tradicinių peržiūros filtrų.
Kadangi generatyvinis AI tampa pagrindiniu teisės aktų rengimo elementu, iškilo nauja rizika: išgalvoti teisiniai samprotavimai, o ne tik išgalvoti faktai. Dėl padarytų klaidų vis dažniau taikomos teismo sankcijos.
Cat Casey, teisinių technologijų ekspertė ir Masters AI Legal partnerė, teigė, kad teisinės teorijos haliucinacijas sunkiausia atpažinti. Greita „Westlaw“ ar „Lexis“ paieška ar net kai kurios patikimesnės kovos su haliucinacijos priemonės, tokios kaip „BriefCatch“ „RealityCheck“, nėra pritaikytos pažymėti tokio tipo gedimus.
„Haliucinuota teisės teorija praeina kiekvieną citatų patikrinimą ir vis tiek susprogdina jūsų bylą“, – sakė ji „TechNewsWorld“. „Haliucinacijų atsiradimas advokatų kontorose yra plačiai paplitęs ir turi rimtą poveikį teismo procesams.
Andrew Adamsas, DarrowEverett partneris ir vyriausiasis administracijos pareigūnas, sutinka, kad haliucinacijos ir šešėlinis AI – darbuotojai, naudojantys nepatvirtintus AI įrankius – yra dvi rimtos rizikos, su kuriomis šiandien susiduria teisinė pramonė.
„AI nebėra nauja advokatų kontorų problema. Tai dabartinis valdymo iššūkis su realiomis pasekmėmis”, – sakė jis TechNewsWorld. „2025 m. ir 2026 m. pradžios pamoka yra ta, kad jokia įmonė nėra apsaugota.
Teismai tiria dirbtinio intelekto paraiškas
Tyrėjas Damienas Charlotinas tvarko duomenų bazę, kuri seka teisinius sprendimus tais atvejais, kai generuojantis AI sukūrė haliucinuotą turinį, apimantį netikras citatas ir AI generuojamus argumentus. Casey dokumentuotų incidentų skaičių apibūdino kaip stulbinantį.
Ji citavo neseniai atliktą skaičių, kuriame duomenų bazė sudarė daugiau nei 1 369 teisinius sprendimus, susijusius su AI haliucinacijomis. Šis skaičius neapima platesnės haliucinuotų citatų, kurios greičiausiai lieka nepastebimos, visatos.
„Tik tai, kas buvo sugauta. Teismai reguliariai netikrina kiekvienos citatos. Sugalvotos institucijos nuolatos nepastebimos, ypač tais atvejais, kai atsiskaitoma arba kai priešingam advokatui trūksta išteklių patikrinti”, – paaiškino Casey.
Teismo salės poveikis didėja. Casey pažymėjo, kad JAV teismai skyrė daugiau nei 145 000 USD sankcijų advokatų kontoroms, pateikusioms AI haliucinuotas paraiškas pirmąjį šių metų ketvirtį.
„Daugiau nei 300 federalinių teisėjų dabar priėmė nuolatinius įsakymus arba vietines taisykles, konkrečiai susijusias su AI naudojimu pareiškimuose. Bylos vis vilkinamos. Siūlymai vis sunkesni“, – sakė ji.
Du federaliniai teisėjai pastebėjo, kad jų pačių nuomonės, paremtos dirbtiniu intelektu, buvo užginčytos ir atšauktos po to, kai prieštaraujantys advokatai pažymėjo haliucinuotas citatas. Suolelis neapsaugotas, pridūrė ji.
Teisininkų komandoms gresia auganti AI atsakomybė
Casey nurodė neseniai paskelbtą ataskaitą, kurioje atskleidžiama, kad 79 % teisininkų tam tikra forma naudoja dirbtinį intelektą savo praktikoje. Tai ne klausimas, ar teisininkai ja naudojasi, o ne kaip tai naudoja.
Ji pasiūlė, kad advokatų kontoros darbuotojai, naudojantys neteisėtus vartotojų lygio AI įrankius, tapo plačiai paplitę. Daugiau nei 68 % teisės specialistų pripažino, kad per pastaruosius metus bent kartą naudojo nepatvirtintus dirbtinio intelekto įrankius.
„Tikėtina, kad iš tikrųjų šis skaičius yra daug didesnis, o mažiau nei 20 % įmonių turi oficialią politiką, kad galėtų valdyti riziką“, – sakė ji ir perspėjo, kad įmonės rizikuoja pažeisti klientų konfidencialumą ir privilegijas.
Adamsas atkreipė dėmesį į reikšmingą AI projektavimo keliamos rizikos pavyzdį: Oregono federalinis teismas skyrė 110 000 USD sankcijų. Advokatai rėmėsi dirbtinio intelekto sukurta fiktyvi teismų praktika ir neprisiėmė atsakomybės už savo neteisėtus veiksmus.
„Teismas nurodė šią atvejį kaip išskirtinį atvejį, tačiau tai parodo didelę riziką, su kuria gali susidurti advokatų kontoros, jei netinkamai peržiūrės dirbtinį intelektą ir neištaisys savo klaidų“, – sakė jis.
Adamsas taip pat paminėjo balandžio mėnesį įvykusią bylą, kai elitinė advokatų kontora pateikė skubų laišką, kuriame pripažino, kad dirbtinio intelekto sukeltos haliucinacijos pateko į bankroto bylą. Nors tai yra vieni dramatiškiausių pavyzdžių, sprendimų, kuriuose nurodomi haliucinacijų atvejai, skaičius ir toliau auga.
Jis patikslino, kad patikrinimas nėra teisininkų pasirinkimas. Tai yra etinė prievolė.
„Pagal 11 taisyklę ir jos valstybinių taisyklių pasekmes, kiekvienas advokatas, pasirašantis paraišką, patvirtina, kad teisiniai ginčai yra pateisinami pagal galiojančius įstatymus arba nelengvą argumentą dėl galiojančio įstatymo išplėtimo, keitimo ar panaikinimo arba naujo įstatymo priėmimo. To sertifikavimo negalima perduoti mašinai”, – sakė jis.
„Shadow AI“ plečia teisinį poveikį
Anot Adamso, šešėlinis AI, be abejo, yra klastingesnė problema, nes ji veikia už bet kokios valdymo sistemos ribų. Jis pažymėjo, kad neseniai atliktas Nacionalinio kibernetinio saugumo aljanso tyrimas parodė, kad 43 % AI naudojančių darbuotojų prisipažino, kad be darbdavio žinios dalijasi jautria įmonės informacija su AI įrankiais.
„Advokatų kontorose, kuriose tvarkome privilegijuotus ryšius, komercines paslaptis ir bylinėjimosi strategiją, atskleidimas yra eksponentinis. Medžiaga, kuria dalijamasi už advokato ir kliento santykių ribų, gali būti aptinkama bylinėjimosi metu, todėl šešėlinis AI kelia ypač didelį susirūpinimą teisės specialistams”, – sakė jis.
Casey įžvelgia pavojų darant prielaidą, kad generatyvūs AI rezultatai yra patikimi vien dėl to, kad jie gaunami iš nusistovėjusių teisinių platformų. 2024 m. Stanfordo vadovaujamas tyrimas nustatė, kad Westlaw AI padedamų tyrimų metu haliucinacijų dažnis yra maždaug 33 %, o Lexis+ AI – 17 % etaloninių bandymų sąlygomis.
„Teisininkams gresia ta pati sankcija už haliucinacijas, nesvarbu, ar tai būtų Westlaw, ar individuali AI platforma“, – sakė ji. „Teismai nesiskyrė. Patikimas prekės ženklas nebuvo gynyba.”
Raudonos vėliavos dirbtinio intelekto sukurtose teisinėse trumpikėse
Casey pasiūlė tris pagrindinius AI haliucinacijų skonius. Kiekvienas iš jų turi savo skiriamuosius bruožus: didmeninis bylos išgalvojimas, netikros citatos, priskiriamos tikriems atvejams, ir tikros bylos su autentiška citata, priskiriama argumentui, kuris neturi nieko bendra su byla.
Ji sakė, kad šios raudonos vėliavėlės dažnai pasirodo tarp dažniausiai pasitaikančių haliucinacijų:
- Per geri, kad būtų tiesa, atvejai, kurie pernelyg puikiai atitinka faktų modelį
- Nuomonės su subalansuota, švaria proza ir nulinės gyvatvorės
- Atvejai, cituojami kelis kartus dėl skirtingų argumentų, faktų modelių ar atvejų
- Per 30 sekundžių paiešką pirminio šaltinio atvejų duomenų bazėje nerasta atvejų
„Net jei nėra šių ryškių raudonų vėliavėlių, bet kuri darbo eiga, kuri remiasi AI tyrimais, turėtų turėti audito komponentą. Žmonės visada turėtų patikrinti dirbtinį intelektą ir pasitikėti juo šiame žaidimo etape”, – rekomendavo Casey.
AI valdymo kūrimas advokatų kontorose
Masters AI Legal suteikia specializuotą mokymosi ekosistemą, skirtą mokyti advokatų kontoras ir teisės specialistus diegti generatyvųjį AI. Advokatai turi prižiūrėti, išlaikyti techninę kompetenciją, saugoti konfidencialumą ir išlaikyti atvirumą su teismu, pažymėjo Casey.
Ji mato prisitaikymo iššūkį, kai dirbtinis intelektas pereina nuo atskirų įrankių prie integracijos su pagrindinėmis teisinėmis priemonėmis, tokiomis kaip Lexis ir Westlaw, ir net į teksto apdorojimo platformas.
„Pasikeičia tai, kaip AI tampa nematomas, o nematomumas yra būtent ten, kur kyla rizika“, – paaiškino ji.
Adamsas pasiūlė, kad, be prieigos kontrolės ir mokymo, advokatų kontoros turi prisitaikyti, kad užtikrintų tinkamą bylinėjimosi dokumentų ir darbo produkto valdymą. Tai užtikrina, kad jų rezultatai būtų tinkamai peržiūrimi dėl haliucinacijų, jei buvo naudojama įgaliota, todėl neaudituojama AI programa.
„Ši rizika paskatino plataus masto persvarstyti advokatų kontoros valdymą. DarrowEverett mes priėmėme savo teisinę AI platformą, pagrįstą jos galimybe kontroliuoti, stebėti ir audituoti naudojimą, taip pat duomenų saugojimo ir apdorojimo saugumą”, – sakė Adamsas.
Jis pridūrė, kad kuriant tvirtas valdymo sistemas reikia atidžiai stebėti detales ir nuolat stengtis laikytis reikalavimų. Kai kurie teismai dabar aiškiai nurodė, kaip byloje Jungtinės Valstijos prieš Heppnerį, kad ryšiai su neapsaugotomis trečiųjų šalių AI sistemomis negali būti privilegijuojami ir gali būti naudojami prieš ginčo šalis.
„Firmos ir įmonių teisės skyriai, kurie nesugeba dirbtinio intelekto valdymo taip pat griežtai kaip su kibernetiniu saugumu ar konfliktų valdymu, patiria didelę riziką“, – pakartojo jis.







