AI creează cauze legale false și se infiltrează în sălile de judecată reale, cu rezultate dezastruoase

AI creează cauze legale false și se infiltrează în sălile de judecată reale, cu rezultate dezastruoase

Am văzut deepfake-uri, imagini clare ale acestuia vedete, creat de inteligența artificială (AI). AI a jucat și o mână făcând muzică, mașini de curse fără șofer și răspândit dezinformareinclusiv.

Nu este de mirare, așadar, că AI are, de asemenea, un impact puternic asupra sistemelor noastre juridice.

Este cunoscut faptul că instanțele trebuie să soluționeze litigiile în baza legii, care este prezentată de avocați în instanță ca parte a cazului unui client. Prin urmare, este foarte îngrijorător faptul că legea falsă, inventată de inteligența artificială, este folosită în litigiile juridice.

Acest lucru nu numai că ridică întrebări de legalitate și etică, dar și amenință să submineze credința și încrederea în sistemele juridice globale.



Citeşte mai mult:
Avocații adoptă rapid AI: iată cum să evitați un dezastru etic


Cum apar legile false?

Nu există nicio îndoială că IA genetică este un instrument puternic cu potențial transformator pentru societate, inclusiv multe aspecte ale sistemului juridic. Dar utilizarea lui vine cu responsabilități și riscuri.

Avocații sunt instruiți să aplice cu atenție cunoștințele și experiența profesională și sunt, în general, neclintiți față de riscuri. Cu toate acestea, unii avocați neglijenți (și auto-reprezentat partidelor) au fost captate de inteligența artificială.

Instrumentele de generare AI, cum ar fi ChatGPT, pot furniza informații incorecte.
Shutterstock

Modelele AI sunt antrenate pe seturi uriașe de date. La cererea unui utilizator, acesta poate crea conținut nou (textual și audio-vizual).

Deși conținutul creat în acest fel poate părea foarte convingător, poate fi și inexact. Acesta este rezultatul modelului AI care încearcă să „compleze golurile” atunci când datele de antrenament sunt insuficiente sau greșite și sunt denumite în mod obișnuit „iluzie“.

În unele contexte, AI iluzia generativă nu este o problemă. Într-adevăr, poate fi văzut ca un exemplu de creativitate.

Dar dacă AI a denaturat sau a creat conținut inexact care este apoi folosit în procedurile legale, aceasta este o problemă – mai ales atunci când este combinată cu presiunile de timp asupra avocaților și cu lipsa accesului la servicii juridice pentru mulți.

Această combinație puternică poate duce la neglijență și scurtături în cercetarea juridică și pregătirea documentelor, potențial creând probleme de reputație pentru profesia de avocat și o lipsă de încredere a publicului în administrarea justiției.

Se întâmplă deja

Cel mai cunoscut generator de „cazuri false” AI este cazul din 2023 din SUA Mata vs Avianca, în care avocații au depus un brevet care conținea citate false și rapoarte de caz la o instanță din New York. Sondajul scurt a fost realizat folosind ChatGPT.

Avocații, neștiind că ChatGPT poate avea halucinații, nu au reușit să verifice dacă cazurile au existat efectiv. Consecințele au fost dezastruoase. Odată ce eroarea a fost descoperită, instanța a respins cazul clientului lor, a sancționat avocații pentru rea-credință, i-a amendat pe ei și firma lor și și-a expus acțiunile controlului public.



Citeşte mai mult:
AI este peste tot – inclusiv nenumărate aplicații despre care probabil nu ai auzit niciodată


În ciuda publicității nefavorabile, continuă să apară și alte exemple de cazuri false. Michael Cohen, fostul avocat al lui Donald Trump, și-a dat propriile dosare juridice create de Google Bard, un alt chatbot tehnologic pe care îl generează. El a crezut că sunt reale (nu au fost) și că avocatul său le va verifica faptele (nu a făcut-o). Avocatul lui incluse cazurile într-un document depus la Curtea Federală a SUA.

În ultimele fire au apărut și cazuri false Canada și Regatul Unit.

Dacă această tendință rămâne necontrolată, cum ne putem asigura că utilizarea neglijentă a IA genetică nu subminează încrederea publicului în sistemul juridic? Eșecurile continue din partea avocaților de a exercita atenția cuvenită în utilizarea acestor instrumente au potențialul de a induce în eroare și de a aglomera instanțele, de a prejudicia interesele clienților și, în general, de a submina statul de drept.

Un bărbat în costum părăsește sala de judecată

Avocatul lui Michael Cohen a fost implicat într-un proces judiciar care implică jurisprudență falsă în domeniul inteligenței artificiale.
Sarah Yenesel/EPA

Ce zici de asta?

În întreaga lume, autoritățile legale de reglementare și instanțele au răspuns într-o varietate de moduri.

Mai multe barouri și tribunale de stat din SUA au emis linii directoare, opinii sau ordine cu privire la utilizarea inteligenței artificiale genetice, de la adoptarea responsabilă până la interzicerea totală.

Societățile de avocatură din Regatul Unit și Columbia Britanică, precum și instanțele din Noua Zeelandă, au elaborat, de asemenea, linii directoare.

În Australia, Asociația Baroului din NSW are un Ghid genetic AI pentru avocați. The Societatea de Drept din NSW și Institutul de Drept din Victoria au publicat articole despre utilizarea responsabilă în conformitate cu Codul de conduită al avocaților.

Mulți avocați și judecători, precum publicul, vor avea o anumită înțelegere a IA genetică și pot recunoaște atât limitele, cât și beneficiile acesteia. Dar mai sunt și alții care poate nu știu asta. Îndrumarea cu siguranță ajută.

Dar este nevoie de o abordare obligatorie. Avocații care folosesc instrumente de inteligență artificială nu o pot trata ca pe un substitut pentru exercitarea propriei raționamente și diligență și trebuie să verifice acuratețea și fiabilitatea informațiilor pe care le primesc.



Citeşte mai mult:
Ai încredere în inteligența artificială pentru a-ți scrie știrile? Este deja – și nu fără probleme


În Australia, instanțele ar trebui să adopte note de practică sau reguli care stabilesc așteptările atunci când IA genetică este utilizată în litigii. Regulile instanței pot, de asemenea, să îndrume justițiabilii auto-reprezentați și să comunice publicului că instanțele noastre sunt la curent cu problema și o abordează.

Profesia juridică ar putea adopta, de asemenea, orientări formale pentru a promova utilizarea responsabilă a inteligenței artificiale de către avocați. Cel puțin, competența tehnologică ar trebui să fie o cerință a formării juridice continue pentru avocații din Australia.

Stabilirea unor cerințe clare pentru utilizarea responsabilă și etică a IA genetică de către avocații din Australia va încuraja adoptarea adecvată și va consolida încrederea publicului în avocații noștri, in instanțele noastre și în administrația generală a justiției din această țară.

Comments

No comments yet. Why don’t you start the discussion?

    Leave a Reply

    Your email address will not be published. Required fields are marked *