FCC interzice robocallers care folosesc clone de voce falsă – dar dezinformarea generată de inteligență artificială încă apare în alegeri

Comisia Federală de Comunicații din 8 februarie 2024, apeluri automate ilegale care folosesc voci generate de AI.

În 1991 Legea privind protecția consumatorilor de telefonie interzice vocile artificiale în apelurile automate. FCC Decizia din 8 februarie afirmă că vocile generate de AI, inclusiv clonele de voci umane reale, sunt artificiale și, prin urmare, interzise de lege.

Mișcarea urmează unui apel automat din 21 ianuarie 2024, care suna ca președintele Joe Biden. The apel avea vocea lui Biden îndemnând alegătorii care înclină spre Biden și Partidul Democrat să nu participe la primarul GOP din New Hampshire pe 23 ianuarie. Apelul subînțeles în mod fals că un democrat înregistrat ar putea vota în primarul republican și că un alegător care a votat în primar nu ar fi eligibil să voteze la alegerile generale din noiembrie.

Apelul, cu două zile înainte de primar, pare să fi fost făcut un deepfake al inteligenței artificiale. De asemenea, se pare că a fost o încercare de a descuraja votul.

FCC și biroul procurorului general din New Hampshire investighează apelul. La 6 februarie 2024, procurorul general din New Hampshire, John Formella a identificat două companii din TexasLife Corp. și Lingo Telecom, ca sursă și, respectiv, expeditor al apelului.

Infuzie de confuzie

Roboții în alegeri nu sunt nimic nou și nu ilegal; Multe sunt doar eforturi de a scoate la vot. Dar au fost folosite și în suprimarea alegătorilor campanii. Această problemă în acest caz exacerbează aplicarea inteligenței artificiale pentru a clona vocea lui Biden.

Într-un ecosistem media zgomotos, semnalele criptate precum apelurile automate deepfake fac aproape imposibil să distingeți faptele de falsuri.

Biroul procurorului general din New Hampshire investighează apelul.

Recent, mai multe companii au apărut online oferind uzurparea identității ca serviciu. Pentru utilizatori ca tine și mine, este la fel de ușor ca să selectezi un politician, o celebritate sau un director precum Joe Biden, Donald Trump sau Elon Musk dintr-un meniu și să tastezi un script cu ceea ce vrei să arate site-ul, creează deepfake. automat.

Deși ieșirea audio și video este de obicei agitată și deformată, atunci când sunetul este livrat prin apelare automată, este foarte credibil. Ai putea crede cu ușurință că asculți o înregistrare a lui Joe Biden, dar de fapt este o dezinformare automată.

Contextul este cheia

sunt un savant în mass-media și dezinformare. În 2019, un informator Parisul britanic şi eu a studiat modul în care apar rețelele competitive – ceea ce majoritatea oamenilor de astăzi consideră inteligență artificială – ar transforma modul în care instituțiile evaluează dovezile și iau decizii atunci când evaluează în mod realist manipularea audio și video. Ceea ce am descoperit a fost că niciun mediu nu este de încredere. Mai degrabă, contextul este important în realizarea unei interpretări.

Când vine vorba de dezinformarea îmbunătățită prin inteligență artificială, credibilitatea deepfake-urilor depinde de locul în care le vedeți sau auziți sau de cine le distribuie. Fără o sursă autorizată și confirmată care să garanteze că este un fapt, un deepfake poate fi interesant sau amuzant, dar nu va trece niciodată într-o sală de judecată. Cu toate acestea, deepfake-urile pot fi totuși dăunătoare atunci când sunt utilizate în eforturile de a suprima votul sau de a forma opinia publică cu privire la probleme de divizare.

Campaniile de dezinformare îmbunătățite prin inteligență artificială sunt greu de contracarat, deoarece dezvăluirea sursei necesită urmărirea metadatelor, care sunt datele despre o bucată de media. Modul în care se face acest lucru variază, în funcție de metoda de distribuție: apeluri automate, rețele sociale, e-mail, mesaje text sau site-uri web. În prezent, cercetarea manipulării audio și video este mai dificilă, deoarece multe companii mari de tehnologie au închis accesul la API-urile lor, care permit cercetătorilor să colecteze date despre rețelele sociale, iar companiile au au concediat echipele de încredere și securitate.

Cunoștințe locale, precise, în timp util

În multe feluri, dezinformarea îmbunătățită de AI, cum ar fi apelul automat din New Hampshire, creează aceleași probleme ca orice altă formă de dezinformare. Oamenii care folosesc inteligența artificială pentru a perturba alegerile sunt probabil să facă tot posibilul pentru a-și acoperi urmele, așa că este esențial ca publicul să rămână precaut cu privire la afirmațiile care nu provin din surse verificate, cum ar fi posturile locale de televiziune. organizații de știri reputate.

De asemenea, este important ca publicul să înțeleagă ce poate face noua tehnologie de manipulare audio și video. Acum, că tehnologia a devenit disponibilă pe scară largă și cu un an electoral crucial în față, apelul robot fals Biden este doar cel mai recent dintr-o serie de campanii de dezinformare îmbunătățite de AI, chiar dacă astfel de apeluri sunt acum în mod expres ilegale.

Cred că societatea trebuie să învețe să respecte ceea ce eu numesc DISCUȚIE: cunoștințe locale, exacte, oportune. Cred că este important să proiectăm sisteme de social media care să pună în valoare cunoștințele locale oportune, precise, în detrimentul întreruperii și fragmentării.

De asemenea, este important să le îngreunăm dezinformatorilor să profite din subminarea democrației. De exemplu, utilizarea rău intenționată a tehnologiei pentru a suprima prezența la vot ar trebui să fie investigată cu atenție de autoritățile federale și de stat.

În timp ce deepfake-urile pot lua oamenii prin surprindere, ele nu ar trebui să ne oprească, indiferent cât de lent este adevărul în comparație cu viteza dezinformarii.

Aceasta este o versiune actualizată a unui articol publicat inițial pe 23 ianuarie 2024.

Leave a comment