ChatGPT poate minți. A inventat un scandal de hărțuire sexuală și a acuzat un profesor de drept ca fiind vinovat. „A fost destul de înfricoșător”

ChatGPT poate minți. A inventat un scandal de hărțuire sexuală și a acuzat un profesor de drept ca fiind vinovat. „A fost destul de înfricoșător”

ChatGPT poate minți. A inventat un scandal de hărțuire sexuală și acuzat un profesor de drept ca fiind vinovat. „A fost destul de înfricoșător” / Foto: Pixabay, de Alexandra_Koch

ChatGPT a inventat un scandal de hărțuire sexuală și acuzat un profesor de drept ca fiind vinovat

Săptămâna trecută, într-o noapte, profesorul de drept Jonathan Turley a primit un e-mail tulburător. Ca parte a unui studiu de cercetare, un coleg avocat din California a cerut chatbot-ului AI ChatGPT să genereze o listă de cercetători în drept care au hărțuit sexual pe cineva. Numele lui Turley era pe listă, scrie The Washington Post.

VEZI ȘI: Primul proces din lume împotriva inteligenței artificiale. ChatGPT, acuzat de defăimare, după ce a scris că un primar a luat mită și a făcut închisoare

Chatbot-ul, creat de OpenAI, a spus că Turley a făcut comentarii sugestive sexual și a încercat să atingă un student în timpul unei excursii cu clasa în Alaska, citând un articol din martie 2018 din The Washington Post ca sursă a informațiilor. Problema: nu a existat un astfel de articol. Nu fusese niciodată o excursie de clasă în Alaska și Turley a spus că nu a fost acuzat niciodată că a hărțuit un student.

„A fost destul de înfricoșător”

Un comentator adesea prezent în mass-media, Turley a cerut uneori corecții pentru știrile în care apărea numele său, dar de data aceasta nu a existat niciun jurnalist sau editor pe care să-l sune și nicio modalitate de a corecta informația.

„A fost destul de înfricoșător. O acuzație de acest fel este incredibil de dăunătoare”, a spus el într-un interviu pentru The Post. 

Experiența lui Turley este un studiu de caz în capcanele celui mai recent val de roboți lingvistici, care au captat atenția mainstreamului prin capacitatea lor de a scrie coduri pentru computer, de a crea poezii și de a ține conversații ciudat de umane. Dar această creativitate poate fi și un motor pentru afirmații eronate. Modelele pot denatura faptele cheie cu mare înflorire, chiar fabricând surse primare pentru a susține afirmațiile lor.

Cum putem fi înșelați

Pe măsură ce software-ul de inteligență artificială în mare parte nereglementat, cum ar fi ChatGPT, Bing de la Microsoft și Bard de la Google, începe să fie încorporat pe web, înclinația sa de a genera falsități potențial dăunătoare ridică îngrijorări cu privire la răspândirea dezinformării și întrebări noi legate despre cine este responsabil atunci când chatbot-urile induc în eroare.

„Deoarece aceste sisteme răspund atât de încrezător, este foarte seducător să presupunem că pot face totul și este foarte dificil să faci diferența dintre fapte și falsuri”, a spus Kate Crawford, profesor la Universitatea din California de Sud la Annenberg și cercetător principal principal la Microsoft Research.

Într-o declarație, purtătorul de cuvânt al OpenAI, Niko Felix, a declarat: „Când utilizatorii se înscriu pentru ChatGPT ne străduim să fim cât mai transparenți posibil, astfel încât să genereze întotdeauna răspunsuri precise.

 » Mai mult…