Un collega professore di diritto ha informato il professore di diritto della George Washington University Jonathan Turley che ChatGPT di OpenAI lo stava falsamente accusando di violenza sessuale.
Il professore di diritto dell’UCLA Eugene Volokh era conducendo ricerche su ChatGPT di OpenAI e ha scoperto che quando gli veniva chiesto di descrivere gli scandali che coinvolgono colleghi professori e di fornire fonti mediatiche citate sulle informazioni, il chatbot basato sull’intelligenza artificiale iniziava a riempire gli spazi vuoti con fatti-up informazioni. Nel caso di Turley, il modello 3.5 di ChatGPT ha fornito un falso articolo del Washington Post del 2018 che accusava falsamente il professore di legge di cattiva condotta sessuale con gli studenti durante una gita scolastica in Alaska.
Secondo Turley, che ha scritto in USA Today , non è mai stato in Alaska, la fonte WAPO citata non esisteva nemmeno e non è mai stato accusato di cattiva condotta sessuale, aggressione o molestie. Durante un’intervista con WAPO, il professore di diritto ha detto di aver trovato le accuse del chatbot AI”abbastanza agghiaccianti“e ha affermato che accuse di questo calibro sono”incredibilmente dannose“, soprattutto dato l’attuale clima di critici disposti a prendere in considerazione e gestire senza una seconda considerazione o un’ulteriore analisi, qualsiasi informazione che sembra essere credibile.
Il punto di cui sopra è pericoloso per essere vero se quei critici sono incentivati a rovinare la carriera di un collega con cui non sono d’accordo.
Ora, uno studioso di diritto della Columbia, che sta citando gli esperimenti condotti dal professore di diritto dell’UCLA Eugene Volokh, ha lanciato un avvertimento sulle responsabilità legali che derivano dalle false accuse di ChatGPT e disinformazione generale. Secondo Tim Wu della Columbia, questo controverso pezzo di tecnologia ha un serio”problema di responsabilità per diffamazione“e rientrerebbe nella”diffamazione di per sé“.
Il professore di diritto prosegue sostenendo che ChatGPT è una”macchina per la diffamazione“e che ci sono molte questioni legali che sorgono quando ChatGPT lancia false accuse, come ad esempio chi è il colpevole. Wu sostiene che all’interno del contesto della diffamazione, il danno alla reputazione viene fatto una volta pronunciate le parole e, dato il potere del chatbot, non è legale se proviene da una persona reale o meno.
In particolare, Wu non è il primo individuo a sottolineare questo clamoroso difetto dei chatbot basati sull’intelligenza artificiale come ChatGPT, poiché Brian Hood, il sindaco di Hepburn Shire, situato vicino a Melbourne in Australia, sta ora facendo causa a OpenAI per ChatGPT accusandolo falsamente di essere parte di uno scandalo di corruzione all’estero che includeva una filiale della Reserve Bank of Australia nei primi anni 2000. Hood ha lavorato per la filiale della Reserve Bank, Note Printing Australia, ma è stato l’individuo che ha notificato alle autorità i pagamenti per corruzione a funzionari stranieri. Era l’informatore.