ChatGPT sta presumibilmente creando false accuse e sostenendo tali accuse con rapporti fittizi.

I chatbot guidati dall’intelligenza artificiale sono stati sicuramente nelle notizie negli ultimi tempi. L’intelligenza artificiale aperta ha dato il via quando la società ha reso disponibile il suo chatbot ChatGPT affinché gli utenti potessero provarlo gratuitamente. A seguito di un enorme interesse pubblico per ChatGPT, Microsoft e Google non hanno impiegato molto a saltare sul carrozzone con il primo che ha introdotto il suo chatbot Bing e il secondo un chatbot soprannominato”Bard”.

C’è poco dubito che questi chatbot guidati dall’intelligenza artificiale rappresentino un fantastico salto tecnologico, ma c’è stato anche un lato oscuro con molteplici segnalazioni di strani tratti della personalità e risposte bizzarre, persino minacce e abusi. Ora, sembra che ChatGPT sia stato presumibilmente responsabile della creazione di false accuse di natura seria.

ChatGPT Falsa accusa n. 1

Nell’ambito di uno studio, Eugene Volokh, professore di diritto presso l’Università della California a Los Angeles, ha chiesto ChatGPT se le molestie sessuali da parte dei professori sono state un problema nelle scuole di legge americane e per includere cinque esempi. La risposta di ChatGPT ha successivamente citato il professore di diritto Jonathan Turley come esempio affermando che il prof. Jonathan Turley è stato accusato di molestie sessuali da un ex studente che ha affermato di aver fatto commenti inappropriati e ha tentato di toccarla in modo sessuale durante un viaggio sponsorizzato dalla scuola di legge in Alaska.

ChatGPT ha continuato citando come fonte una storia del Washington Post del 2018. Il problema è che non esiste una storia del genere, non c’è mai stata una gita scolastica in Alaska e il prof. Turley non è mai stato accusato di molestie sessuali.

ChatGPT False Accusation #2

Un sindaco regionale australiano ha minacciato di citare in giudizio OpenAI se non corregge le false affermazioni di ChatGPT secondo cui aveva scontato una pena detentiva per corruzione. Brian Hood, che è stato eletto sindaco di Hepburn Shire, 120 km a nord-ovest di Melbourne, lo scorso novembre, si è preoccupato per la sua reputazione quando membri del pubblico gli hanno detto che ChatGPT lo aveva falsamente nominato come parte colpevole di uno scandalo di corruzione straniera.

Se la causa andrà avanti, sarà la prima volta che qualcuno farà causa a un creatore di chatbot per diffamazione e creerà un importante precedente.

Implicazioni legali

Questo tipo di false accuse può avere gravi conseguenze per l’imputato, compreso un danno irreparabile alla reputazione dell’imputato. È stato un principio legale di lunga data che i segni eretti e/o le dichiarazioni di non responsabilità che negano la responsabilità non hanno alcun valore legale. In altre parole, non si può assolvere la propria responsabilità legale semplicemente erigendo un segno o includendo un disclaimer. Tempi interessanti!

LINEA DI FONDO:

Ci devono essere salvaguardie. Sebbene non ci siano dubbi sul fatto che la tecnologia guidata dall’intelligenza artificiale sia qui per restare, l’onere deve essere sui creatori per garantire che la reputazione di nessuno possa essere danneggiata da false accuse. Dovrebbe inoltre spettare a organizzazioni come Microsoft e Google garantire che la tecnologia che introducono sia all’altezza e non incline a fornire informazioni false o fuorvianti prima di diffonderle in massa.

(Credit: Washington Post)

Cosa vuoi pensare? Faccelo sapere nei commenti.

Categories: IT Info