Dal lancio di ChatGPT, c’è stata una preponderanza di chatbot AI come ChatGPT. Tuttavia, la diffusione di questi chatbot significa anche che i problemi stanno sorgendo. In verità, OpenAI ha sorpreso il mondo con la capacità di ChatGPT. Per questo motivo, ci sono state molte obiezioni al suo utilizzo e alcune prevedono anche battaglie legali. Tuttavia, negli Stati Uniti, la nazione d’origine di ChatGPT, la legge potrebbe semplicemente proteggere ChatGPT. L’articolo 230 del Communications Decency Act degli Stati Uniti emesso nel 1996 afferma che un’azienda non deve assumersi la responsabilità legale per i contenuti pubblicati da terze parti o utenti sulla sua piattaforma (articolo 230).
Tuttavia, la Corte Suprema degli Stati Uniti deciderà nei prossimi mesi se indebolire questa protezione. Ciò potrebbe anche avere un impatto sui chatbot AI come ChatGPT. I giudici dovrebbero decidere entro la fine di giugno se YouTube di proprietà di Alphabet può essere citato in giudizio per aver consigliato video agli utenti. Sebbene le piattaforme siano esenti da responsabilità per i video caricati dagli utenti, le protezioni della Sezione 230 si applicano ancora quando utilizzano algoritmi per consigliare contenuti agli utenti?
Tecnici ed esperti legali affermano che il caso ha implicazioni al di là delle piattaforme dei social media. Ritengono che il verdetto potrebbe innescare un nuovo dibattito sulla possibilità che aziende come OpenAI e Google, che sviluppano chatbot di intelligenza artificiale, possano essere immuni da rivendicazioni legali come diffamazione o violazione della privacy. Gli esperti sottolineano che ciò è dovuto al fatto che l’algoritmo utilizzato da ChatGPT e altri è simile al modo in cui consiglia i video agli utenti di YouTube.
Cosa fanno i chatbot AI?
I chatbot AI sono addestrati per generare grandi quantità di contenuti originali e la Sezione 230 si applica generalmente ai contenuti di terze parti. I tribunali devono ancora valutare se le risposte dei chatbot AI sarebbero protette. Un senatore democratico ha affermato che il diritto all’immunità non può essere applicato agli strumenti di intelligenza artificiale generativa perché tali strumenti”creano contenuti”. “La sezione 230 riguarda la protezione degli utenti e dei siti Web che ospitano e organizzano il discorso degli utenti. Non dovrebbe isolare le aziende dalle conseguenze delle proprie azioni e dei propri prodotti”, ha affermato.
L’industria tecnologica ha spinto per mantenere la Sezione 230. Alcune persone pensano che strumenti come ChatGPT siano come i motori di ricerca, che servono contenuti esistenti agli utenti in base alle query. “L’intelligenza artificiale non crea davvero nulla. Presenta semplicemente i contenuti esistenti in un modo diverso o in un formato diverso”, ha affermato Carl Szabo, vicepresidente e consigliere generale del gruppo commerciale dell’industria tecnologica, NetChoice.
Szabo ha affermato che se la Sezione 230 fosse indebolita, creerebbe un compito impossibile per gli sviluppatori di intelligenza artificiale. Ciò li esporrà anche a una marea di cause legali che potrebbero soffocare l’innovazione. Alcuni esperti ipotizzano che i tribunali possano assumere una posizione neutrale ed esaminare il contesto in cui i modelli di intelligenza artificiale generano risposte potenzialmente dannose.
Gizchina News of the week
I vantaggi dell’esenzione possono ancora essere applicati nei casi in cui il modello AI sembra essere in grado di spiegare le fonti esistenti. Ma è noto che chatbot come ChatGPT generano risposte false, che secondo gli esperti potrebbero non essere protette.
Hanny Farid, tecnologo e professore all’Univ. della California, Berkeley, ha affermato che è inverosimile pensare che gli sviluppatori di intelligenza artificiale debbano essere immuni da cause legali per i modelli che”programmano, addestrano e implementano”.
“Se le aziende possono essere ritenute responsabili in cause civili, prodotti più sicuri; se sono esenti, i prodotti tendono ad essere meno sicuri”, ha affermato Farid.
Problemi con strumenti di intelligenza artificiale come ChatGPT
I chatbot di intelligenza artificiale sono ora molto popolari nel mondo di oggi. Ciò è dovuto al fatto che forniscono un modo efficiente e conveniente per le persone di interagire. Questi chatbot sono in grado di elaborare il linguaggio naturale e fornire risposte pertinenti alle domande. Questo li rende uno strumento utile per il servizio clienti, le vendite e il supporto. Tuttavia, sono state sollevate preoccupazioni sulla sicurezza dell’utilizzo dei chatbot di intelligenza artificiale, soprattutto in termini di privacy e sicurezza.
Una delle principali preoccupazioni con i chatbot di intelligenza artificiale potrebbe essere una lacuna per violazioni dei dati e attacchi informatici. Poiché i chatbot richiedono spesso agli utenti di fornire informazioni personali come nome, indirizzo e dettagli di pagamento, esiste il rischio che queste informazioni possano essere rubate. Per ridurre questo rischio, le aziende devono garantire che i propri chatbot siano sicuri e utilizzino metodi di crittografia per proteggere i dati degli utenti.
Un altro problema con i chatbot basati sull’intelligenza artificiale è la possibilità che il sistema ceda ai pregiudizi. Poiché questi chatbot sono programmati da esseri umani, possono essere pregiudizi e stereotipi che esistono nella società. Ad esempio, un chatbot progettato per selezionare le persone in cerca di lavoro può discriminare determinati gruppi in base alla razza, al sesso o all’etnia. Per evitare ciò, gli sviluppatori di chatbot devono assicurarsi che i loro algoritmi siano quasi perfetti e senza pregiudizi.
Inoltre, c’è il rischio che i chatbot di intelligenza artificiale non siano in grado di gestire query complesse. Ciò include quelli che si collegano alla salute mentale o agli abusi domestici. In tali casi, gli utenti potrebbero non ricevere il supporto di cui hanno bisogno. Naturalmente, questa è una delle aree in cui le persone vogliono che questi chatbot siano responsabili. Se danno una risposta sbagliata in determinati scenari, il risultato potrebbe essere pessimo.
Parole finali
Nonostante queste preoccupazioni, i chatbot AI possono essere sicuri da usare se utilizzati correttamente. Alcune persone vogliono utilizzare i chatbot AI per sostituire medici e altri esperti. Questi non sono usi ideali di questo strumento. Da parte degli sviluppatori, devono evitare pregiudizi a tutti i costi e garantire che il sistema sia inclusivo. Inoltre, i chatbot non dovrebbero essere lasciati funzionare senza la presenza umana. Di volta in volta, dovrebbero essere controllati e aggiornati se necessario. Per garantire che siano sicuri da usare, gli sviluppatori devono affrontare le preoccupazioni relative alla sicurezza, alla privacy, ai pregiudizi e ai limiti dei chatbot. Con gli strumenti giusti, i chatbot AI possono semplificare la ricerca di informazioni. Potrebbe anche essere un valido assistente per molte persone che hanno bisogno di una sorta di aiuto con le informazioni.
Fonte/VIA: