Al momento della stesura di questo articolo, OpenAI è nel bel mezzo di una battaglia legale. Un’azienda in California sostiene che OpenAI abbia violato la privacy dei suoi utenti durante l’addestramento del suo chatbot ChatGPT. A causa di questa affermazione e della quantità di dati raccolti dall’azienda per il suo chatbot, ciò potrebbe avere importanti implicazioni per OpenAI e altre società di intelligenza artificiale. La domanda è: OpenAI ha torto in questa situazione?

Di cosa tratta il caso?

Una volta che si guarda di cosa tratta questo caso, è facile capire il motivo gravità della situazione. Ora, l’IA è come un cervello umano; ha bisogno di essere addestrato. Ha bisogno di essere insegnato. Le aziende inseriscono tonnellate di dati nei loro LLM (Large Language Models) in modo che possano imparare. Più gli LLM sanno, più utili possono essere. Google è una delle principali società di intelligenza artificiale perché ha accesso a un miliardo di tonnellate di dati tramite Ricerca Google, Android, ecc.

Nel caso di ChatGPT, utilizza anche un LLM che deve essere addestrato ; e l’azienda lo ha addestrato utilizzando una tonnellata di dati. Il problema risiede in alcuni dei luoghi in cui ha ottenuto queste informazioni. La società ha utilizzato una pletora di dati da Internet. Ciò include una serie di dati che le persone hanno caricato senza dare il consenso per essere utilizzati da un chatbot AI.

Stiamo parlando di articoli, post di blog, racconti, sceneggiature, poesie, post sui social media, ecc. L’elenco potrebbe continuare all’infinito. Poiché la conoscenza di ChatGPT risale a così tanto tempo fa, non si può dire quanti dati delle persone siano stati utilizzati per addestrare ChatGPT. La causa afferma che queste informazioni sono state ottenute senza il consenso dell’autore originale.

Ecco perché OpenAI è in difficoltà. La vastità delle informazioni che OpenAI ha inserito in ChatGPT è gigantesca. Se il tribunale ritiene che la colpa sia dell’azienda, potrebbe significare cattive notizie per l’IA in generale.

Quindi, OpenAI ha torto?

È il selvaggio west là fuori per l’intelligenza artificiale, poiché i legislatori stanno ancora cercando di capire come regolarla. Mentre stanno combattendo con la legalità dell’IA, i Joe medi hanno a che fare con la sua moralità. OpenAI ha torto a utilizzare così tanti dati per addestrare ChatGPT?

Si potrebbe obiettare di sì.

Gran parte di questa argomentazione deriva dalla controversia con l’arte generata dall’IA. C’è una protesta in corso contro questa tecnologia perché offre alle persone la possibilità di creare istantaneamente immagini con nient’altro che parole. Proprio come con ChatGPT, i generatori di immagini AI devono essere alimentati con immagini artistiche di artisti umani. Molti artisti umani non vogliono che la loro arte venga utilizzata per addestrare questi bot di immagini.

Beh, pensa alle persone che utilizzano i loro contenuti scritti per addestrare ChatGPT. Proprio come i generatori di immagini possono far fallire gli artisti, i chatbot possono far fallire anche gli scrittori. I chatbot possono generare articoli, racconti, script, post di blog, ecc. in pochi secondi. Perché assumere e pagare uno scrittore umano quando puoi semplicemente generare i tuoi contenuti? Comprensibilmente, gli scrittori umani che hanno passato anni a sviluppare la loro arte non vorrebbero che i loro contenuti venissero usati per addestrare la stessa macchina che potrebbe metterli fuori dal loro lavoro.

Queste sono persone che hanno bisogno di farlo mettere il loro lavoro là fuori per guadagnarsi da vivere. I giornalisti pubblicano i loro articoli su siti Web pubblici, gli scrittori pubblicano post di blog per siti Web pubblici di aziende, ecc. Lo fanno per condividere la loro arte con i lettori e, si spera, ispirare altri scrittori. Non si sono iscritti per far sì che il loro lavoro venisse cancellato e utilizzato per addestrare chatbot di intelligenza artificiale.

Altri possono obiettare di no

Ci sono due lati di questa argomentazione. Quando artisti, scrittori e musicisti pubblicano il proprio lavoro online, corrono il rischio che venga utilizzato per altri scopi. Non è molto diverso dal fatto che i tuoi contenuti vengano rubati e plagiati. I creatori pubblicano i loro contenuti con la consapevolezza che potrebbero essere revocati e utilizzati per altri scopi.

La conversazione diventa ancora più complicata se il contenuto non è protetto da copyright. Se i tuoi contenuti sono disponibili gratuitamente su Internet affinché chiunque possa prenderli, OpenAI potrebbe avere il diritto di utilizzarli per addestrare ChatGPT.

Se OpenAI perde la causa, potrebbe essere una buona cosa

Quelli di voi che usano ChatGPT per scrivere i propri saggi e simili molto probabilmente fanno il tifo per OpenAI per vincere la causa. Tuttavia, se la società perde la causa, potrebbe non essere la cosa peggiore. Certo, OpenAI dovrà affrontare una perdita finanziaria, il che non è eccezionale per l’azienda. Tuttavia, se il tribunale vince questo caso, potrebbe aiutare a portare avanti la regolamentazione dell’IA.

Come affermato in precedenza, è il selvaggio west là fuori per la regolamentazione dell’IA. I legislatori si stanno dando da fare per frenare lo sviluppo dell’IA e assicurarsi che non abbia effetti negativi. Il diritto delle persone ai loro contenuti non è mai stato più in pericolo poiché i generatori di immagini AI e i chatbot AI stanno spuntando ovunque. I contenuti provenienti da tutto Internet vengono raccolti e utilizzati per questi LLM, e non c’è modo di fermarli.

Se OpenAI perde questo caso, porterà questo problema in primo piano. Farà parlare le persone di come questi LLM ottengono le loro informazioni. Le persone stanno piangendo per avere l’IA regolamentata a questo punto. Sta facendo perdere il lavoro alle persone. I creatori indipendenti vengono potenziati da persone senza talento che generano contenuti e li commercializzano. Qualcuno può facilmente creare una”canzone”generata dall’intelligenza artificiale e commercializzarla su Spotify. Immagina di tirare fuori un intero album in un giorno o una settimana e ricavarne entrate.

La stessa cosa vale per gli”artisti”e gli”autori”dell’IA. Potrebbe essere già troppo tardi per la maggior parte delle persone. Stiamo ancora imparando il potenziale della tecnologia di intelligenza artificiale generativa; questo include il potenziale dannoso.

Solo il tempo lo dirà

A questo punto, stiamo ancora aspettando i risultati del caso, quindi è difficile dire cosa accadrà. Dovremo aspettare e vedere come si sviluppa questo caso per conoscere il futuro della tecnologia. Un caso come questo potrebbe sicuramente avere importanti conseguenze per l’IA.

Categories: IT Info