Immagine: Nacon Studio Milan

Un esperto di intelligenza artificiale sostiene che la lettera (pubblicata da Future Of Life Institute), firmato da Elon Musk e da più di 1.600 persone, sta seriamente sottovalutando la situazione. Eliezer Yudkowsky è un teorico delle decisioni che conduce ricerche presso il Machine Intelligence Research Institute e ha oltre vent’anni di esperienza nel settore. L’esperto di intelligenza artificiale sbatte la lettera in un articolo per Time Magazine affermando che una pausa di sei mesi nell’addestramento dell’IA è tristemente inadeguata in relazione a quanto tempo ci vorrà per studiare il comportamento dell’IA attuale.

Da Time:

“Il 7 febbraio, Satya Nadella, CEO di Microsoft, gongolava pubblicamente che il nuovo Bing avrebbe fatto”uscire allo scoperto e mostrare a Google che sanno ballare”.”Voglio che le persone sappiano che le abbiamo fatte ballare”, ha detto.

Non è così che parla il CEO di Microsoft in un mondo sano. Mostra un enorme divario tra quanto seriamente stiamo prendendo il problema e quanto seriamente dovevamo prendere il problema a partire da 30 anni fa.

Non lo supereremo divario in sei mesi.

Ci sono voluti più di 60 anni tra il momento in cui la nozione di Intelligenza Artificiale è stata proposta e studiata per la prima volta e il raggiungimento delle capacità odierne. Risolvere la sicurezza dell’intelligenza sovrumana-non sicurezza perfetta, sicurezza nel senso di”non uccidere letteralmente tutti”-potrebbe ragionevolmente richiedere almeno la metà del tempo.“

Non sei tu, sono io

La risposta di Eliezer chiarisce che l’IA non baserà la decisione di sradicare tutta la vita sulla terra sull’emozione, ma che”l’IA non ti ama, né ti odia, e tu sei fatto di atomi può essere utilizzato per qualcos’altro.“

L’esperto prosegue spiegando come coloro che sviluppano l’IA non abbiano alcun piano per l’allineamento dell’IA o intendano che future iterazioni dell’IA implementino il proprio allineamento dell’IA. Allineamento AI è un termine, per ai-alignment.com, che si riferisce all’allineamento dell’IA con l’intento di i suoi operatori.

“L’intenzione di OpenAI è apertamente dichiarata è fare in modo che un’IA futura faccia i compiti di allineamento dell’IA. Il solo sentire che questo è il piano dovrebbe essere sufficiente per far prendere dal panico qualsiasi persona ragionevole. L’altro importante laboratorio di intelligenza artificiale, DeepMind, non ha alcun piano.”

Lo stato di autoconsapevolezza per l’IA è motivo di grande preoccupazione, ma al momento non si sa veramente quanto tempo ci vorrà prima che un futuro, o attuale, la versione di AI lo raggiungerà. Eliezer ammette che GPT-4 probabilmente sta solo imitando i dati per produrre le proprie risposte, ma non sono state condotte ricerche sufficienti per vedere dove si sta dirigendo e critica ulteriormente l’ignoranza del suo sviluppatore al riguardo.

“Se questo è il nostro stato di cose ignoranza per GPT-4, e GPT-5 è la stessa dimensione del passo di capacità gigante da GPT-3 a GPT-4, penso che non saremo più in grado di dire giustificatamente”probabilmente non autocosciente”se lasciamo le persone fanno GPT-5. Sarà solo “Non lo so; nessuno sa.”Se non puoi essere sicuro se stai creando un’IA autocosciente, questo è allarmante non solo per le implicazioni morali della parte”autocosciente”, ma perché non essere sicuro significa che non hai idea di cosa stai facendo e questo è pericoloso e dovresti fermarti.”

Un po’di Skynet fa molta strada

L’esperto non si trattiene dal destino e dall’oscurità , e con buona ragione. Considerando una serie di casi allarmanti di snervanti risposte di chatbot, sia di recente con Bard di Google che con Bing recentemente migliorato, insieme alla famigerata svolta di Tay, il precedente tentativo di Microsoft di creare un Twitterbot nel 2016, ci sono molti esempi di buoni chatbot andati male. Dopotutto c’è una vecchia espressione, spazzatura dentro, spazzatura fuori.

“Non siamo preparati. Non siamo sulla buona strada per essere preparati in una finestra di tempo ragionevole. Non c’è nessun piano. I progressi nelle capacità dell’IA sono molto, molto più avanti dei progressi nell’allineamento dell’IA o persino dei progressi nella comprensione di cosa diavolo sta succedendo all’interno di quei sistemi. Se lo facciamo davvero, moriremo tutti.”

Alla fine l’esperto afferma che noi, il mondo intero, dobbiamo interrompere indefinitamente tutto l’addestramento dell’IA e studiare dove si trova già nel suo sviluppo. È necessario stipulare accordi internazionali per creare e applicare leggi che puniscono i trasgressori che continuano a creare farm di computer AI (ovvero cluster GPU). Ciò include il monitoraggio di tutte le GPU vendute e il monitoraggio del numero di un determinato paese e l’utilizzo di azioni militari per eliminarle quando viene identificato un trasgressore.

Unisciti alla discussione per questo post sui nostri forum…

Categories: IT Info