Leader tecnologici mondiali ha chiesto una pausa negli esperimenti sull’IA per almeno sei mesi, insistendo sul fatto che la corsa all’IA è diventata”fuori controllo”.
Intelligenza artificiale è in rapida crescita e non mostra alcun segno di rallentamento. Forse poche persone potrebbero prevedere che un semplice chatbot AI conversazionale chiamato ChatGPT potrebbe rimodellare rapidamente l’intero settore tecnologico. Questa enorme crescita dell’IA, tuttavia, è ora diventata fonte di preoccupazione per i principali leader tecnologici. Ora chiedono una sospensione immediata dei sistemi di intelligenza artificiale più potenti di GPT-4.
La società madre di ChatGPT, OpenAI, ha recentemente presentato la sua versione più potente del chatbot di intelligenza artificiale, GPT-4. Microsoft sta cercando di incorporare GPT-4 nel suo motore di ricerca Bing e anche Google sta seguendo un percorso simile con Bard.
I leader tecnologici vogliono che gli esperimenti di intelligenza artificiale vengano interrotti per almeno sei mesi
Un lungo elenco di leader tecnologici ha firmato la petizione, ma Elon Musk e il co-fondatore di Apple Steve Wozniak sono tra i più importanti. Sostengono che incorporare l’intelligenza competitiva umana nell’IA può comportare gravi rischi per la società e l’umanità.
La lettera continua dicendo che i laboratori di intelligenza artificiale stanno costruendo menti digitali che persino i creatori riescono a malapena a comprendere, prevedere o controllare in modo affidabile. Di conseguenza, l’intelligenza artificiale può inondare i canali di informazioni con disinformazione.”I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi saranno gestibili”, afferma la lettera.
I firmatari affermano inoltre che la pausa di sei mesi negli esperimenti di intelligenza artificiale dovrebbe essere pubblico, verificabile e includa tutti gli attori chiave. Se questo fallisce, i governi devono agire e istituire una moratoria. Inoltre, i laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero intervenire per sviluppare protocolli di sicurezza per la progettazione avanzata di intelligenza artificiale.
Né OpenAI né Google né Microsoft hanno ancora risposto a questa lettera. Nel frattempo, James Grimmelmann, professore di diritto digitale e dell’informazione alla Cornell University, afferma:”Una pausa è una buona idea, ma la lettera è vaga e non prende sul serio i problemi normativi”. Grimmelmann ha anche definito”ipocrita”la firma di Elon Musk in quanto non era responsabile dell’IA difettosa nelle auto a guida autonoma di Tesla.