Non è un segreto che gli sforzi di Microsoft per integrare ChatGPT nei suoi vari servizi siano stati senza dubbio una mossa strategica che ha permesso all’azienda di scavalcare i suoi concorrenti. Tuttavia, questa decisione non è stata priva di conseguenze, poiché il chatbot Bing AI presentava diversi problemi, tra cui un linguaggio manipolativo e risposte effettivamente errate. Ora, secondo un rapporto di The Wall Street Journal, sembra che OpenAI abbia avvertito Microsoft dei rischi legati all’incorporazione del GPT-4 inedito, ma la società ha comunque proceduto con il lancio.
Questo rapporto arriva dopo che molti utenti hanno iniziato a sperimentare comportamenti irregolari dal chatbot Bing AI subito dopo il suo lancio, inclusi incidenti del chatbot che facevano commenti offensivi, bugie, imbronciamento e persino gaslighting degli utenti. Di conseguenza, Microsoft ha dovuto mettere rapidamente in atto delle restrizioni, che hanno limitato la capacità del chatbot a pochi prompt per chat. E sebbene sia stato svolto un lavoro approfondito per ripristinare la stabilità del chatbot nel corso di diversi mesi, si verificano ancora occasionali casi di comportamento scorretto.
Richieste di regolamentazione
Sebbene Microsoft e OpenAI abbiano per lo più risolto i bug , questo incidente evidenzia l’importanza di un’attenta implementazione e test rigorosi prima di rilasciare servizi basati sull’intelligenza artificiale, poiché Microsoft avrebbe dovuto prestare attenzione agli avvertimenti di OpenAI in merito al rilascio prematuro. Inoltre, l’incidente evidenzia anche le complessità della partnership Microsoft-OpenAI, in cui coesistono collaborazione e concorrenza.
“Sentivo che OpenAI stava perseguendo la nostra stessa cosa. Quindi, invece di provare ad addestrare cinque diversi modelli di base, volevo un fondotinta, rendendolo una base per un effetto piattaforma. Quindi abbiamo collaborato. Loro scommettono su di noi, noi scommettiamo su di loro”, ha affermato Satya Nadella, CEO di Microsoft.
Tuttavia, questo è esattamente lo scenario che ha preoccupato i leader del settore e il governo. Questo perché le aziende in questa corsa per costruire i sistemi di intelligenza artificiale più avanzati spesso trascurano l’importanza di test approfonditi prima del rilascio dei prodotti. Pertanto, ora è più cruciale che mai stabilire misure rigorose per regolare questo dilagante sviluppo dell’IA.