Non è un segreto che sin dal suo lancio, ChatGPT ha catturato l’attenzione degli appassionati di tecnologia e dei leader del settore con le sue impressionanti capacità di scrittura del codice e di conversazione. Tuttavia, mentre questa nuova rivoluzione dell’IA offrirà entusiasmanti possibilità per il futuro, Europol, l’agenzia di contrasto dell’Unione europea, ha ha sollevato preoccupazioni sul potenziale uso improprio del chatbot AI ChatGPT in criminalità informatica, disinformazione e phishing.
“Poiché le capacità di LLM (modelli di linguaggio di grandi dimensioni) come ChatGPT vengono attivamente migliorate, il potenziale sfruttamento di questi tipi di sistemi di intelligenza artificiale da parte dei criminali fornisce una prospettiva cupa”, afferma Europol.
L’uso di ChatGPT nel phishing e crimine informatico
Secondo l’agenzia, i criminali informatici possono utilizzare la capacità di ChatGPT di produrre testi altamente realistici per imitare lo stile di discorso di individui o gruppi specifici e prendere di mira vittime ignare. In effetti, i truffatori stanno già utilizzando l’intelligenza artificiale come ChatGPT per realizzare video di YouTube infetti da malware, utilizzando registrazioni dello schermo o passaggi audio con un avatar generato dall’intelligenza artificiale per descrivere come scaricare e installare software crackato.
Inoltre, la capacità di ChatGPT di sfornare testo dal suono autentico su larga scala lo rende ideale anche per la propaganda e disinformazione. Poiché i criminali potrebbero generare e diffondere messaggi che riflettono una specifica narrativa, fuorviando le persone e manipolando l’opinione pubblica con uno sforzo relativamente minimo. Inoltre, Europol sottolinea anche il potenziale utilizzo del chatbot per generare codice dannoso, in quanto chiunque potrebbe utilizzare la generazione del linguaggio e le capacità di automazione di ChatGPT per generare codice dannoso e utilizzarlo negli attacchi informatici.
Anche se i vantaggi della tecnologia AI sono chiaro, è fondamentale affrontare i potenziali rischi associati al suo uso improprio. Il rapporto di Europol sottolinea la necessità di un solido quadro normativo che bilanci innovazione e sicurezza, garantendo che la tecnologia che creiamo avvantaggi la società prevenendone l’uso dannoso. Inoltre, aziende come Microsoft e OpenAI dovranno mettere in atto misure di salvaguardia per prevenire l’uso dannoso.