Não é segredo que, desde o seu lançamento, o ChatGPT tem cativado a atenção de entusiastas de tecnologia e líderes do setor com suas impressionantes habilidades de escrita de código e conversação. No entanto, embora esta nova revolução da IA ofereça possibilidades empolgantes para o futuro, a Europol, a agência de aplicação da lei da União Europeia, levantou preocupações sobre o possível uso indevido do chatbot de IA ChatGPT em crimes cibernéticos, desinformação e phishing.
“Como os recursos dos LLMs (modelos de linguagem grande), como o ChatGPT, estão sendo aprimorados ativamente, a potencial exploração desses tipos de sistemas de IA por criminosos oferece uma perspectiva sombria”, diz a Europol.
Uso do ChatGPT em phishing e cibercrime
De acordo com a agência, os cibercriminosos podem usar a capacidade do ChatGPT de produzir texto altamente realista para imitar o estilo de fala de indivíduos ou grupos específicos e atingir vítimas inocentes. Na verdade, os golpistas já estão usando IA como o ChatGPT para criar vídeos do YouTube infectados por malware, usando gravações de tela ou orientações de áudio com um avatar gerado por IA para descrever como baixar e instalar software crackeado.
Além disso, a capacidade do ChatGPT de produzir texto com som autêntico em escala também o torna ideal para propaganda e desinformação. Como os criminosos podem gerar e espalhar mensagens que refletem uma narrativa específica, enganando as pessoas e manipulando a opinião pública com relativamente pouco esforço. Além disso, a Europol também destaca o uso potencial do chatbot para gerar código malicioso, pois qualquer pessoa pode usar os recursos de geração e automação de linguagem do ChatGPT para gerar código malicioso e usá-lo em ataques cibernéticos.
Embora os benefícios da tecnologia AI sejam claro, é vital abordar os riscos potenciais associados ao seu uso indevido. O relatório da Europol destaca a necessidade de uma estrutura regulatória robusta que equilibre inovação e segurança, garantindo que a tecnologia que criamos beneficie a sociedade e evite seu uso malicioso. Além disso, empresas como a Microsoft e a OpenAI terão que implementar proteções para evitar o uso malicioso.