No es ningún secreto que, desde su lanzamiento, ChatGPT ha cautivado la atención de los entusiastas de la tecnología y los líderes de la industria por igual con sus impresionantes habilidades de escritura de código y conversación. Sin embargo, aunque esta nueva revolución de la IA ofrecerá interesantes posibilidades para el futuro, Europol, la agencia encargada de hacer cumplir la ley de la Unión Europea, ha planteó preocupaciones sobre el posible uso indebido del chatbot de IA ChatGPT en delitos cibernéticos, desinformación y phishing.
“A medida que se mejoran activamente las capacidades de los LLM (modelos de lenguaje extenso) como ChatGPT, la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes ofrece una perspectiva sombría”, dice Europol.
Uso de ChatGPT en el phishing y ciberdelincuencia
Según la agencia, los ciberdelincuentes pueden usar la capacidad de ChatGPT para producir texto muy realista para imitar el estilo de habla de individuos o grupos específicos y apuntar a víctimas desprevenidas. De hecho, los estafadores ya están usando IA como ChatGPT para hacer videos de YouTube infectados con malware, usando grabaciones de pantalla o tutoriales de audio con un avatar generado por IA para describir cómo descargar e instalar software pirateado.
Además, la capacidad de ChatGPT para producir texto con sonido auténtico a escala también lo hace ideal para propaganda y desinformación. Como delincuentes, podrían generar y difundir mensajes que reflejen una narrativa específica, engañando a las personas y manipulando la opinión pública con relativamente poco esfuerzo. Además, Europol también destaca el uso potencial del chatbot para generar código malicioso, ya que cualquiera podría usar las capacidades de automatización y generación de lenguaje de ChatGPT para generar código malicioso y usarlo en ataques cibernéticos.
Si bien los beneficios de la tecnología AI son claro, es vital abordar los riesgos potenciales asociados con su mal uso. El informe de Europol subraya la necesidad de un marco regulatorio sólido que equilibre la innovación y la seguridad, asegurando que la tecnología que creamos beneficie a la sociedad y evite su uso malicioso. Además, empresas como Microsoft y OpenAI deberán implementar medidas de seguridad para evitar el uso malicioso.