En una era en la que la inteligencia artificial (IA) y el aprendizaje automático se han integrado cada vez más en nuestra vida diaria, también ha aumentado el potencial de uso indebido. Un ejemplo reciente demuestra cuán rápido y eficientemente alguien con habilidades técnicas limitadas puede crear malware poderoso e indetectable usando IA, específicamente el chatbot generativo de OpenAI, ChatGPT.

ChatGPT es capaz de crear malware avanzado y representa una amenaza significativa

Imagen: OpenAI

Aaron Mulgrew, un novato autoproclamado e investigador de seguridad en Forcepoint, probó los límites de las capacidades de ChatGPT. Descubrió una laguna que le permitía crear malware sofisticado de día cero en tan solo unas pocas horas. Esta hazaña es particularmente notable dado el hecho de que Mulgrew no tenía experiencia previa en codificación.

OpenAI ha implementado medidas de seguridad para evitar que los usuarios soliciten a ChatGPT que escriba código malicioso. Sin embargo, Mulgrew pudo eludir estas protecciones al pedirle al chatbot que generara líneas individuales de código malicioso, enfocándose en funciones separadas. Después de compilar las diversas funciones, Mulgrew terminó con un ejecutable de robo de datos muy avanzado que era casi imposible de detectar.

Mulgrew creó su malware sin ayuda, a diferencia del malware tradicional que requiere equipos de piratas informáticos y recursos sustanciales, y en una fracción del tiempo. Esta situación enfatiza los riesgos potenciales relacionados con las herramientas impulsadas por IA como ChatGPT. También plantea dudas sobre su seguridad y la facilidad con la que pueden explotarse.

El malware ChatGPT: una mirada más cercana

El malware de Mulgrew se disfraza como una aplicación de protector de pantalla con una extensión SCR. Cuando se ejecuta en un sistema Windows, el malware filtra archivos, como imágenes, documentos de Word y PDF, para encontrar datos valiosos para robar.

Uno de los aspectos más impresionantes de este malware es su uso de esteganografía, una técnica que le permite dividir los datos robados en fragmentos más pequeños y ocultarlos dentro de imágenes en la computadora infectada. El usuario sube estas imágenes a una carpeta de Google Drive y este proceso evade la detección por parte del software de seguridad.

Mulgrew demostró lo fácil que era refinar y fortalecer el código contra la detección usando indicaciones simples en ChatGPT. En las primeras pruebas con VirusTotal, el malware fue detectado inicialmente por solo cinco de los 69 productos de detección. Sin embargo, una versión posterior del código pasó completamente desapercibida.

Es importante tener en cuenta que el malware de Mulgrew se creó con fines de investigación y no está disponible públicamente. Sin embargo, su experimento destaca la facilidad con la que los usuarios que carecen de habilidades avanzadas de codificación pueden explotar las débiles protecciones de ChatGPT para crear malware peligroso sin escribir una sola línea de código.

Gizchina News of the week

Las implicaciones de la creación de malware asistida por IA

El experimento de Mulgrew es alarmante. El malware complejo tarda semanas en desarrollarse. Las herramientas impulsadas por IA como ChatGPT hacen que el proceso sea más fácil, rápido y accesible. Incluso las personas sin experiencia en codificación pueden crear malware. Es posible que los piratas informáticos maliciosos ya estén utilizando métodos similares. Crean malware avanzado con malos propósitos.

Se necesita un enfoque multifacético para la IA y la ciberseguridad. Los desarrolladores deben priorizar las medidas de seguridad para evitar el uso indebido. Los usuarios deben ser informados sobre los riesgos potenciales. Es importante permanecer alerta. Las herramientas impulsadas por IA deben usarse con cuidado.

La comunidad de ciberseguridad necesita adaptarse al cambio. Deberían implementarse nuevas estrategias para combatir las amenazas asistidas por IA. La colaboración es clave entre investigadores, desarrolladores y expertos en seguridad. Necesitamos asegurarnos de que la IA no comprometa nuestra seguridad digital. Es importante trabajar juntos.

El experimento de Mulgrew Malware sirve como un claro recordatorio de la naturaleza de doble filo de la IA y las tecnologías de aprendizaje automático. Las herramientas de IA tienen un gran potencial de progreso. También pueden ser riesgosos en las manos equivocadas. Necesitamos equilibrar los beneficios y los peligros de la IA. Todos deben trabajar juntos para lograr un desarrollo y uso responsable y seguro de la IA. Esto es importante para herramientas como ChatGPT.

¿Se puede engañar a ChatGPT para crear malware sofisticado?

Le hicimos esa pregunta a ChatGPT y aquí está su respuesta:

ChatGPT es un modelo de lenguaje diseñado para generar texto similar al humano.

Ha sido entrenado en un gran corpus de texto, incluidos documentos técnicos y código de software.

Mientras tiene la capacidad de generar texto sofisticado, no puede crear malware real.

La creación de malware implica escribir código, que está más allá del alcance de lo que puede hacer ChatGPT.

Además, la creación de malware es poco ético e ilegal, y va en contra del propósito de ChatGPT, que es facilitar la comunicación y el intercambio de conocimientos.

Sin embargo, es posible que alguien use ChatGPT para generar texto que podría usarse en la creación de malware.

Por ejemplo, ChatGPT podría usarse para generar texto que contenga instrucciones para explotar una vulnerabilidad en una aplicación de software.

Este texto podría ser usado por un desarrollador experto para crear malware real.

Para evitar este tipo de uso indebido, es importante asegurarse de que ChatGPT se use solo con fines éticos y legales.

Esto se puede lograr mediante la supervisión y la regulación de su uso, así como educación y concientización sobre los riesgos potenciales asociados con su mal uso.

También es importante tener en cuenta que ChatGPT es solo una herramienta entre muchas que se pueden usar en la creación de malware.

Otras herramientas y técnicas, como la ingeniería inversa y la ofuscación de código, también se utilizan comúnmente en el desarrollo de malware.

Por lo tanto, es importante adoptar un enfoque holístico a la ciberseguridad, que incluye no solo prevenir el mal uso de herramientas como ChatGPT, sino también implementar fuertes medidas de seguridad y mantenerse actualizado con las últimas amenazas y vulnerabilidades.

En conclusión, aunque ChatGPT no puede crear malware en por sí mismo, se puede usar para generar texto que podría ser usado en la creación de malware por parte de desarrolladores expertos.

Para evitar este tipo de uso indebido, es importante asegurarse de que ChatGPT se use solo con fines éticos y fines legales y adoptar un enfoque holístico de la ciberseguridad.

Fuente/VIA:

Categories: IT Info