La amenaza de extinción de la humanidad que plantea la IA está al mismo nivel que una pandemia o una guerra nuclear.
Esta advertencia proviene de un grupo de expertos, incluidos científicos, profesores y expertos en IA. luminarias tecnológicas, incluidos miembros de alto nivel de Google/Alphabet (y DeepMind), OpenAI (el creador de ChatGPT) y el CTO y director científico de Microsoft (uno de los mayores defensores de la IA en la actualidad, con Bing y ahora Copilot ).
También incluye un grupo de autores que han escrito libros de texto de referencia sobre IA y aprendizaje profundo, y un trío de ganadores del Premio Turing, además de muchos, muchos otros. Es un respaldo bastante pesado aquí.
La declaración, emitida oficialmente por el Centro para la Seguridad de la IA, es breve y sencilla:
“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Esta es la última de una serie de advertencias en los últimos tiempos, que presenta un caso sólido para el mundo de la tecnología. tener cuidado con los avances de la IA, en lugar de simplemente seguir adelante, con la cabeza gacha, a pesar de todo, lo que parece ser la tentación hasta el momento.
Google y Microsoft están absolutamente avanzando con sus respectivos Bard y Bing IA lo más rápido posible, con más preocupación por quedarse atrás del chatbot rival que por el impacto que este tipo de avance podría tener en la sociedad en general.
Por lo tanto, es particularmente interesante ver a ejecutivos destacados de esos firmas que firmen esta declaración, aunque una cosa es manifestar preocupación y otra hacer algo al respecto. (Algo que podría frenar su última y mayor esperanza de continuar dominando la búsqueda, o desafiar el dominio de Google en el caso de Microsoft, y la web en general).
La reacción en Twitter ha sido predeciblemente polarizada: esto es muy preocupante, o es alarmista y sembrador de miedo.
Aunque para ser justos, y a riesgo de decir lo que es muy obvio, mucho de lo que suceda se reducirá exactamente a cómo usamos la IA. En otras palabras, el peligro en sí no es la IA, sino cómo la moldeamos y la desarrollamos, y qué hacemos con ella.
Ciertamente, hay quienes argumentan que implementar medidas ahora para guiar el crecimiento de la IA es clave para el futuro, cuando están en juego encarnaciones mucho más sofisticadas, que alcanzan AGI o inteligencia general artificial. (Aunque la definición de AGI en sí misma es controvertida, como hemos explorado en otros lugares).
Para nosotros, aunque puede que no sea una amenaza existencial como tal, el tipo de IA que se está presentando ahora: Modelos de lenguaje grande (LLM)-ciertamente conlleva peligros y escollos con los que debemos tener mucho cuidado. Principalmente la amenaza para los puestos de trabajo, que definitivamente es real, en un mundo corporativo donde las ganancias y los accionistas son generalmente la principal preocupación, no los trabajadores, y también el efecto en el campo creativo (arte y música, y sí, también contenido escrito).