El formato de debate de IA creado por OpenAI en los EE. UU. ha ganado interés a escala mundial. Microsoft, el principal inversor de la empresa, comenzó a evaluar los efectos del modelo GPT-4 en futuras personas de todas las edades. Ha demostrado un desempeño a nivel humano en una variedad de exámenes estándar académicos y profesionales. Esto incluye la capacidad de aprobar el examen de la barra simulada y ubicarse en el 10% superior. GPT-4 es un modelo multimodal a gran escala que puede producir palabras similares a las humanas.
Sin embargo, GPT-4 conlleva varios riesgos posibles que podrían dañar tanto a la sociedad como a las personas.. El fundador de Tesla, Elon Musk, solicitó una suspensión de seis meses en el desarrollo de sistemas más robustos que GPT-4 en una carta abierta. Musk no es el único que hace esta solicitud. Varios expertos en IA también están haciendo demandas similares. Creen que a este ritmo, se necesita un protocolo de seguridad externo y una evaluación de expertos. También enfatizaron el riesgo de agitación económica y política provocada por los sistemas avanzados de IA. Por lo tanto, instan a los desarrolladores a trabajar con los legisladores para crear organismos de políticas.
Musk, Wozniak y otros firman la carta de suspensión de GPT-4
Musk, el cofundador de Apple, Steve Wozniak, y el director ejecutivo de Stableility AI, Emad Mostaker, se encuentran entre los firmantes de la carta. La carta es de una ONG, Future of Life Institute. Hubo más de 1.000 firmantes. En parte, la carta dice
Noticias de la semana de Gizchina
“Solo se deben desarrollar sistemas de IA sólidos si estamos seguros de que los efectos son positivos y los riesgos son manejables”,
La agencia de policía de la UE, Europol, también expresó preocupaciones éticas y legales sobre Sistemas de IA como ChatGPT el lunes. Advierte que dichos sistemas pueden ser objeto de abuso para la suplantación de identidad, el fraude y los delitos cibernéticos. ChatGPT de OpenAI respaldado por Microsoft, que se lanzó el año pasado, ha inspirado a los rivales a obtener soluciones similares. Muchas marcas ahora usan el sistema o tecnología similar en sus productos y aplicaciones. Sin embargo, OpenAI afirma que está haciendo todo lo posible para garantizar que GPT-4 sea seguro. La empresa afirma que ha pasado seis meses trabajando en GPT-4 para lograr los mejores resultados en términos de estabilidad, resultados reales y alcance seguro.