Leaders technologiques mondiaux a appelé à une pause dans les expériences d’IA pendant au moins six mois, insistant sur le fait que la course à l’IA est devenue”hors de contrôle”.
Intelligence artificielle croît rapidement et ne montre aucun signe de ralentissement. Peut-être que peu de gens pourraient prédire qu’un simple chatbot d’IA conversationnel appelé ChatGPT pourrait remodeler rapidement l’ensemble de l’industrie technologique. Cependant, cette formidable croissance de l’IA est devenue une source de préoccupation pour les principaux leaders technologiques. Ils appellent maintenant à une pause immédiate des systèmes d’IA plus puissants que GPT-4.
La société mère de ChatGPT, OpenAI, a récemment dévoilé sa version la plus puissante du chatbot d’IA, GPT-4. Microsoft tente d’intégrer GPT-4 dans son moteur de recherche Bing, et Google suit également une voie similaire avec Bard.
Les leaders technologiques veulent que les expériences d’IA soient interrompues pendant au moins six mois
Une longue liste de leaders technologiques a signé la pétition, mais Elon Musk et le co-fondateur d’Apple Steve Wozniak sont parmi les plus importants. Ils soutiennent que l’intégration de l’intelligence compétitive humaine dans l’IA peut poser de graves risques pour la société et l’humanité.
La lettre poursuit en disant que les laboratoires d’IA construisent des esprits numériques que même les créateurs peuvent à peine comprendre, prédire ou contrôler de manière fiable. En conséquence, l’IA peut inonder les canaux d’information de désinformation.”Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables”, indique la lettre.
Les signataires affirment également que la pause de six mois dans les expériences d’IA devrait être publique, vérifiable et incluant tous les acteurs clés. Si cela échoue, les gouvernements doivent agir et instituer un moratoire. De plus, des laboratoires d’IA et des experts indépendants devraient intervenir pour développer des protocoles de sécurité pour la conception d’IA avancée.
Ni OpenAI, ni Google, ni Microsoft n’ont encore répondu à cette lettre. Pendant ce temps, James Grimmelmann, professeur de droit numérique et de l’information à l’Université Cornell, a déclaré:”Une pause est une bonne idée, mais la lettre est vague et ne prend pas au sérieux les problèmes de réglementation.”Grimmelmann a également qualifié la signature d’Elon Musk d'”hypocrite”, car il n’était pas responsable de l’IA défectueuse des voitures autonomes Tesla.