Un nombre croissant d’experts mettent en garde contre les risques que l’IA fait peser sur la société.
L’IA (Intelligence Artificielle) a certainement fait l’actualité ces derniers temps. Bien que les capacités et la portée de l’IA soient clairement incroyables, il y a eu pas mal de bosses sur la route. Des rapports faisant état de traits de comportement bizarres de chatbots alimentés par l’IA, et même d’insultes et de menaces, ont également fait surface. Maintenant, semble-t-il, le consensus parmi les experts est qu’une IA sans entraves et non réglementée pose un risque sérieux pour l’humanité.
Le”parrain de l’IA”regrette le travail de sa vie
Dr. Geoffrey Hinton, un informaticien renommé qui est largement crédité d’avoir jeté les bases de l’IA qui a finalement conduit à la création de chatbots populaires tels que ChatGPT et d’autres systèmes avancés, a récemment démissionné de son poste chez Google en disant qu’il est désormais capable de parler ouvertement de les risques d’un développement effréné de l’IA.
Dans une récente interview, le Dr Hinton a déclaré qu’il craignait que l’IA ne devienne plus dangereuse à l’avenir avec des”mauvais acteurs”exploitant potentiellement des systèmes avancés”pour de mauvaises choses”qui être difficile à prévenir. Le Dr Hinton a poursuivi en disant…”Je me console avec l’excuse normale : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait”~ <source>
Elon Musk demande des protocoles de sécurité pour l’IA
Elon Musk demande instamment une pause de six mois dans la formation de modèles d’intelligence artificielle avancés après la montée en puissance de ChatGPT, arguant que les systèmes pourraient poser”des risques profonds pour la société et l’humanité”. Musk a rejoint un groupe de plus d’un millier d’experts en signant une lettre ouverte appelant à un moratoire sur le développement de l’IA :
« Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA. Comme indiqué dans les principes d’Asilomar largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés » ~ <source>
Steve Wozniac exprime ses inquiétudes
Le célèbre cofondateur d’Apple, Steve Wozniak, fait également partie de ceux qui ont signé la lettre ouverte appelant à plus de surveillance du développement de l’IA. Dans une interview avec la BBC,”Woz”a exprimé ses inquiétudes quant au fait que la technologie pourrait être détournée et utilisée à des fins malveillantes si elle tombe entre de mauvaises mains. Il a soutenu qu’A.I. est maintenant si intelligent qu’il sera plus facile pour les”mauvais acteurs”de tromper les autres sur qui ils sont.
“Un humain doit vraiment assumer la responsabilité de ce qui est généré par l’IA. Nous ne pouvons pas arrêter la technologie, mais une réglementation est nécessaire pour tenir Big Tech responsable de ce que leurs outils d’intelligence artificielle sont capables de faire. Ces entreprises ont le sentiment qu’elles peuvent en quelque sorte s’en tirer avec n’importe quoi. ~ <source>
Vous l’avez lu en premier chez DCT !
Dans un article publié ici chez DCT plus tôt cette année, j’ai dit ce qui suit :
“Il doit y avoir des garanties. S’il ne fait aucun doute que la technologie basée sur l’IA est là pour rester, il incombe également à des organisations telles que Microsoft et Google de s’assurer que la technologie qu’elles introduisent est à la hauteur et n’a pas tendance à fournir des informations fausses ou trompeuses avant de se déchaîner. ça en masse“.
Oui, je me donne une tape dans le dos. 🙂
—