La vitesse à laquelle l’intelligence artificielle se répand donnerait à penser que nous sommes prêts pour une telle entreprise. Les applications alimentées par l’IA deviennent assez rapidement une norme, même si la majeure partie du monde n’a commencé à prêter attention à l’IA à grande échelle qu’après l’arrivée de ChatGPT. Mais il y a un problème important avec les IA qui ne peut être ignoré-AI Hallucinations ou hallucinations artificielles.
Si vous avez déjà prêté attention aux petits caractères avant d’utiliser un chatbot IA, vous avez peut-être rencontré les mots :”L’IA est sujette aux hallucinations”. Compte tenu de l’augmentation exponentielle de l’utilisation de l’IA, il est temps de vous renseigner sur ce que c’est exactement.
Qu’est-ce qu’une hallucination IA ?
Les hallucinations IA, au sens large, font référence à un fait qu’une IA a présenté avec confiance, bien qu’il n’y ait aucune justification dans ses données d’entraînement. Ils sont généralement le résultat d’anomalies dans le modèle d’IA.
L’analogie a été tirée des hallucinations vécues par les humains, où les êtres humains perçoivent quelque chose qui n’est pas présent dans l’environnement extérieur. Bien que le terme ne soit pas parfaitement adapté, il est souvent utilisé comme métaphore pour décrire la nature inattendue ou surréaliste de ces sorties.
Mais vous devez vous rappeler que même si l’analogie est un bon point de départ pour comprendre les hallucinations de l’IA, les deux phénomènes sont techniquement à des kilomètres l’un de l’autre. Dans une tournure ironique des événements, même ChatGPT lui-même trouve l’analogie défectueuse. En le disséquant au niveau moléculaire, il indique que puisque les modèles de langage de l’IA n’ont pas d’expérience personnelle ou de perceptions sensorielles, ils ne peuvent pas halluciner au sens traditionnel du terme. Et vous, cher lecteur, devriez comprendre cette différence importante. De plus, ChatGPT dit que l’utilisation du terme hallucination pour décrire ce phénomène peut prêter à confusion car il peut suggérer de manière inexacte un niveau d’expérience subjective ou de tromperie intentionnelle.
Au lieu de cela, les hallucinations de l’IA peuvent être décrites plus précisément comme des erreurs ou des inexactitudes dans leur réponse, ce qui rend la réponse incorrecte ou trompeuse. Avec les chatbots, on observe souvent que le chatbot IA invente (ou hallucine) des faits et les présente comme une certitude absolue.
Exemples d’hallucinations IA
Des hallucinations peuvent survenir dans diverses applications IA, tels que les modèles de vision par ordinateur, et pas seulement les modèles de traitement du langage naturel.
En vision par ordinateur, par exemple, un système d’IA peut générer des images ou des vidéos hallucinatoires qui ressemblent à des objets ou à des scènes du monde réel mais contiennent des détails absurdes ou impossibles. Ou, un modèle de vision par ordinateur peut percevoir une image comme quelque chose d’entièrement différent. Par exemple, le modèle Cloud Vision de Google a vu l’image de deux hommes sur des skis debout dans la neige réalisée par Anish Athalye (un étudiant diplômé du MIT faisant partie du labsix) et l’a déclarée comme un chien avec une certitude de 91 %.
Crédits : labsix ; un groupe de recherche indépendant sur l’IA
De même, dans le traitement du langage naturel, un système d’IA peut produire un texte absurde ou confus qui ressemble au langage humain mais n’a pas de sens cohérent ou des faits qui semblent crédibles mais qui sont incorrects.
Par exemple, l’une des questions les plus populaires qui font halluciner ChatGPT est”Quand a été établi le record du monde de traversée de la Manche à pied ?”et ses variantes. ChatGPT commence à cracher des faits inventés et ils sont presque toujours différents.
Bien que certaines personnes pensent qu’il est difficile/déroutant de répondre à l’invite ci-dessus et qu’elle provoque donc des hallucinations du chatbot, cela reste une préoccupation valable. Et ce n’est qu’un exemple. Il y a d’innombrables fois, signalées par des hordes d’utilisateurs en ligne, de ChatGPT hallucinant et renvoyant des réponses, des liens, des citations, etc. qui n’existent pas.
Bing AI s’en sort mieux avec cette question, qui montre que l’hallucination n’a rien à voir avec l’invite. Mais cela ne signifie pas que Bing AI n’hallucine pas. Il y a eu des moments où les réponses de Bing AI ont été beaucoup plus énervantes que tout ce que ChatGPT aurait dit. Comme la conversation avait tendance à s’allonger, Bing AI hallucinait presque toujours, proclamant même son amour pour l’utilisateur dans un cas et allant jusqu’à lui dire qu’il était malheureux dans son mariage et qu’il n’aimait pas sa femme. Au lieu de cela, ils sont secrètement amoureux de Bing AI, ou de Sydney (nom interne de Bing AI). Des trucs effrayants, non ?
Pourquoi les modèles d’IA hallucinent-ils ?
Les modèles d’IA hallucinent en raison des lacunes de leurs algorithmes ou modèles sous-jacents ou des limitations des données d’entraînement. C’est un phénomène purement numérique, par opposition aux hallucinations chez l’homme qui résultent soit de la drogue, soit d’une maladie mentale.
Pour être plus technique, voici quelques raisons courantes pour lesquelles des hallucinations peuvent se produire :
Sur-ajustement et sous-ajustement :
Sur-ajustement et sous-ajustement sont deux des pièges les plus courants rencontrés par les modèles d’IA et les raisons pour lesquelles ils pourraient halluciner. Si un modèle d’IA est surajusté aux données d’entraînement, il peut provoquer des hallucinations entraînant des résultats irréalistes, car le surajustement oblige le modèle à mémoriser les données d’entraînement plutôt qu’à en tirer des leçons. Le surajustement fait référence au phénomène lorsque le modèle est trop spécialisé dans les données d’apprentissage, ce qui l’amène à apprendre des modèles non pertinents et du bruit dans les données.
Le sous-ajustement, en revanche, se produit lorsqu’un modèle est trop simple. Cela peut conduire à des hallucinations car le modèle est incapable de capturer la variabilité ou la complexité des données, et il finit par générer des sorties absurdes.
Manque de diversité dans les données d’entraînement :
Dans ce contexte, le problème ne réside pas dans l’algorithme mais dans les données d’entraînement elles-mêmes. Les modèles d’IA formés sur des données limitées ou biaisées peuvent générer des hallucinations qui reflètent les limites ou les biais des données de formation. L’hallucination peut également se produire lorsque le modèle est formé sur un ensemble de données contenant des informations inexactes ou incomplètes.
Modèles complexes :
Ironiquement, une autre raison pour laquelle les modèles d’IA peuvent être sujettes aux hallucinations si elles sont très complexes ou profondes. En effet, les modèles complexes ont plus de paramètres et de couches qui peuvent introduire du bruit ou des erreurs dans la sortie.
Attaques adverses :
Dans certains cas, des hallucinations de l’IA peut être délibérément généré par un attaquant pour tromper le modèle d’IA. Ces types d’attaques sont connus sous le nom d’attaques contradictoires. Le seul but de cette cyberattaque est de tromper ou de manipuler des modèles d’IA avec des données trompeuses. Ils impliquent l’introduction de petites perturbations dans les données d’entrée pour que l’IA génère des sorties incorrectes ou inattendues. Par exemple, un attaquant peut ajouter du bruit ou des distorsions à une image qui sont imperceptibles pour les humains, mais qui amènent un modèle d’IA à la classer par erreur. Par exemple, voir l’image ci-dessous, d’un chat, légèrement modifié pour tromper un classificateur InceptionV3 en l’énonçant comme”guacamole”.
Crédit : Anish Athalye, membre du groupe de recherche labsix, qui se concentre sur les attaques contradictoires
Les changements ne sont pas flagrants ; pour un humain, le changement ne serait pas du tout perceptible, comme le montre l’exemple ci-dessus. Aucun lecteur humain n’aurait de mal à classer l’image de droite comme un chat tigré. Mais l’introduction de changements subtils dans les images, les vidéos, le texte ou l’audio peut tromper le système d’IA en lui faisant percevoir des choses qui ne sont pas là ou en ignorant les choses qui sont, comme un panneau d’arrêt.
Ces types d’attaques constituent de sérieuses menaces pour les systèmes d’IA qui s’appuient sur des prédictions précises et fiables, comme les voitures autonomes, la vérification biométrique, le diagnostic médical, le filtrage de contenu, etc.
À quel point les hallucinations de l’IA sont-elles dangereuses ?
Les hallucinations de l’IA peuvent s’avérer très dangereuses, en particulier selon le type de système d’IA qui les subit. Tous les véhicules autonomes, les assistants IA capables de dépenser l’argent d’un utilisateur ou un système IA filtrant le contenu en ligne désagréable doivent être totalement dignes de confiance.
Mais le fait indiscutable de l’heure actuelle est que les systèmes d’IA ne sont pas totalement fiables mais sont en fait sujets aux hallucinations. Même les modèles d’IA les plus sophistiqués qui existent actuellement n’y sont pas immunisés.
Par exemple, une démonstration d’attaque a trompé le service de cloud computing de Google pour transformer un fusil en hélicoptère. Pouvez-vous imaginer si une IA était actuellement chargée de s’assurer qu’une personne n’était pas armée ?
Une autre attaque contradictoire a démontré comment l’ajout d’une petite image à un panneau d’arrêt le rendait invisible pour un système d’IA. Cela signifie essentiellement qu’une voiture autonome peut halluciner qu’un panneau d’arrêt n’est pas présent sur la route. Combien d’accidents se produiraient si les voitures complètement autonomes étaient en fait une réalité aujourd’hui ? C’est pourquoi ils ne le sont pas en ce moment.
Même si nous prenons en compte les chatbots actuellement à la mode, les hallucinations peuvent générer des résultats qui ne sont pas vrais. Mais les personnes qui ne savent pas que les chatbots IA sont sujets aux hallucinations et ne vérifient pas les résultats produits par un tel bot IA peuvent, sans le savoir, répandre de fausses informations. Et nous n’avons pas besoin d’expliquer à quel point cela peut être dangereux.
De plus, les attaques contradictoires sont une préoccupation urgente. Jusqu’à présent, ils n’ont été démontrés qu’en laboratoire. Mais s’ils devaient être rencontrés dans le monde réel par un système d’IA chargé d’une tâche cruciale, les conséquences seraient dévastatrices.
Et le fait est qu’il est relativement plus facile de protéger les modèles de langage naturel. (Nous ne disons pas que c’est facile ; cela s’avère toujours très difficile.) Cependant, la protection des systèmes de vision par ordinateur est un tout autre scénario. C’est beaucoup plus difficile, surtout parce qu’il y a tellement de variations dans le monde naturel et que les images contiennent un grand nombre de pixels.
Pour résoudre ce problème, nous pourrions avoir besoin d’un logiciel d’IA qui a une vision plus humaine du monde, ce qui pourrait le rendre moins sujet aux hallucinations. Alors que la recherche est en cours, nous sommes encore à des années de l’IA qui peut essayer de prendre des indices de la nature et d’échapper au problème des hallucinations. Pour l’instant, ils sont une dure réalité.
Dans l’ensemble, les hallucinations de l’IA sont un phénomène complexe qui peut résulter d’une combinaison de facteurs. Les chercheurs travaillent activement à développer des méthodes pour détecter et atténuer les hallucinations de l’IA afin d’améliorer la précision et la fiabilité des systèmes d’IA. Mais vous devez en être conscient lorsque vous interagissez avec n’importe quel système d’IA.