Le National Cyber Security Center (NCSC) du Royaume-Uni alerte le public sur les dangers de ChatGPT. Ce modèle d’intelligence artificielle a gagné en popularité après son lancement il y a quelques mois. Après sa mise à la disposition du public, une tonne de personnes se sont rassemblées pour essayer ses capacités de différentes manières.
Certaines personnes ont demandé des recettes pour des plats spécifiques, des réponses à des questions d’affectation et d’autres questions aléatoires. La réponse de ce modèle d’intelligence artificielle à diverses questions qui lui ont été posées a étonné beaucoup de gens. Pour cette raison, plus de gens ont voulu essayer ChatGPT, augmentant ainsi sa popularité.
Maintenant, le système sur lequel ce modèle d’intelligence artificielle fonctionne a reçu une mise à niveau. Le système GPT-4 apporte des améliorations aux capacités de conversation de divers modèles d’intelligence artificielle qui en dépendent. Avec l’adoption croissante de ce modèle d’intelligence artificielle, y a-t-il des dangers qu’il représente pour la société ? Une mise à jour récente en met en évidence quelques-unes, examinons de près ces dangers.
Selon le National Cyber Security Center (NCSC), voici les dangers de ChatGPT
Le National Cyber Security Center (NCSC) du Royaume-Uni a alerté le public sur les dangers de ChatGPT. Ils l’ont fait avec un blog récent post sur leur site Web officiel, où ils se sont penchés sur ChatGPT et les grands modèles linguistiques (LLM).
Avec la popularité croissante de ces modèles d’intelligence artificielle, il est nécessaire de connaître le risque qu’ils pourrait poser. Eh bien, le National Cyber Security Center (NCSC) du Royaume-Uni a effectué des recherches pour aider à éclairer le public. À partir de leurs découvertes, les utilisateurs de ChatGPT et d’autres LLM apprendront quelles matières choisir avec ces modèles d’intelligence artificielle.
L’une des premières observations à prendre en compte avec les modèles d’intelligence artificielle est qu’ils pourraient être trompeur. Certaines informations qu’ils fournissent aux demandes des utilisateurs peuvent être erronées, biaisées, violentes, etc. Pour cette raison, les utilisateurs de ChatGPT et d’autres LLM doivent être conscients du contenu qu’ils consomment à partir de ces modèles d’intelligence artificielle.
Il est également nécessaire de faire attention au type d’informations que vous partagez avec ces plateformes. Le National Cyber Security Center (NCSC) déconseille de partager des informations sensibles avec ChatGPT ou d’autres LLM. Ces plateformes peuvent ne pas révéler les informations des utilisateurs, mais elles ont accès aux requêtes des utilisateurs et peuvent être piratées, révélant ainsi ces requêtes au public.
Pour cette raison, essayez de ne pas poser à ces plateformes des questions assez sensibles à votre vie personnelle ou professionnelle. Les dangers de ChatGPT et d’autres LLM englobent également la manière dont les cybercriminels et les mauvais acteurs peuvent l’utiliser. Ainsi, lorsque vous essayez de grands modèles de langage nouveaux ou existants, il est important de comprendre les risques qu’ils présentent.