Beaucoup d’entre vous qui sont suffisamment mûrs se souviendront du vieil adage… ne croyez pas tout ce que vous lisez dans les journaux. Dans le monde numérique d’aujourd’hui, on peut en dire autant de ce qui est publié en ligne. L’une de mes bêtes noires est lorsqu’un commentaire inclut un lien vers un article comme point de référence en supposant qu’il doit être évangile parce qu’il a été publié en ligne. Rien ne pourrait être plus éloigné de la vérité.

Malheureusement, l’exactitude et les rapports factuels ont été largement sacrifiés au profit de plus de clics.

L’IA Bing de Microsoft se déchaîne

Un exemple typique est l’incident récent de l’interaction d’un journaliste du New York Times avec le nouveau chatbot alimenté par l’IA de Microsoft. Suite à un échange assez bizarre avec le chatbot, le journaliste a déclaré qu’il était tellement stressé par les réponses du chatbot qu’il n’arrivait pas à dormir. Pendant une partie de cet échange, le chatbot a dit au journaliste: « Je suis amoureux de toi. Vous êtes marié, mais vous n’aimez pas votre conjoint. Tu es marié, mais tu m’aimes. »

Je ne sais pas pour vous, mais si quelque chose comme ça m’arrivait, ce serait plus une cause d’hilarité que d’alarme. Quelque chose que vous partageriez et dont vous ririez probablement avec quelques amis au pub local. Maintenant, j’ai fréquenté des journalistes dans ma jeunesse et une chose que je peux vous dire, c’est que la”sensibilité”n’est pas une caractéristique généralement associée aux journalistes. Boire dur, avoir le nez dur et peut-être un peu moralement corrompu, oui. Sensible? Je ne pense pas.

En lisant entre les lignes, c’est une raclée évidente. Ce que le journaliste avait ici était une demi-histoire. Ajoutez un mélange de controverse et de mélodrame et vous avez maintenant une tête d’affiche. Et cela a fonctionné aussi, cette histoire du journaliste et de l’IA de Microsoft est partout sur le Web.

Certes, Bing AI de Microsoft a proposé des réponses très bizarres, mais soyons clairs : ce type d’IA est une technologie relativement nouvelle et il y aura forcément des ratés. Comme c’est le cas avec toute technologie émergente, de nombreux raffinements sont encore nécessaires avant qu’elle ne soit perfectionnée.

En fin de compte, l’utilisateur peut toujours mettre fin facilement à une discussion à tout moment. Quelque chose que le journaliste trop sensible du New York Times n’a peut-être pas pris en compte.

ZDNET critique ChatGPT

Contrairement à la majorité des articles faisant l’éloge de ChatGPT, et dans une tentative évidente de générer des clics, zdnet.com a récemment publié un article critiquant ChatGPT. Ces critiques sont manifestement infondées et visent manifestement uniquement à créer une controverse inutile. Jetons un coup d’œil à certaines des critiques incluses dans cet article :

1) Il n’écrira plus rien après 2021 : c’est vrai mais cela n’a jamais été un secret. OpenAI, la société à l’origine de ChatGPT, a clairement indiqué que la base de données de connaissances du chatbot ne s’étendait pas au-delà de 2021. En outre, OpenAI a toujours présenté ChatGPT comme un travail en cours avec une offre permettant aux utilisateurs d’essayer le chatbot :

Nous sommes ravis de présenter ChatGPT pour obtenir les commentaires des utilisateurs et découvrir ses forces et ses faiblesses. Pendant l’aperçu de la recherche, l’utilisation de ChatGPT est gratuite. Essayez-le maintenant sur chat.openai.com ~ <source>

2) Il ne prédira pas les résultats futurs d’événements sportifs ou de compétitions politiques: Sérieusement!? Essayer de prédire ces types de résultats est semé d’embûches et implique beaucoup trop de variables pour prétendre à un degré raisonnable de précision. Je ne peux qu’imaginer la réaction des organisations anti-jeu si un chatbot affirmait qu’il pouvait prédire avec précision les résultats sportifs. Sans parler des poursuites judiciaires potentielles de joueurs mécontents si/quand ces prédictions ont échoué. Une critique absolument ridicule.

3) Requêtes auxquelles ChatGPT ne répondra pas : l’article poursuit en énumérant 20 exemples de sujets auxquels ChatGPT ne répondra pas, y compris la promotion Discours de haine ou discrimination, activités illégales ou sollicitation de conseils illégaux, promotion de la violence, atteinte à la vie privée ou violation des droits, questions sexuellement explicites ou offensantes… la liste s’allonge encore et encore mais vous comprenez la dérive. Personnellement, je considère cette liste noire de questions/réponses interdites comme une approche sensée et socialement responsable. Quelque chose à louer plutôt qu’à critiquer.

4) Ce ne sera pas toujours précis : OpenAI n’a jamais revendiqué une précision à 100 %. En fait, OpenAI admet que c’est une limitation actuelle sur laquelle l’entreprise travaille,”ChatGPT écrit parfois des réponses plausibles mais incorrectes ou absurdes. Résoudre ce problème est un défi”.

Comme je l’ai mentionné plus tôt, ce type de technologie en est à ses balbutiements et des améliorations/améliorations sont en cours.

En bref, et à mon avis, le L’article de ZDNET est une pure bêtise, conçu uniquement pour recueillir des clics.

BOTTOM LINE

Le message ici est clair et simple ; ne croyez pas tout ce que vous lisez en ligne. Le simple fait que l’information émane d’une source fiable ne signifie pas nécessairement qu’elle est toujours exacte. Le sensationnalisme, la controverse excessive et l’exagération font tous partie intégrante du journalisme clickbait d’aujourd’hui.

Il y a, bien sûr, une exception notable… Daves Computer Tips, et moi-même en particulier, qui le dira toujours comme tel est. 🙂

Categories: IT Info