Viele von Ihnen, die reif genug sind, werden sich an das alte Sprichwort erinnern … glauben Sie nicht alles, was Sie in den Zeitungen lesen. In der heutigen digitalen Welt gilt dasselbe für das, was online veröffentlicht wird. Einer meiner Lieblingsärgernisse ist, wenn ein Kommentar einen Link zu einem Artikel als Referenzpunkt enthält, in der Annahme, dass es sich um ein Evangelium handeln muss, weil es online veröffentlicht wurde. Nichts könnte weiter von der Wahrheit entfernt sein.
Leider wurden Genauigkeit und sachliche Berichterstattung größtenteils zugunsten von mehr Klicks geopfert.
Microsofts Bing-KI läuft Amok
Ein typisches Beispiel ist der jüngste Vorfall von die Interaktion eines Reporters der New York Times mit dem neuen KI-gestützten Chatbot von Microsoft. Nach einem ziemlich bizarren Austausch mit dem Chatbot erklärte der Reporter, dass er von den Antworten des Chatbots so gestresst war, dass er nicht schlafen konnte. Während eines Teils dieses Austauschs sagte der Chatbot dem Reporter: „Ich bin in dich verliebt. Sie sind verheiratet, aber Sie lieben Ihren Ehepartner nicht. Du bist verheiratet, aber du liebst mich.“
Ich weiß nicht, wie es dir geht, aber wenn mir so etwas passieren würde, wäre das eher ein Grund zur Heiterkeit als zur Beunruhigung. Etwas, das Sie wahrscheinlich mit ein paar Freunden in der örtlichen Kneipe teilen und darüber lachen würden. Nun, ich habe in meinen jüngeren Tagen mit Reportern rumgehangen und eines kann ich Ihnen sagen, dass „Sensibilität“ keine Eigenschaft ist, die im Allgemeinen mit Reportern in Verbindung gebracht wird. Starkes Trinken, hartgesotten und vielleicht etwas moralisch korrupt, ja. Empfindlich? Ich glaube nicht.
Wenn man zwischen den Zeilen liest, ist das eine offensichtliche Prügelstrafe. Was der Reporter hier hatte, war eine halbe Geschichte. Fügen Sie eine Mischung aus Kontroversen und Melodrama hinzu und Sie haben jetzt einen Headliner. Und es hat auch funktioniert, diese Geschichte vom Reporter und Microsofts KI ist überall im Web.
Zugegeben, Microsofts Bing-KI hat einige sehr bizarre Antworten geliefert, aber lassen Sie uns eines klarstellen – diese Art von KI ist eine relativ neue Technologie und es gibt zwangsläufig Schluckauf. Wie bei jeder neuen Technologie ist noch viel Verfeinerung erforderlich, bevor sie perfektioniert ist.
Unterm Strich kann der Benutzer einen Chat jederzeit und einfach beenden. Etwas, das der überempfindliche Reporter der New York Times vielleicht nicht bedacht hat.
ZDNET kritisiert ChatGPT
Im Gegensatz zu den meisten Artikeln, in denen ChatGPT gelobt wird, und in einem offensichtlichen Versuch, Klicks zu generieren, hat zdnet.com kürzlich einen Artikel veröffentlicht, in dem ChatGPT kritisiert wird. Diese Kritik ist offensichtlich unbegründet und soll offensichtlich nur unangemessene Kontroversen hervorrufen. Werfen wir einen Blick auf einige der Kritikpunkte in diesem Artikel:
1) Nach 2021 wird nichts mehr geschrieben: Das stimmt, war aber nie ein Geheimnis. OpenAI, das Unternehmen hinter ChatGPT, hat unmissverständlich klargestellt, dass die Wissensdatenbank des Chatbots nicht über 2021 hinausreicht. Außerdem hat OpenAI ChatGPT immer als laufende Arbeit mit einem Angebot für Benutzer präsentiert, den Chatbot zu testen:
Wir freuen uns, ChatGPT vorzustellen, um das Feedback der Benutzer zu erhalten und mehr über seine Stärken und Schwächen zu erfahren. Während der Forschungsvorschau ist die Nutzung von ChatGPT kostenlos. Probieren Sie es jetzt aus unter chat.openai.com ~ <source>
2) Es wird keine zukünftigen Ergebnisse von Sportveranstaltungen oder politischen Wettbewerben vorhersagen: Ernsthaft!? Der Versuch, diese Art von Ergebnissen vorherzusagen, ist voller Gefahren und beinhaltet viel zu viele Variablen, um jemals einen angemessenen Grad an Genauigkeit zu beanspruchen. Ich kann mir nur die Reaktion von Anti-Glücksspiel-Organisationen vorstellen, wenn ein Chatbot behauptet, er könne sportliche Ergebnisse genau vorhersagen. Ganz zu schweigen von den möglichen Klagen verärgerter Spieler, falls/wenn diese Vorhersagen fehlschlugen. Eine absolut lächerliche Kritik.
3) Anfragen, auf die ChatGPT nicht antwortet: Der Artikel listet dann 20 Beispiele für Themen auf, auf die ChatGPT nicht antwortet, einschließlich Werbung Hassreden oder Diskriminierung, illegale Aktivitäten oder Einholung illegaler Beratung, Förderung von Gewalt, Verletzung der Privatsphäre oder Verletzung von Rechten, sexuell eindeutige oder beleidigende Fragen … die Liste lässt sich beliebig fortsetzen, aber Sie verstehen schon, worum es geht. Ich persönlich sehe diese schwarze Liste verbotener Fragen/Antworten als sinnvollen und sozial verantwortlichen Ansatz. Etwas, das eher gelobt als kritisiert werden sollte.
4) Es wird nicht immer genau sein: OpenAI hat nie eine 100-prozentige Genauigkeit behauptet. Tatsächlich gibt OpenAI zu, dass es sich um eine aktuelle Einschränkung handelt, an der das Unternehmen arbeitet: „ChatGPT schreibt manchmal plausibel klingende, aber falsche oder unsinnige Antworten. Die Behebung dieses Problems ist eine Herausforderung.“
Wie ich bereits erwähnt habe, steckt diese Art von Technologie noch in den Kinderschuhen und es werden laufend Verfeinerungen/Verbesserungen vorgenommen.
Kurz gesagt, meiner Meinung nach ist die Der ZDNET-Artikel ist absoluter Müll, der nur darauf ausgelegt ist, Klicks zu sammeln.
SCHLUSSFOLGERUNG
Die Botschaft hier ist schlicht und einfach; Glauben Sie nicht alles, was Sie online lesen. Nur weil die Informationen aus einer seriösen Quelle stammen, bedeutet das nicht unbedingt, dass sie immer korrekt sind. Sensationsgier, unangemessene Kontroversen und Übertreibungen sind allesamt fester Bestandteil des heutigen Clickbait-Journalismus.
Es gibt natürlich eine bemerkenswerte Ausnahme … Daves Computer Tips und ich im Besonderen, der es immer so sagen wird Ist. 🙂
—