Der Kampf um künstliche Intelligenz führte zur Geburt von Googles Bard AI-Chatbot, einem Rivalen des Bing ChatGPT-Chatbots. Aber einige Mitarbeiter bei Google halten anscheinend nicht viel von Bard, wie es ihre Arbeitgeber wollen. Was genau kann der Grund für die Ablehnung sein, die Bard von seinen Leuten bekommt?
Nun, viele mögen argumentieren, dass in den Berichten wird nur eine unbedeutende Anzahl von Google-Mitarbeitern genannt. Einige Leute, die diese Liste derjenigen bilden, die gegen Bard treten, sind ehemalige Google-Mitarbeiter. Aber unabhängig von der Größe der Opposition ist es ratsam, den Grund für ihre Abneigung zu berücksichtigen.
Es läuft auf die Fähigkeiten des Bard-KI-Chatbots hinaus, wenn er von Menschen eingesetzt wird. Die skizzierten Probleme sind auch bei Bards größtem Konkurrenten, dem Bing-KI-Chatbot, der Fall. Komischerweise haben die Mitarbeiter von Google diese KI-Plattform als „schlimmer als nutzlos“ bezeichnet. Dies klingt von Googlern etwas zu hart und lenkt daher mehr Aufmerksamkeit auf die Leistung von Bard.
Die irreführenden Antworten des KI-Chatbots Bard von Google haben ihn von seinen Machern intensiv unter die Lupe genommen
In den letzten Monaten hat Microsoft Schlagzeilen gemacht als Ergebnis der Integration von ChatGPT in seinen Browser. Dies brachte den KI-Chatbot in Bing und Skype, aber die Benutzer konnten einige Fehler erkennen. Diese Fehler sind darauf zurückzuführen, dass der Bing-KI-Chatbot die Grenzen einer Konversation nicht kennt, Benutzer bedroht und Informationen verfälscht.
Kurz nachdem Microsoft die Integration von ChatGPT in Bing angekündigt hatte, bereitete Google bereits die Ankündigung vor der Chatbot Bard AI. Nun, es sieht so aus, als ob Google-Mitarbeiter auf erkennbare Mängel im KI-Chatbot hinweisen, nachdem dieser eingeführt wurde.
Diese Mängel sind denen ziemlich ähnlich, die beim ChatGPT-Chatbot ans Licht kamen. Bard gibt Benutzern jetzt falsche Informationen und gefährliche Ratschläge, wodurch die Sicherheit der Benutzer gefährdet wird. Die Eile von Google könnte die Hauptursache für diese Probleme sein, auf die ihre Mitarbeiter in Bards Nutzung hinweisen.
Berichten zufolge hatte das interne Sicherheitsteam empfohlen, den Chatbot nicht zu starten. Stattdessen werden diese Fehler behoben, um die Einführung eines stabileren und benutzerfreundlicheren Produkts zu fördern. Jetzt muss sich Google auf die Behebung dieser Probleme konzentrieren, um sicherzustellen, dass diejenigen, die dieses Produkt verwenden, sichere und genaue Antworten auf ihre Suchanfragen erhalten.
Genau wie Microsofts Bing AI-Chatbot wird Bard mitgeliefert einige Mängel. Viele mögen argumentieren, dass dies für jedes neue KI-Produkt normal ist, aber solche Probleme drängen bestimmte Länder dazu, KI-Chatbots zu verbieten. Die KI-Chatbot-Branche muss verfeinert werden, bevor sie von der Mehrheit als sicher eingestuft werden kann.