Es war einmal, etwa vor zwei Jahren im Jahr 2021, gelobte Alphabet Inc. – die Muttergesellschaft von Google LLC –, die Ethik der KI zu untersuchen. Nun, bei Google gab es bereits eine Gruppe, die sich der Ethik in Bezug auf KI widmete, und sie versuchten, Feedback darüber zu geben, wie moralisch in Ordnung die Produkte des Unternehmens sind.
Vor März 2023 – dem Tag, an dem Bard für eine geschlossene Gruppe oder Einzelpersonen freigegeben wird – war das „Ethik-Komitee“ hart daran, Google davon zu überzeugen, dass Bard nicht gerade für eine begrenzte Einführung bereit war.
Trotzdem ging das Unternehmen wie geplant vor und veröffentlichte Bard, anscheinend mit dem einzigen Ziel, einen bestehenden Konkurrenten für ChatGPT und Microsofts OpenAI zu haben. Dies wiederum ließ die Ethikgruppe demoralisiert und in Trümmern zurück, da zahlreiche Hauptakteure Google kurz darauf verließen.
Hat Google auf Ethik verzichtet, nur um Bard vorzeitig freizulassen?
Bard kann viel mehr als nur plaudern und Informationen liefern. Komposition, Codierung und Bildwiedergabe gehören zu seinen vielen Talenten.
Bloomberg berichtet, dass Google Bard scheinbar mit minderwertigen Informationen versorgt hat, nur damit es sie frühzeitig enthüllen konnte. Diese Informationen werden durch einige geprüfte, aber nicht spezifizierte interne Firmendokumente und die Worte bestehender und ehemaliger Mitglieder der Ethikgruppe gestützt.
Natürlich nahm der Big G dies nicht hin. Es wird behauptet, dass Ethik in Bezug auf Bard und KI im Allgemeinen immer noch oberste Priorität hat. Und das macht nur Sinn, wenn man bedenkt, dass Google jahrelang gezögert hat, sich mit KI zu beschäftigen, genau wegen der moralischen Dilemmata.
Dennoch brauchte es anscheinend die Bedingung des zunehmenden Wettbewerbs, damit das Unternehmen seine allgemeine Haltung zu dieser Art und Weise änderte. ChatGPT und OneAI – und jede andere KI in dieser Hinsicht – würden ohne die eigene Forschung von Google nicht existieren, also ist es falsch, ein Stück von dem köstlichen Kuchen zu wollen, wenn man die Zutaten dafür angebaut hat?
Googles Barde: pathologischer Lügner oder schneller Lerner?
Stellen Sie sich jetzt ein Pixel X Pro mit unzähligen exklusiven Funktionen vor, powered by Bard. Ist das kein Produkt?
Und Google ist der festen Überzeugung, dass alle Sicherheitsprüfungen durchgeführt wurden, bevor Bard veröffentlicht wurde … als Experiment und nicht als Produkt. Ist diese Kennzeichnung eine Form der Risikoprävention? Und wenn ja, wie ist es möglich, dass wir zahlreiche Funktionen für Dienste wie Docs, Slides, Gmail und YouTube erwarten – die praktisch eigenständige Produkte sind – die von diesem Experiment unterstützt werden? Ist das ethisch?
Die Ethik-Gruppe von Google hat eine Antwort und es ist Zögern. Das Zögern, sich zu äußern und zu diskutieren, denn Berichten zufolge erhalten sie als Antwort ein „Sie versuchen nur, den Prozess zu verlangsamen“. Ist die Ethik gegenüber geschäftlichen Unternehmungen in den Hintergrund getreten? Stoff zum Nachdenken.
Vor der Veröffentlichung von Bard im März gewährte Google seinen Mitarbeitern intern Zugriff auf die KI, um Feedback zu sammeln. Hier sind einige Ausschnitte dessen, was Google-Mitarbeiter über Bard zu sagen hatten: Pathologischer LügnerCringe-worthyBereitgestellte Ratschläge, die in einer Katastrophe enden würden”… schlimmer als nutzlos: Bitte starten Sie nicht”
Google hat Bard trotzdem gestartet. Aber hier ist eine andere Perspektive: Ein begrenzter, aber immer noch öffentlicher Zugang ist eine Gelegenheit für Bard, zu lernen und sich selbst zu korrigieren. Schließlich ist Google in Bezug auf Algorithmen produktiv. Ist es also weit hergeholt, sich eine Realität vorzustellen, in der all dies Teil eines echten Plans ist, Bard lernen und wachsen zu lassen, so wie es ChatGPT in der Vergangenheit getan hat?
Auch hier: Denkanstöße.