Derzeit befindet sich OpenAI, das Unternehmen hinter ChatGPT und DALL-E, in einem hitzigen Rechtsstreit. In dem Fall heißt es, dass die Art und Weise, wie es Daten zum Trainieren von ChatGPT erhält – das Entfernen öffentlicher Daten aus dem Internet – eine massive Verletzung der Privatsphäre der Menschen darstellt. Es scheint, dass Google genau hinschaut, da das Unternehmen seine Datenschutzrichtlinie aktualisiert hat. Dabei wird bestätigt, dass es Daten sammelt, um Google Bard zu trainieren.
Wir wissen, dass OpenAI diesen Rechtsstreit noch einige Zeit führen wird und das Ergebnis Auswirkungen auf den Verlauf der KI haben könnte vorwärts gehen. Wir haben einen Leitartikel zu diesem Fall, und Sie können hier klicken, um ihn zu lesen.
Google bestätigt, dass es Daten kratzt, um Bard zu trainieren
Wenn man sich anschaut, in welcher Krise sich OpenAI befindet, ist es so Kein Wunder, dass Google versucht, sein Versteck zu verbergen. Der Suchriese ist ein echter Sammler von Klagen dagegen.
Laut Gizmodo (über The Verge) Google hat seine Datenschutzrichtlinie am 1. Juli aktualisiert. Das Unternehmen hat am Inhalt der Richtlinie nicht viel geändert. Deutlicher ist jedoch die Tatsache, dass das Unternehmen Daten auswertet, um seine KI-Produkte zu trainieren. Dazu gehört auch Bard, aber es ist nicht darauf beschränkt. „… wir verwenden öffentlich verfügbare Informationen, um die KI-Modelle von Google zu trainieren und Produkte und Funktionen wie Google Translate, Bard und Cloud AI-Funktionen zu entwickeln.“
Die Tatsache, dass klargestellt wird, dass öffentlich verfügbare Daten zum Trainieren verwendet werden Das Unternehmen hofft, dass seine KI-Modelle verhindern werden, dass es in Brand gerät. Ein wesentlicher Teil des Vorwurfs gegen OpenAI ist die Tatsache, dass es dies nicht spezifiziert hat. Unwissentlich werden Daten von Menschen ausgewertet, um sie für die KI zu nutzen.
Klärung ist nicht der Punkt
Google hat angegeben, dass es Daten auswertet, großartig; Das Unternehmen erhält einen goldenen Stern. Aber das ist nicht der Punkt. Diese Änderung hält das Unternehmen gerade noch in der Grauzone zwischen legal und illegal. Vielleicht bleibt es vorerst den Augen von Gesetzgebern und Regierungsbehörden verborgen.
Aber das hat nichts für die Leute, von denen es Daten stiehlt. Je weiter die KI voranschreitet, desto mehr Menschen werden davon betroffen. Künstler, Journalisten, kreative Autoren, Musiker, Komponisten, Entwickler usw. Diesen Menschen klarzumachen, dass ihre Daten dazu verwendet werden, genau die KI-Modelle zu trainieren, die sie arbeitslos machen, verbessert die Situation nicht.
Wenn Google, OpenAI und andere KI-Unternehmen wirklich daran interessiert sind, ihre Kreationen zu überwachen, müssen sie es besser machen. Wenn nicht, sollten sie klarstellen, dass ihnen nur das Geld am Herzen liegt und nicht die Menschen, die von ihren Produkten betroffen sind.