Zum Zeitpunkt des Schreibens dieses Artikels befindet sich OpenAI mitten in einer ziemlich großen Rechtsstreit. Eine Firma in Kalifornien behauptet, dass OpenAI beim Training seines Chatbots ChatGPT die Privatsphäre seiner Benutzer verletzt habe. Aufgrund dieser Behauptung und der Menge an Daten, die das Unternehmen für seinen Chatbot gesammelt hat, könnte dies erhebliche Auswirkungen auf OpenAI und andere KI-Unternehmen haben. Die Frage ist: Ist OpenAI in dieser Situation im Unrecht?
Worum geht es in dem Fall?
Wenn man sich einmal anschaut, worum es in diesem Fall geht, ist es leicht, einen Überblick darüber zu bekommen Ernsthaftigkeit der Lage. Nun ist KI wie ein menschliches Gehirn; es muss trainiert werden. Es muss gelehrt werden. Unternehmen speisen Unmengen an Daten in ihre LLMs (Large Language Models) ein, damit sie lernen können. Je mehr die LLMs wissen, desto hilfreicher können sie sein. Google ist eines der führenden KI-Unternehmen, da es über die Google-Suche, Android usw. Zugriff auf Daten im Wert von einer Milliarde Tonnen hat.
Im Fall von ChatGPT wird auch ein LLM verwendet, das trainiert werden muss ; und das Unternehmen hat es mithilfe einer Menge Daten trainiert. Das Problem liegt an einigen Stellen, an denen es diese Informationen erhalten hat. Das Unternehmen nutzte eine Fülle von Daten aus dem Internet. Dazu gehört eine Reihe von Daten, die Menschen ohne ihre Zustimmung zur Verwendung durch einen KI-Chatbot hochgeladen haben.
Die Rede ist von Artikeln, Blogbeiträgen, Kurzgeschichten, Drehbüchern, Gedichten, Social-Media-Beiträgen usw. Die Liste lässt sich beliebig fortsetzen. Da das Wissen von ChatGPT so weit zurückreicht, lässt sich nicht sagen, wie viele Daten der Menschen zum Trainieren von ChatGPT verwendet wurden. In der Klage heißt es, dass diese Informationen ohne die Zustimmung des Originalplakats eingeholt wurden.
Aus diesem Grund ist OpenAI in Schwierigkeiten. Die schiere Menge an Informationen, die OpenAI in ChatGPT eingespeist hat, ist gigantisch. Wenn das Gericht feststellt, dass das Unternehmen schuld ist, könnte das schlechte Nachrichten für die KI im Allgemeinen bedeuten.
Liegt OpenAI also im Unrecht?
Es ist der Wilde Westen da draußen für KI, da der Gesetzgeber immer noch darüber nachdenkt, wie er sie regulieren kann. Während sie mit der Legalität der KI kämpfen, beschäftigen sich die Durchschnittsbürger mit deren Moral. Hat OpenAI Unrecht, wenn es so viele Daten zum Trainieren von ChatGPT verwendet?
Man könnte ja argumentieren.
Ein großer Teil dieses Arguments ergibt sich aus der Kontroverse um KI-generierte Kunst. Es gibt einen anhaltenden Protest gegen diese Technologie, weil sie den Menschen die Möglichkeit gibt, Bilder sofort mit nichts als Worten zu erstellen. Genau wie bei ChatGPT müssen KI-Bildgeneratoren mit Kunstwerken menschlicher Künstler gefüttert werden. Viele menschliche Künstler möchten nicht, dass ihre Kunst zum Trainieren dieser Bild-Bots verwendet wird.
Nun, denken Sie an Leute, deren schriftliche Inhalte zum Trainieren von ChatGPT verwendet werden. So wie Bildgeneratoren Künstler aus dem Geschäft drängen können, können Chatbots auch Schriftsteller aus dem Geschäft drängen. Chatbots können in Sekundenschnelle Artikel, Kurzgeschichten, Skripte, Blogbeiträge usw. generieren. Warum sollten Sie einen menschlichen Autor engagieren und bezahlen, wenn Sie Ihre Inhalte einfach generieren lassen können? Verständlicherweise möchten menschliche Autoren, die Jahre damit verbracht haben, ihr Handwerk zu entwickeln, nicht, dass ihre Inhalte dazu verwendet werden, genau die Maschine zu trainieren, die sie von ihrem Job befreien könnte.
Das sind Menschen, die das müssen geben ihre Arbeit dort hin, um ihren Lebensunterhalt zu verdienen. Journalisten veröffentlichen ihre Artikel auf öffentlichen Websites, Autoren verfassen Blogbeiträge für die öffentlichen Websites von Unternehmen usw. Sie tun dies, um ihr Handwerk mit den Lesern zu teilen und hoffentlich andere Autoren zu inspirieren. Sie haben sich nicht dafür angemeldet, dass ihre Arbeit ausgewertet und zum Trainieren von KI-Chatbots verwendet wird.
Andere können dagegen argumentieren.
Dieses Argument hat zwei Seiten. Wenn Künstler, Schriftsteller und Musiker ihre Werke online veröffentlichen, laufen sie Gefahr, dass sie für andere Zwecke verwendet werden. Es ist nicht viel anders, als wenn Ihre Inhalte gestohlen und plagiiert würden. Die Ersteller veröffentlichen ihre Inhalte mit der Maßgabe, dass sie entfernt und für andere Zwecke verwendet werden könnten.
Die Diskussion wird noch heikler, wenn die Inhalte nicht urheberrechtlich geschützt sind. Wenn Ihre Inhalte im Internet für jedermann frei verfügbar sind, könnte OpenAI das Recht haben, sie zum Trainieren von ChatGPT zu verwenden.
Wenn OpenAI den Fall verliert, könnte das eine gute Sache sein
Diejenigen unter Ihnen, die ChatGPT zum Schreiben Ihrer Aufsätze usw. verwenden, werden höchstwahrscheinlich dafür plädieren, dass OpenAI den Fall gewinnt. Sollte das Unternehmen jedoch den Fall verlieren, wäre das vielleicht nicht das Schlimmste. Sicherlich wird OpenAI einen finanziellen Verlust erleiden, was für das Unternehmen nicht gut ist. Wenn das Gericht diesen Fall jedoch gewinnt, könnte dies dazu beitragen, die KI-Regulierung voranzutreiben.
Wie bereits erwähnt, herrscht bei der KI-Regulierung der Wilde Westen. Der Gesetzgeber bemüht sich, die KI-Entwicklung einzudämmen und sicherzustellen, dass sie keine negativen Auswirkungen hat. Das Recht der Menschen auf ihre Inhalte war noch nie so stark gefährdet, da überall KI-Bildgeneratoren und KI-Chatbots auftauchen. Inhalte aus dem gesamten Internet werden aufgegriffen und für diese LLMs verwendet, und es gibt keine Möglichkeit, dem Einhalt zu gebieten.
Wenn OpenAI diesen Fall verliert, wird dieses Problem in den Vordergrund gerückt. Es wird die Leute dazu bringen, darüber zu reden, wie diese LLMs an ihre Informationen kommen. Die Menschen schreien zu diesem Zeitpunkt nach einer Regulierung der KI. Es führt dazu, dass Menschen ihren Arbeitsplatz verlieren. Unabhängige YouTuber werden von talentlosen Leuten übertroffen, die Inhalte erstellen und vermarkten. Jemand kann ganz einfach einen KI-generierten „Song“ zaubern und ihn auf Spotify vermarkten. Stellen Sie sich vor, Sie würden an einem Tag oder einer Woche ein ganzes Album herausbringen und damit Einnahmen erzielen.
Das Gleiche gilt für KI-„Künstler“ und KI-„Autoren“. Für die meisten Menschen könnte es bereits zu spät sein. Wir sind immer noch dabei, das Potenzial der generativen KI-Technologie kennenzulernen. Dazu gehört auch das Potenzial für Schlimmes.
Nur die Zeit wird es zeigen
Zum jetzigen Zeitpunkt warten wir immer noch auf die Ergebnisse des Falles, daher ist es schwer zu sagen, was passieren wird. Wir müssen abwarten, wie sich dieser Fall entwickelt, um die Zukunft der Technologie zu erfahren. Ein Fall wie dieser könnte durchaus erhebliche Auswirkungen auf die KI haben.