Ein Fehler im Chatbot für künstliche Intelligenz ChatGPT hat es einigen Benutzern ermöglicht, die Titel der Konversationen anderer Benutzer zu sehen, was Datenschutzbedenken auslöst. Sam Altman, CEO von OpenAI, räumte das Problem ein und sagte, das Unternehmen fühle sich „schrecklich“ darüber. Er versicherte den Kunden, dass der „erhebliche“ Fehler nun behoben wurde.
Millionen von Menschen haben ChatGPT seit seiner Einführung im November letzten Jahres verwendet. Der Chatbot speichert jede Konversation im Chatverlauf des Benutzers, sodass er sie später erneut aufrufen kann. Diese Funktion ist vorteilhaft, da sie es Benutzern ermöglicht, leicht auf frühere Chats zuzugreifen.
Sam Altman, der CEO von OpenAI, hat angekündigt, dass sein Team den Fehler behoben hat und bald eine „technische Postmortem“ durchführen wird, um den Fehler zu untersuchen weiter ausgeben. Das Unternehmen fühlt sich wegen des Fehlers „schrecklich“, aber Altman betonte, dass der Fehler es den Benutzern nur ermöglichte, die Titel der Chats anderer Benutzer zu sehen, nicht die eigentlichen Chats.
Nachrichten der Woche aus Gizchina
OpenAI hat bestätigt, dass ihr Dienst wieder läuft. Altman hat jedoch erklärt, dass Benutzer ab einem bestimmten Zeitraum am 27. März keinen Zugriff auf ihre Chatverläufe haben werden. Ihre Datenschutzrichtlinie weist darauf hin, dass Daten, die aus diesen Gesprächen generiert werden, wie z. B. Eingabeaufforderungen und Antworten, dazu beitragen können, die Fähigkeiten des Chatbots weiter zu trainieren. Dies könnte dazu beitragen, die Fähigkeit zu verbessern, die Bedürfnisse der Benutzer zu verstehen und darauf zu reagieren.
Dieser ChatGPT-Fehler ist nur einer von vielen Vorfällen, die Bedenken hinsichtlich des Datenschutzes in der KI-Branche aufgeworfen haben. Der zunehmende Wettbewerb zwischen Google und Microsoft im Bereich KI hat zu einem rasanten Tempo bei neuen Produktveröffentlichungen geführt. Dies hat Bedenken geweckt, dass Fehler oder Versehen unbeabsichtigte und potenziell schädliche Folgen haben könnten.
Quelle/VIA: