Seit der Einführung von ChatGPT überwiegen KI-Chatbots wie ChatGPT. Die Verbreitung dieser Chatbots bedeutet jedoch auch, dass sich Probleme zusammenbrauen. In Wahrheit überraschte OpenAI die Welt mit der Fähigkeit von ChatGPT. Aus diesem Grund gab es viele Einwände gegen seine Verwendung und einige führten sogar zu Rechtsstreitigkeiten. In den USA, dem Heimatland von ChatGPT, schützt das Gesetz möglicherweise nur ChatGPT. Artikel 230 des US Communications Decency Act aus dem Jahr 1996 besagt, dass ein Unternehmen keine rechtliche Verantwortung für die Inhalte tragen muss, die von Dritten oder Nutzern auf seiner Plattform veröffentlicht werden (Artikel 230).
Der Oberste Gerichtshof der USA wird jedoch in den nächsten Monaten entscheiden, ob dieser Schutz geschwächt werden soll. Dies kann sich auch auf KI-Chatbots wie ChatGPT auswirken. Es wird erwartet, dass die Richter bis Ende Juni darüber entscheiden, ob das zu Alphabet gehörende YouTube verklagt werden kann, weil es den Nutzern Videos empfohlen hat. Während Plattformen von der Haftung für von Benutzern hochgeladene Videos ausgenommen sind, gelten die Schutzbestimmungen von Abschnitt 230 immer noch, wenn sie Algorithmen verwenden, um Benutzern Inhalte zu empfehlen?
Technologie-und Rechtsexperten sagen, dass der Fall Auswirkungen über Social-Media-Plattformen hinaus hat. Sie glauben, dass das Urteil eine neue Debatte darüber auslösen könnte, ob Unternehmen wie OpenAI und Google, die KI-Chatbots entwickeln, dies sein können frei von Rechtsansprüchen wie Verleumdung oder Verletzung der Privatsphäre. Experten weisen darauf hin, dass dies daran liegt, dass der von ChatGPT und anderen verwendete Algorithmus ähnlich der Art und Weise ist, wie YouTube-Nutzern Videos empfohlen werden.
Was machen KI-Chatbots?
KI-Chatbots werden trainiert um große Mengen an Originalinhalten zu generieren, und Abschnitt 230 gilt im Allgemeinen für Inhalte Dritter. Gerichte müssen noch prüfen, ob KI-Chatbot-Antworten geschützt wären. Ein demokratischer Senator sagte, der Immunitätsanspruch könne nicht für generative KI-Tools gelten, da diese Tools „Inhalte erstellen“. „Bei Abschnitt 230 geht es um den Schutz von Benutzern und Websites, auf denen die Benutzersprache gehostet und organisiert wird. Es sollte Unternehmen nicht von den Folgen ihrer eigenen Handlungen und Produkte abschirmen“, sagte er.
Die Technologiebranche drängt darauf, Abschnitt 230 beizubehalten. Einige Leute denken, dass Tools wie ChatGPT wie Suchmaschinen sind, die dienen vorhandener Inhalt für Benutzer basierend auf Abfragen. „KI erschafft nicht wirklich etwas. Es präsentiert lediglich vorhandene Inhalte auf eine andere Art oder in einem anderen Format“, sagte Carl Szabo, Vizepräsident und General Counsel bei der Handelsgruppe der Technologiebranche, NetChoice.
Szabo sagte, dass, wenn Section 230 geschwächt würde, dies der Fall wäre würde eine unmögliche Aufgabe für KI-Entwickler schaffen. Dies wird sie auch einer Flut von Klagen aussetzen, die Innovationen ersticken könnten. Einige Experten spekulieren, dass Gerichte eine neutrale Haltung einnehmen und den Kontext untersuchen könnten, in dem KI-Modelle potenziell schädliche Reaktionen hervorrufen.
Gizchina News of the Week
Freistellungsvorteile können weiterhin in Fällen gelten, in denen das KI-Modell in der Lage zu sein scheint, vorhandene Quellen zu erklären. Aber Chatbots wie ChatGPT sind dafür bekannt, falsche Antworten zu generieren, die laut Experten möglicherweise nicht geschützt sind.
Hanny Farid, Technologin und Professorin an der Univ. aus Kalifornien, Berkeley, sagte, es sei weit hergeholt zu glauben, dass KI-Entwickler gegen Klagen über die Modelle, die sie „programmieren, trainieren und einsetzen“, immun sein sollten sicherere Produkte; wenn sie ausgenommen sind, sind die Produkte tendenziell weniger sicher“, sagte Farid.
Probleme mit KI-Tools wie ChatGPT
KI-Chatbots sind heutzutage in der heutigen Welt sehr beliebt. Dies liegt an der Tatsache, dass sie eine effiziente und bequeme Möglichkeit für Menschen bieten, miteinander zu interagieren. Diese Chatbots sind in der Lage, natürliche Sprache zu verarbeiten und relevante Antworten auf Anfragen zu geben. Dies macht sie zu einem nützlichen Werkzeug für Kundenservice, Vertrieb und Support. Es wurden jedoch Bedenken hinsichtlich der Sicherheit der Verwendung von KI-Chatbots geäußert, hauptsächlich in Bezug auf Datenschutz und Sicherheit.
Eine der Hauptbedenken bei KI-Chatbots könnte eine Lücke für Datenschutzverletzungen und Cyberangriffe sein. Da Chatbots häufig verlangen, dass Benutzer persönliche Informationen wie Name, Adresse und Zahlungsdetails angeben, besteht die Gefahr, dass diese Informationen gestohlen werden. Um dieses Risiko zu verringern, müssen Unternehmen sicherstellen, dass ihre Chatbots sicher sind, und Verschlüsselungsmethoden verwenden, um Benutzerdaten zu schützen.
Ein weiteres Problem bei KI-Chatbots ist das Potenzial für das System, voreingenommen zu werden. Da diese Chatbots von Menschen programmiert werden, können sie Vorurteile und Stereotypen sein, die in der Gesellschaft existieren. Beispielsweise kann ein Chatbot, der zum Screening von Arbeitssuchenden entwickelt wurde, bestimmte Gruppen aufgrund ihrer Rasse, ihres Geschlechts oder ihrer ethnischen Zugehörigkeit diskriminieren. Um dies zu vermeiden, müssen Chatbot-Entwickler sicherstellen, dass ihre Algorithmen nahezu perfekt und unvoreingenommen sind.
Außerdem besteht das Risiko, dass KI-Chatbots möglicherweise nicht in der Lage sind, komplexe Abfragen zu verarbeiten. Dazu gehören auch solche, die mit psychischer Gesundheit oder häuslicher Gewalt in Verbindung stehen. In solchen Fällen erhalten Benutzer möglicherweise nicht die Unterstützung, die sie benötigen. Dies ist natürlich einer der Bereiche, in denen die Leute wollen, dass diese Chatbots haftbar gemacht werden. Wenn sie in bestimmten Szenarien eine falsche Antwort geben, kann das Ergebnis sehr schlecht sein.
Abschließende Worte
Trotz dieser Bedenken können KI-Chatbots sicher verwendet werden, wenn sie richtig eingesetzt werden. Einige Leute möchten KI-Chatbots verwenden, um Ärzte und andere Experten zu ersetzen. Dies sind keine idealen Verwendungen dieses Tools. Seitens der Entwickler müssen sie unbedingt Voreingenommenheit vermeiden und sicherstellen, dass das System inklusiv ist. Außerdem sollten Chatbots nicht ohne menschliche Anwesenheit arbeiten. Von Zeit zu Zeit sollten sie überprüft und gegebenenfalls aktualisiert werden. Um sicherzustellen, dass sie sicher zu verwenden sind, müssen Entwickler Bedenken in Bezug auf Sicherheit, Datenschutz, Voreingenommenheit und die Grenzen von Chatbots ansprechen. Mit den richtigen Tools können KI-Chatbots die Suche nach Informationen sehr einfach machen. Es könnte auch ein ziemlich anständiger Assistent für viele Leute sein, die irgendeine Art von Hilfe mit Informationen benötigen.
Quelle/VIA: