Das britische National Cyber ​​Security Centre (NCSC) warnt die Öffentlichkeit vor den Gefahren von ChatGPT. Dieses Modell der künstlichen Intelligenz gewann nach seiner Einführung vor einigen Monaten an Popularität. Nachdem es der Öffentlichkeit zugänglich gemacht wurde, strömten unzählige Leute herein, um seine Fähigkeiten auf verschiedene Weise auszuprobieren.

Einige Leute fragten nach Rezepten für bestimmte Gerichte, Antworten auf Aufgabenfragen und andere zufällige Fragen. Die Antwort dieses Modells der künstlichen Intelligenz auf verschiedene Fragen, die ihm in den Weg gestellt wurden, erstaunte viele Menschen. Aus diesem Grund wollten immer mehr Leute ChatGPT ausprobieren, was seine Popularität steigerte.

Nun hat das System, auf dem dieses Modell der künstlichen Intelligenz läuft, ein Upgrade erhalten. Das GPT-4-System verbessert die Konversationsfähigkeiten verschiedener Modelle der künstlichen Intelligenz, die darauf angewiesen sind. Gibt es angesichts der zunehmenden Akzeptanz dieses Modells der künstlichen Intelligenz irgendwelche Gefahren für die Gesellschaft? Ein aktuelles Update hebt einige hervor, Sehen wir uns diese Gefahren genauer an.

Laut dem National Cyber ​​Security Centre (NCSC) sind dies die Gefahren von ChatGPT

Das britische National Cyber ​​Security Centre (NCSC) hat die Öffentlichkeit auf die Gefahren von ChatGPT aufmerksam gemacht. Sie taten dies mit einem aktuellen Blog Post auf ihrer offiziellen Website, wo sie sich mit ChatGPT und Large Language Models (LLMs) befassten.

Mit der zunehmenden Popularität dieser Modelle der künstlichen Intelligenz besteht die Notwendigkeit, das Risiko zu kennen, das sie mit sich bringen könnte posieren. Nun, das britische National Cyber ​​Security Centre (NCSC) hat die Forschung durchgeführt, um die Öffentlichkeit aufzuklären. Aus ihren Erkenntnissen werden Benutzer von ChatGPT und anderen LLMs erfahren, welche Hauptfächer sie mit diesen Modellen der künstlichen Intelligenz nehmen sollten.

Eine der ersten Beobachtungen, die man bei den Modellen der künstlichen Intelligenz berücksichtigen sollte, ist, dass sie es sein könnten irreführend. Einige Informationen, die sie auf Benutzeranfragen bereitstellen, können falsch, voreingenommen, gewalttätig usw. sein. Aus diesem Grund sollten Benutzer von ChatGPT und anderen LLMs auf die Inhalte achten, die sie von diesen künstlichen Intelligenzmodellen konsumieren.

Dort ist auch die Notwendigkeit, bei der Art der Informationen, die Sie mit diesen Plattformen teilen, vorsichtig zu sein. Das National Cyber ​​Security Center (NCSC) rät davon ab, vertrauliche Informationen mit ChatGPT oder anderen LLMs zu teilen. Diese Plattformen geben möglicherweise keine Benutzerinformationen preis, aber sie haben Zugriff auf Benutzeranfragen und können gehackt werden, wodurch diese Anfragen der Öffentlichkeit zugänglich gemacht werden.

Versuchen Sie daher, solchen Plattformen keine Fragen zu stellen, die sehr heikel sind zu Ihrem Privatleben oder Ihrer Arbeit. Die Gefahren von ChatGPT und anderen LLMs umfassen auch, wie Cyberkriminelle und schlechte Akteure es einsetzen können. Während Sie also neue oder bestehende große Sprachmodelle ausprobieren, ist es wichtig, die Risiken zu verstehen, die sie darstellen.

Categories: IT Info