Twitter verschärft den Kampf gegen KI-generierte Bilder mit dem 5E314C1F861CABC24BF2CC33FF1DD703AD1D3BA301%7CTWCON%5ES1_ & ref_url=https%3a%2f%2fwww.engadget.com%2ftwitter-is-testing-testing-community-notes-für–Image-für–Imagen-194609173.httmly-notes-for—–Fl. >. Diese Funktion befindet sich derzeit in der Testphase und soll Nutzern auf Twitter dabei helfen, KI-generierte Bilder zu identifizieren. In den letzten Monaten sind viele Nutzer auf diese Bilder hereingefallen, die Produkte von KI-Modellen sind.

Diese Funktion ist nur ein Werkzeug im Arsenal von Twitter, das bei der Bekämpfung irreführender Medien zum Einsatz kommen wird. Einige Kriminelle, die die Twitter-Plattform nutzen, erreichen Millionen von Nutzern mit KI-generierten Bildern und behaupten, sie seien Beweise für Aktivitäten, die nie stattgefunden haben. Das Ziel dieser Bemühungen besteht darin, Menschen in die Irre zu führen, und sie können der globalen Gemeinschaft schaden.

Sobald diese Bilder über Beiträge auf Twitter gelangen, ist es für ahnungslose Benutzer leicht, sie mit anderen zu teilen. Dies trägt dazu bei, dass sich irreführende Informationen wie ein Lauffeuer verbreiten und so falsche Vorstellungen über eine Einzelperson oder eine Gruppe entstehen lassen. Twitter Community Notes für Bilder ist jetzt da, um die Verbreitung solcher Bilder an Millionen von Menschen zu bekämpfen, die die Social-Media-Plattform nutzen.

Twitter möchte die Verbreitung von KI-generierten Bildern mit der Funktion „Community Notes for Images“ eindämmen

Die Twitter-Community-Notizen Seite hat kürzlich einen Beitrag veröffentlicht, der sich mit KI-generierten Bildern befasst. Diese Art von Bildern ist auf den Social-Media-Plattformen immer häufiger anzutreffen und neigt dazu, viele Benutzer in die Irre zu führen. Twitter hat dies zur Kenntnis genommen und gibt nun einer Gruppe von Nutzern die Möglichkeit, diese Art von Beiträgen zu kennzeichnen, um andere Nutzer darauf aufmerksam zu machen.

In diesem Moment ist es für einen böswilligen Twitter leicht Der Benutzer kann ein beliebiges KI-Modell verwenden, um ein Foto von allem zu erstellen. Sie müssen lediglich beschreiben, wie das Foto aussehen soll und welche Elemente es enthalten soll. Das KI-Modell macht sich dann an die Arbeit und erstellt ein nahezu realistisches Bild basierend auf den Vorgaben des Benutzers.

Mit diesem Bild bewaffnet kann der böswillige Benutzer das Bild dann mit einer irreführenden Beschreibung auf Twitter posten. Andere Twitter-Nutzer, die diesen Beitrag sehen, glauben möglicherweise an die irreführende Beschreibung und retweeten oder liken den Beitrag und verbreiten ihn so an Millionen. Jetzt gibt Twitter den Mitwirkenden auf seiner Plattform die Möglichkeit, diese irreführenden, von der KI generierten Bilder und Videos zu melden.

Mit den Twitter-Community-Notizen für Bilder können Mitwirkende mit hohen Bewertungen die KI melden. generierte Bilder. Derzeit befindet sich diese Funktion in der Testphase und ermöglicht es Mitwirkenden, diese Bilder für andere Benutzer zu kennzeichnen. Um diese Bilder zu kennzeichnen, fügen Mitwirkende mit hohen Bewertungen dem Bild Beschreibungen hinzu, die für andere Twitter-Benutzer sichtbar wären.

Sobald die Beschreibungen festgelegt sind, gleicht der Twitter-Algorithmus alle Beiträge dieses Bildes auf dem ab Plattform mit der Beschreibung. Wenn ein anderer Benutzer das Bild erneut postet, wird es mit der Beschreibung angezeigt und als KI-generiertes Bild gekennzeichnet. Diese Funktion muss jedoch bei Tests eine gute Leistung erbringen, bevor sie der Öffentlichkeit zugänglich gemacht wird.

Categories: IT Info