Twitter begint de strijd tegen door AI gegenereerde afbeeldingen met de Community Notes for images. Deze functie bevindt zich momenteel in de testfase en zal gebruikers op Twitter helpen om door AI gegenereerde afbeeldingen te identificeren. De afgelopen maanden zijn veel gebruikers gevallen voor deze afbeeldingen die producten zijn van AI-modellen.
Deze functie is slechts één hulpmiddel in het arsenaal van Twitter dat zal worden gebruikt om misleidende media te bestrijden. Sommige slechte acteurs die het Twitter-platform gebruiken, bereiken miljoenen gebruikers met door AI gegenereerde afbeeldingen en beweren dat ze het bewijs zijn van activiteiten die nooit hebben plaatsgevonden. Het doel achter deze inspanning is om mensen te misleiden en het kan schadelijk zijn voor de wereldwijde gemeenschap.
Zodra deze afbeeldingen via berichten op Twitter terechtkomen, is het voor nietsvermoedende gebruikers gemakkelijk om ze met anderen te delen. Dit helpt de misleidende informatie die zich als een lopend vuurtje verspreidt, waardoor valse ideeën over een individu of groep ontstaan. Twitter Community Notes voor afbeeldingen is er nu om de verspreiding van dergelijke afbeeldingen naar miljoenen mensen die gebruik maken van het socialemediaplatform tegen te gaan.
Twitter probeert de verspreiding van door AI gegenereerde afbeeldingen tegen te gaan met de functie Community Notes for Images
De Twitter Community-notities pagina heeft onlangs een bericht geplaatst over door AI gegenereerde afbeeldingen. Dit soort afbeeldingen komt steeds vaker voor op het sociale-mediaplatform en heeft de neiging veel gebruikers te misleiden. Twitter heeft hier nota van genomen en ze geven nu een groep gebruikers de mogelijkheid om dit soort berichten te markeren zodat andere gebruikers er bewust van worden.
Op dit moment is het gemakkelijk voor een kwaadwillende Twitteraar. gebruiker om elk AI-model te gebruiken om een foto van wat dan ook te genereren. Ze hoeven alleen maar te beschrijven hoe de foto eruit moet zien en welke elementen deze moet bevatten. Het AI-model gaat vervolgens aan de slag en produceert op basis van de specificaties van de gebruiker een bijna realistisch beeld.
Gewapend met dit beeld kan de kwaadwillende gebruiker het beeld vervolgens met een misleidende omschrijving op Twitter plaatsen. Andere gebruikers van Twitter die dit bericht te zien krijgen, geloven misschien de misleidende beschrijving en retweeten of liken het bericht, waardoor het onder miljoenen wordt verspreid. Nu biedt Twitter bijdragers op hun platform de mogelijkheid om deze misleidende, door AI gegenereerde afbeeldingen en video’s te markeren.
Met de Twitter Community-opmerkingen voor afbeeldingen kunnen bijdragers met hoge beoordelingen AI-gegenereerde afbeeldingen. Momenteel bevindt deze functie zich in de testfase en kunnen bijdragers deze afbeeldingen markeren voor andere gebruikers. Om deze afbeeldingen te markeren, zullen bijdragers met hoge beoordelingen beschrijvingen aan de afbeelding toevoegen die zichtbaar zijn voor andere Twitter-gebruikers.
Zodra de beschrijvingen zijn ingesteld, zoekt het Twitter-algoritme naar alle berichten van die afbeelding op de platform met de beschrijving. Als een andere gebruiker de afbeelding opnieuw plaatst, verschijnt deze met de beschrijving en wordt deze gemarkeerd als een door AI gegenereerde afbeelding. Deze functie moet echter goed presteren tijdens tests voordat deze beschikbaar wordt voor het publiek.