Facebook en Michigan State University hebben een nieuwe methode onthuld om diepe nep-afbeeldingen te identificeren en terug te leiden naar hun bron. Of op zijn minst terug te voeren naar welk generatief model is gebruikt om de afbeeldingen te maken. Het nieuwe systeem, volgens het doel van rapporten rond de onthulling, maakt gebruik van een complexe reverse engineering-techniek. Met name om patronen te identificeren achter het AI-model dat wordt gebruikt om een ​​diep nepbeeld te genereren.

Het systeem werkt door afbeeldingen door een Fingerprint Estimation Network (FEN) te laten lopen om patronen-vingerafdrukken-in die afbeeldingen te ontleden. Die vingerafdrukken zijn effectief opgebouwd uit een reeks bekende variabelen in diepe nepbeelden. Met generatieve modellen die meetbare patronen achterlaten in”vingerafdrukgrootte, repetitief karakter, frequentiebereik en symmetrische frequentierespons.”

En, na deze beperkingen terug te voeren via de FEN, kan de methode detecteren welke afbeeldingen diep zijn vervalsingen. Die worden vervolgens teruggevoerd door een systeem om de afbeeldingen te scheiden via”hyperparameters”die zijn ingesteld om het systeem te begeleiden bij het zelfleren van verschillende generatieve modellen.

Advertentie

Dit staat nog in de kinderschoenen, maar het komt wel een stap dichter bij het identificeren en opsporen van diepe nepafbeeldingen

Een van de grote tegenslagen voor de huidige iteratie van het systeem dienen om te benadrukken dat dit nog steeds nieuwe technologie is. Het is nog lang niet klaar voor primetime. Het kan namelijk geen nepafbeeldingen detecteren die zijn gemaakt door een generatief model waarop het niet is getraind. En er zijn talloze van dergelijke modellen in gebruik.

Bovendien is dit geenszins een definitieve methode voor het identificeren van diepe nepbeelden van Facebook en MSU. Niet alleen is er geen manier om er zeker van te zijn dat elk generatief model verantwoord is. Er zijn geen andere onderzoeken met betrekking tot dit onderwerp. Of er zijn op zijn minst geen datasets om een ​​vergelijkingsbasis op te bouwen. Kortom, er is geen manier om zeker te weten hoe goed het nieuwe AI-model is.

Het team achter het project geeft aan dat er”een veel sterkere en algemene correlatie is tussen gegenereerde afbeeldingen en de inbeddingsruimte van betekenisvolle architectuurhyperparameters en verliesfunctietypen.” En het vergelijkt dat met een willekeurige vector van dezelfde lengte en verdeling. Maar dat is gebaseerd op zijn eigen, zelf gecreëerde baseline.

Advertentie

Dus, zonder verder onderzoek, is de enige afhaalmogelijkheid dat het model door AI gemaakte diepe nepbeelden en hun bron beter dan een simpele gok.

Waarvoor zou dit kunnen worden gebruikt?

Het doel van het project, zoals gepresenteerd door het team, is om een ​​manier te genereren om diepe nepbeelden terug te traceren naar hun bron nadat ze zijn geïdentificeerd. Dat zou mogelijk kunnen dienen om de handhaving van beleid en regels voor verkeerde informatie te vergemakkelijken. Vooral als dat betrekking heeft op naar sociale-mediasites en de nog steeds ongebreidelde verspreiding van verkeerde informatie.

Facebook MSU diepe nep-afbeeldingen die de traceringsbronmethodologie-grafiek identificeren

Advertentie

Categories: IT Info