Elke munt heeft twee kanten. Dit geldt ook voor technologieën. Ze komen om ons leven te vergemakkelijken, om de productiviteit en efficiëntie te verhogen, om dingen sneller gedaan te krijgen, enz. Maar er zijn ook veel mensen die deze technologieën liever gebruiken voor de lol of, erger nog, om anderen te misleiden. Nu helpt AI hen om hun vuile daden zonder moeite te doen. Stel, ze maken’deepfakes’door authentieke afbeeldingen en video’s te combineren.


Mensen die graag deepfakes maken, kunnen deze gebruiken om verkeerde informatie te verspreiden. Ze kunnen bijvoorbeeld beroemdheden in nepsituaties laten zien of ze kunnen zich voordoen als politici en praktisch alles zeggen. We herinneren ons er waren gevallen waarin aanvallers AI gebruikten voor het maken van nep-imaginaire satellieten. Deze deepfakes zagen er behoorlijk realistisch uit en leidden mensen naar nergens.

Wat nog gevaarlijker is, is dat deepfakes in de meeste gevallen viraal gaan. Ze verspreidden zich als een lopend vuurtje op sociale media. En niemand kan berekenen hoeveel schade ze aanrichten. Als Facebook is de meest populaire sociale platform, het zou een voortrekkersrol moeten spelen in de strijd tegen deepfakes.

Facebook kan deepfakes detecteren

Het blijkt dat de AI-onderzoekers van het bedrijf technologie hebben ontwikkeld die deepfakes en meer kan detecteren. Het bedrijf beweert dat zijn AI de oorsprong van deepfakes zal volgen. Dan zal het unieke kenmerken vinden. En dit zal het helpen om de bron van een deepfake te identificeren.

Facebook heeft deze technologie zelfs niet onafhankelijk ontwikkeld. Ze sloegen de handen ineen met de Michigan State University om technologie te creëren die in staat is te realiseren of een video of afbeelding een deepfake of echt is.

Onze reverse-engineeringmethode is gebaseerd op het blootleggen van de unieke patronen achter het AI-model dat wordt gebruikt om een ​​enkele deepfake-afbeelding te genereren. We beginnen met beeldattributie en werken vervolgens aan het ontdekken van eigenschappen van het model dat is gebruikt om de afbeelding te genereren. Door beeldattributie te generaliseren naar open-set-herkenning, kunnen we meer informatie afleiden over het generatieve model dat is gebruikt om een ​​deepfake te maken dat verder gaat dan het herkennen dat het nog niet eerder is gezien. En door overeenkomsten te traceren tussen patronen van een verzameling deepfakes, konden we ook zien of een reeks afbeeldingen afkomstig was van één enkele bron. Deze mogelijkheid om te detecteren welke deepfakes zijn gegenereerd op basis van hetzelfde AI-model kan handig zijn voor het blootleggen van gevallen van gecoördineerde desinformatie of andere kwaadaardige aanvallen die zijn gelanceerd met behulp van deepfakes.

Facebook gebruikt het ook op andere gebieden

Interessant is dat dit algoritme aan de basis ligt van verschillende technologieën die Facebook momenteel gebruikt. Stel, deze technologie maakt het mogelijk om de componenten van een auto te herkennen op basis van hoe het klinkt. Zelfs als je de auto nog nooit eerder hebt gehoord, helpt het algoritme je om hem te identificeren.

Om hyperparameters beter te begrijpen, moet u een generatief model beschouwen als een type auto en zijn hyperparameters als zijn verschillende specifieke motorcomponenten. Verschillende auto’s kunnen er hetzelfde uitzien, maar onder de motorkap kunnen ze heel verschillende motoren hebben met enorm verschillende componenten. Onze reverse engineering-techniek lijkt een beetje op het herkennen van de componenten van een auto op basis van hoe het klinkt, zelfs als dit een nieuwe auto is waar we nog nooit van hebben gehoord.


Bron/VIA:

Categories: IT Info