Perfecte nepvideo's worden herkend door kunstmatige intelligentie
Perfecte nepvideo's worden herkend door kunstmatige intelligentie

Video: Perfecte nepvideo's worden herkend door kunstmatige intelligentie

Video: Perfecte nepvideo's worden herkend door kunstmatige intelligentie
Video: Soft Sparkling | Curved, Plus-size, Fashion Model, Body Positivity, Bio, Wiki, Height, Age, - YouTube 2024, April
Anonim
De première van de opera over de vetiging van Litvinenko begint in Engeland
De première van de opera over de vetiging van Litvinenko begint in Engeland

Een jaar geleden hielp Manish Agrawala van Stanford bij de ontwikkeling van lipsynchronisatietechnologie waarmee video-editors de woorden van sprekers bijna onmerkbaar konden veranderen. De tool kan gemakkelijk woorden invoegen die een persoon nooit heeft gesproken, zelfs niet in het midden van een zin, of woorden verwijderen die hij heeft gezegd. Alles ziet er realistisch uit met het blote oog en zelfs voor veel computersystemen.

Deze tool heeft het veel gemakkelijker gemaakt om fouten te herstellen zonder hele scènes opnieuw op te nemen, en heeft ook tv-programma's of films aangepast voor verschillende doelgroepen op verschillende plaatsen. Maar deze technologie heeft ook verontrustende nieuwe mogelijkheden gecreëerd voor moeilijk te vinden nepvideo's, met de duidelijke bedoeling om de waarheid te verdraaien. Een recente Republikeinse video gebruikte bijvoorbeeld een ruwere techniek voor een interview met Joe Biden.

Deze zomer onthulden Agrawala en collega's van Stanford en UC Berkeley een op kunstmatige intelligentie gebaseerde benadering van lipsynchronisatietechnologie. Het nieuwe programma detecteert nauwkeurig meer dan 80 procent van de vervalsingen en herkent de kleinste verschillen tussen de geluiden van mensen en de vorm van hun mond.

Maar Agrawala, directeur van het Stanford Institute for Media Innovation en hoogleraar computerwetenschappen aan Forest Baskett, die ook verbonden is aan het Stanford Institute for Human-Centered Artificial Intelligence, waarschuwt dat er geen technische langetermijnoplossing is voor diepe vervalsingen.

Hoe vervalsingen werken

Er zijn legitieme redenen voor videomanipulatie. Iedereen die bijvoorbeeld een fictief tv-programma, film of commercial filmt, kan tijd en geld besparen door digitale tools te gebruiken om fouten te corrigeren of scripts aan te passen.

Het probleem ontstaat wanneer deze tools opzettelijk worden gebruikt om valse informatie te verspreiden. En veel van de technieken zijn onzichtbaar voor de gemiddelde kijker.

Veel diepe nepvideo's zijn gebaseerd op gezichtswisselingen, waarbij het gezicht van de ene persoon letterlijk op de video van een andere persoon wordt geplaatst. Maar hoewel tools voor het veranderen van gezichten aantrekkelijk kunnen zijn, zijn ze relatief grof en laten ze meestal digitale of visuele artefacten achter die een computer kan detecteren.

Aan de andere kant zijn lipsync-technologieën minder zichtbaar en daarom moeilijker te detecteren. Ze manipuleren een veel kleiner deel van het beeld en synthetiseren vervolgens lipbewegingen die precies overeenkomen met hoe iemands mond daadwerkelijk zou bewegen als hij of zij bepaalde woorden zou spreken. Volgens Agrawal kan een nepproducent, als hij genoeg voorbeelden van iemands beeld en stem krijgt, iemand alles laten 'zeggen'.

Valsgelddetectie

Bezorgd over het onethische gebruik van dergelijke technologie, werkte Agrawala samen met Ohad Freed, een doctoraalstudent aan Stanford, om een detectietool te ontwikkelen; Hani Farid, professor aan de University of California, Berkeley School of Information; en Shruti Agarwal, een doctoraalstudent aan Berkeley.

In eerste instantie experimenteerden de onderzoekers met een puur handmatige techniek waarbij waarnemers videobeelden bestudeerden. Het werkte goed, maar in de praktijk was het arbeidsintensief en tijdrovend.

De onderzoekers testten vervolgens een op kunstmatige intelligentie gebaseerd neuraal netwerk dat veel sneller zou zijn om dezelfde analyse uit te voeren na een training op video met voormalig president Barack Obama. Het neurale netwerk detecteerde meer dan 90 procent van Obama's eigen lipsynchronisatie, hoewel de nauwkeurigheid voor andere sprekers daalde tot ongeveer 81 procent.

Een echte test van de waarheid

De onderzoekers zeggen dat hun aanpak slechts een onderdeel is van het kat-en-muisspel. Naarmate technieken voor diepe vervalsing verbeteren, laten ze nog minder sleutels achter.

Uiteindelijk, zegt Agrawala, is het echte probleem niet zozeer het bestrijden van nepvideo's als wel het bestrijden van desinformatie. In feite, merkt hij op, komt veel van de verkeerde informatie voort uit het verdraaien van de betekenis van wat mensen daadwerkelijk zeiden.

"Om verkeerde informatie te verminderen, moeten we de mediageletterdheid verbeteren en verantwoordingssystemen ontwikkelen", zegt hij. "Dit kan wetten betekenen die de opzettelijke productie van verkeerde informatie en de gevolgen van het overtreden ervan verbieden, evenals mechanismen om de resulterende schade te elimineren."

Aanbevolen: