Dypfalske videoer av Bill Hader som forvandles til Tom Cruise vekker bekymring for våpenbruk

Teknologi

Horoskopet Ditt For I Morgen

En viral deepfake-video av Saturday Night Lives Bill Hader som feilfritt forvandles til Tom Cruise har brakt bekymringer rundt bevæpning av dype forfalskninger tilbake til forgrunnen.



hva er alv på hylla

Videoen viser Hader i samtale med David Letterman, og hver gang han gjør et inntrykk av Cruise – eller senere Seth Rogan – forandrer ansiktet hans seg subtilt til skuespillerens ansikt.



Dette er ikke den første deepfake-videoen som går viralt. I fjor dukket det for eksempel opp flere dypfalske pornovideoer på nettet, som ser ut til å vise kjendiser som Emma Watson, Gal Gadot og Taylor Swift i eksplisitte situasjoner.



Deepfakes har også blitt brukt for å skildre høyprofilerte figurer som f.eks Donald Trump , Barack Obama og Facebooks Mark Zuckerberg komme med provoserende utsagn.

Bill Hader deepfake er imidlertid den første som viser et ansikt som 'formskifter' i et kontinuerlig klipp, og fremhever hvor sofistikert denne teknologien har blitt.

Kommentarer på videoen har uttrykt uro over den potensielle bruken av denne typen AI-teknologi.



'Jeg er like deler imponert og like deler livredd for denne teknologien,' skrev en kommentator.

'Jeg tror aldri noe har tatt meg mer på vakt... Jeg grøsset,' skrev en annen.



'Ctrl Shift AVBORT!! Dette er mer enn skremmende. Fantastisk. Men skremmende,' skrev en annen.

'Ok, så videobevis i en domstol mistet bare all troverdighet,' skrev en annen.

'Verden vil ikke bruke denne teknologien ansvarlig,' skrev en annen.

Videoens slovakiske skaper har laget og delt rundt 20 deepfake-videoer på hans YouTube-kanal , inkludert en av Jim Carrey som forvandles til Jack Nicholsons karakter i The Shining.

Han hevder at hans hovedmål er å underholde, men at videoene også er ment å øke bevisstheten i falske nyheters tidsalder.

'Jeg nevner alltid at det er en dyp forfalskning i tittelen og beskrivelsen - jeg vil ikke villede noen,' sa han Vergen .

Noen eksperter hevder imidlertid at teknologien lett kan bli våpen for å spre falske nyheter og propaganda, eller diskreditere politiske rivaler.

'Tenk deg når alt dette er skikkelig bevæpnet på toppen av allerede ødelagte og ekstreme nettøkosystemer og folk slutter å tro på øynene og ørene sine,' twitret teknisk kommentator Gavin Sheridan .

I mellomtiden hevder talesynteseforsker Dr Matthew Aylett at arbeidet allerede er i gang for å utvikle dypfalsk lyd, som er når stemmer blir replikert eller gjenskapt av en datamaskin for å si alt skaperen vil.

Silhuett av en hacker

(Bilde: Shutterstock)

'Det du ser er mindre viktig enn det du hører,' sa Dr Aylett, Chief Scientific Officer ved Tekst-til-tale-spesialist CereProc.

«En dypfalsk video, hvor feilinformasjon er målet for kriminelle eller andre dårlige skuespillere, er ikke skadelig med mindre det er et budskap og det er troverdig. Dette er ikke visuelt i de fleste tilfeller, det er auditivt.

«Gjennom å bruke våpen til denne teknologien, kan du lage samtaler eller uttalelser som aldri har skjedd.

'De mulige kriminelle eller uredelige søknadene for er utrolig brede - alle som har ferdighetene kan spre falske nyheter, påvirke ansatte ved å videreformidle falske kommandoer fra toppledelsen, skape falske bevis for å endre utfallet av rettssaker, til og med utpresse uskyldige mennesker.'

Kunstig intelligens

En av de største truslene mot den gjennomsnittlige personen er telefonsvindel, ifølge Dr Aylett.

'Ved å bruke dypfalsk lyd for å gjenskape en kjærs stemme, kan ofre bli lurt eller lurt til å dele bankopplysningene sine eller overføre penger til en tredjepart.'

USAs kongresskvinne Yvette Clarke nylig beskrev deepfakes som en 'alarmerende trend' og en potensiell trussel mot demokratiet.

'Hvis den amerikanske offentligheten kan fås til å tro og stole på endrede videoer av presidentkandidater, er vårt demokrati i alvorlig fare,' sa hun.

'Vi må jobbe sammen for å stoppe deepfakes fra å bli det avgjørende trekk ved valget i 2020.'

datatelling ='3' data-numberedMest leste
Ikke gå glipp av

Se Også: