Detta Bill Hader Deepfake Video Är Fantastiskt. Det är Också Skrämmande för Vår Framtid.

Föreställ dig detta: Du klickar på en nyhet klipp och se President i Usa vid en presskonferens med utländska ledare. Dialogen är riktigt. Presskonferens är riktiga. Du delar med en vän. De delar med en vän. Snart har alla sett det. Först senare lär man sig att presidentens huvud var överlagrade på någon annans kropp. Inget av det någonsin verkligen hände.

Låter långsökt? Inte om du har sett denna wild video från YouTube-användaren Ctrl Shift Ansikte:

I klippet, komikern Bill Hader aktier en berättelse om sina möten med Tom Cruise och Seth Rogen. Som Hader, en skicklig impressionistiska, gör sitt bästa för Kryssning och Rogen, de skådespelarnas ansikten smidigt, skrämmande smälta in i sin egen. Tekniken gör Hader intryck att mycket mer levande, men det visar också hur lätt—och potentiellt farliga—det är att manipulera innehållet i videon.

Vad Är en Deepfake?

Det Hader video är en omsorgsfullt utformad deepfake, en teknik som uppfanns under 2014, av Ian Goodfellow, Doktorand D. student som nu arbetar på Apple. De flesta deepfake teknik är baserad på generativ kontradiktoriska nätverk (GANs).

GANs aktivera algoritmer för att flytta bortom klassificera data till att skapa eller skapa bilder. Detta inträffar när två GANs försöker lura varandra att tro att en bild är “riktiga”. Med hjälp av så lite som en bild, en erfaren GAN kan skapa ett videoklipp som person. Samsungs AI Center släppte nyligen forskning som delar vetenskap bakom detta synsätt.

“Viktigast av allt är att systemet ska kunna initiera parametrarna för både generator och de som diskriminerar i en person-visst sätt, så att utbildning kan vara baserade på bara några bilder och gjort snabbt, trots behov av att lyssna tiotals miljoner av parametrar, säger forskarna bakom papper. “Vi visar att en sådan strategi kan lära sig mycket realistiska och personliga talar chef modeller av nya människor och även porträtt.”

För nu är det bara gällde att prata huvud videor. Men då 47 procent av Amerikanerna titta på sina nyheter via online-video innehåll, vad som händer när GANs kan få folk att dansa, klappa i händerna eller på annat sätt manipuleras?

Varför Är Deepfakes Farligt?

Om vi glömmer det faktum att det finns över 30 nationer som är aktivt engagerade i cyberkrig som helst, då den största oro med deepfakes kan vara saker som en illa genomtänkt webbplats Deepnudes, där kändis ansikten och ansikten av vanliga kvinnor kan läggas ovanpå på pornografiskt innehåll.

Deepnudes grundare till slut avbryts webbplatsens lansering, rädsla för att “sannolikheten att människor kommer att missbruka det är för höga.” Tja, vad annars skulle folk gör med falska pornografi innehåll?

“På den mest grundläggande nivån, deepfakes är ligger dold för att se ut som sanning, säger Andrea Hickerson, Chef för Journalistik och masskommunikation vid University of South Carolina. “Om vi tar dem som sanning eller bevis, kan vi enkelt göra felaktiga slutsatser med potentiellt katastrofala följder.”

En hel del rädsla deepfakes rätteligen gäller politik, Hickerson säger. “Vad händer om en deepfake video skildrar en politisk ledare uppviglar till våld eller panik? Kan andra länder tvingas att handla om hotet var omedelbart?”

Med europa 2020-valet närmar sig och det fortsatta hotet av it-angrepp och cyberkrig, vi måste allvarligt överväga några skrämmande scenarier:

  • Weaponized deepfakes kommer att användas i europa 2020-val cykel för att ytterligare ostracize, skydda och dela den Amerikanska väljarkåren.
  • Weaponized deepfakes kommer att användas för att förändra och påverka rösta beteende, men också att konsumenternas preferenser för hundratals miljoner Amerikaner.
  • Weaponized deepfakes kommer att användas i spear phishing och andra kända it-säkerhet attack strategier för att mer effektivt rikta offer.

Detta innebär att deepfakes sätta företag, individer, och regeringen på ökad risk.

“Problemet är inte de GAN-teknik, nödvändigtvis, säger Ben Lamm, VD, AI företaget Hypergiant Branscher. “Problemet är att dåliga aktörer har för närvarande en uppförstorade fördel och det finns inte lösningar på plats för att hantera det växande hotet. Det finns dock ett antal lösningar och nya idéer som dyker upp i AI gemenskapen för att bekämpa detta hot. Fortfarande, lösningen måste vara människor först.”

Vad Som Görs för att Bekämpa Deepfakes?

Förra månaden, USA: s representanthus ” Intelligens Utskottet har skickat ett brev till Twitter, Facebook och Google för att fråga hur de sociala medier som planeras för att bekämpa deepfakes i 2020-valet. Utredningen kom till stor del efter att President Trump tweetade ut en deepfake video av representanthusets talman Nancy Pelosi:

Detta till följd av en begäran om att Kongressen i januari ber Director of National Intelligence för att ge en formell rapport om deepfake teknik. Medan lagstiftning utredningen är kritisk, kan det inte vara tillräckligt.

Statliga institutioner som DARPA och forskare vid högskolor som Carnegie Mellon University of Washington, Stanford University, och Max Planck-Institutet för Informatik experimenterar även med deepfake teknik. De organisationer som tittar på både hur man använder GAN teknik, men också hur man kan bekämpa den.

Utfodring algoritmer deepfake och real video, de är i hopp om att hjälp datorer identifiera när något är en djupt falska. Om detta låter som en kapprustning, det beror på att det är. Vi använder teknik för att bekämpa teknik i ett lopp som inte slutet.

Kanske lösningen är inte teknisk. Ytterligare aktuell forskning visar att möss som bara kan vara nyckeln. Forskare vid University of Oregon Institute of Neuroscience tror att “en mus modell, med tanke på den kraftfulla genetiska och elektrofysiologiska verktyg för utforskande neurala kretsar tillgängliga för dem, har potential att kraftigt öka en mekanistisk förståelse av fonetisk perception.”

Detta innebär att möss kan informera nästa generationens algoritmer som kan upptäcka falska video och ljud. Naturen skulle kunna motverka teknik, men det är fortfarande en kapprustning.

Samtidigt som framsteg i deepfake teknik kan hjälpa plats deepfakes, kan det vara för sent. När förtroendet är korroderade i en teknik, det är nästan omöjligt att få den tillbaka. Om vi korrupta en tro på video, och sedan hur länge förrän tro är vilse i nyheterna på tv, i klipp på Internet, eller i live-streamas historiska händelser?

“Deepfake videor hotar vår samhälleliga diskursen och kan orsaka allvarliga anseende och psykisk skada för individer, säger Sharon Bradford Franklin, Policy Director för Nya America’ s Open Technology Institute. “De också göra det ännu mer utmanande för plattformar för att engagera sig i ansvarig moderering av innehåll på nätet.”

“Även allmänheten är förståeligt att ringa för sociala medier för företag att utveckla tekniker för att upptäcka och förhindra spridning av deepfakes”, fortsätter hon, “vi måste också undvika att införa en rättslig regler som kommer att driva för långt i motsatt riktning, och tryck plattformar för att bedriva censur av yttrandefrihet på nätet.”

Om restriktiva lagstiftning är inte lösningen, bör den teknik som bara förbjudas? Medan många hävdar ja, ny forskning tyder på GANs kan användas för att hjälpa till att förbättra “multi-tvistlösning [att] göra det möjligt att bättre bildkvalitet och förhindrar patch artefakter” i X-strålar och att andra medicinsk användning-fall-scenario skulle kunna vara precis runt hörnet.

Är det tillräckligt för att uppväga de skador? Medicin är viktigt. Men så är det att säkerställa grunden för vår demokrati och vår press.

Hur ser en Deepfake

Många Amerikaner har redan förlorat sin tro på nyheten. Och som deepfake tekniken växer, ropen av falska nyheten kommer bara att bli starkare.

“Det bästa sättet att skydda dig från en deepfake är att aldrig ta en video till nominellt värde, säger Hickerson. “Vi kan inte utgå från att se är att tro. Målgrupper bör självständigt söka samband kontextuell information och vara särskilt uppmärksamma på vem och varför någon att dela en video. Allmänhet, människor är slarviga om vad de dela på sociala media. Även om din bästa vän aktier det, bör du tänka på var att hon fick den. Vem eller vad som är den ursprungliga källan?”

Lösningen på detta problem har att drivas av enskilda personer fram till regeringar, teknologer, eller företag kan hitta en lösning. Om det inte finns en omedelbar verka för ett svar, men det kan vara för sent.

Vad vi alla borde göra är att kräva att de plattformar att sprida denna information vara till svars, att regeringen genomför insatser för att säkerställa teknik har tillräckligt med positiva användningsfall för att uppväga de negativa, och att utbildning garanterar vi vet om deepfakes och har tillräckligt med förnuft att inte dela dem.

Annars kan vi befinner oss i ett cyberwar att en hacker började som bygger på något annat än en förstärkt video. Vad då?