
Människor litar mer på AI-genererade deepfake-ansikten än på riktiga
Avancerade AI-tekniker för att manipulera bilder, video, och text har utvecklats intensivt under de senaste åren. Deepfake-tekniker har idag blivit så pass avancerade att människor inte längre kan skilja på riktiga jämfört med AI-genererade ansikten. En ny studie visar på att människor till och med litar mer på deepfake-genererade ansikte än på riktiga. Detta innebär farliga risker för desinformation och bedrägerier, och det är därför viktigt att väcka uppmärksamhet kring tekniken
Vad är deepfake?
Deepfake står för förfalskningar skapade med hjälp av djup maskininlärning (teknik inom artificiell intelligens). Det är med andra ord avancerad AI-teknik som används för att förfalska foton, videos, ljud, och text. Deepfakes används oftast i oetiska sammanhang, som till exempel:
- Förfalskning av individers ansikten i AI-generade bilder, videor, och tal, utan deras samtycke (exempelvis presidenters ansikten)
- Ekonomisk bedrägeri
- Utpressning
- Desinformationskampanjer och valfusk
- Kändispornografi
- Social manipulering
- Id-stöld
Trots de allvarliga riskerna och farorna med deepfakes är det långt ifrån hela jordens befolkning som vet om att tekniken finns, eller hur avancerad tekniken har blivit. Utan en globalt utbredd medvetenhet kring deepfakes, löper det stor risk att människor runt om i världen blir offer för storskaliga manipulationer, bedrägerier, och politiska agendor.
Hur fungerar tekniken?
Det finns olika metoder, men en grundläggande teknik är att en maskinmodell tränas med massvis av bilder (500-1000 st) på ett ansikte från olika vinklar, för att skapa en kopia av ansiktet. Denna datagenererad kopia kan sedan användas för att generera ansiktet i olika typer av format.
Generative adversarial networks (GANs) kan sedan användas för att syntetisera de förfalskade bilderna och videorna med ansiktet. GANs får två olika neurala nätverk att tävla mot varandra, en som genererar mer och mer övertygande ansikten, och en som identifierar förfalskade ansikten. För varje iteration, så blir programmet bättre och bättre på att syntetisera förfalskade ansikten. Det är sådan teknik som har använts mycket under dem senaste åren för att avancera deepfake-tekniker till det vi har idag.
Studie: Människor litar mer på deepfakes än riktiga
I en nyligen publicerad studie (2022), hävdas det att dagens deepfake-tekniker har blivit så avancerade att människor nu litar mer på AI-genererade ansikten än på riktiga. Författarna till studien menar på att tekniken har blivit så pass avancerad att syntetiserade ansikten har passerat the uncanny valley, och kan skapa ansikten som är nästintill oskiljaktiga från riktiga.
Hur kommer det sig att människor litar mer på deepfake-genererade ansikten än riktiga?
Tidigare psykologiska studier har visat på att människor bedömer mer genomsnittliga ansikten som mer pålitliga. Detta är relevant då AI-genererade ansikten typiskt sett ser genomsnittliga ut, vilket kan vara en möjlig förklaring.
Vad bör vi göra?
Samtidigt som de nya avancerade deepfake-teknikerna är en framgång för forskning inom datorgrafik och vision, så kommer de med tydliga faror och risker. Framförallt kan tekniken användas för massiva sociala manipulationer, bedrägerier, och desinformation som vi måste börja skydda oss mot.
Den tidigare nämnda studien föreslår exempelvis att vi vänder oss till de som utvecklar teknikerna och ber dem ifrågasätta om förmånerna är större än riskerna, och om en fortsatt teknisk utveckling verkligen bör ske. Om teknikutvecklingen inte går att stoppa, kan man vidare parallellt satsa på att utveckla skyddsåtgärder för att balansera riskerna från AI-syntetiserad media. En typ av skyddsåtgärd hade kunnat vara att få all AI-syneserad media att innehålla robusta vattenstämplar som går att spåra tillbaka till källan.
Säkerhetskollen föreslår vidare uppmaningen att alltid ifrågasätta det man ser och läser på internet, samt att mediakonsumenter kan öva på att söka efter onaturliga rörelser i ögon, ansiktsuttryck, tonläge, kroppsspråk och omgivning, i mediafiler.
Deepfake-tekniker är alltså en ny avancerad teknik, som antagligen inte går att stoppa. Det är därför viktigt att öka medvetenheten kring tekniken och de risker som finns, samt att arbeta tillsammans för att skapa skyddsåtgärder för att motverka farorna. En bra idé kan vara att från och med nu alltid ifrågasätta de videos och bilder vi ser i media, och alltid ha i baktanke att vi inte längre kan blint lita på videor och bilder som bevis.
UX Connections, the UX design agency with UX/UI consultants to help your digital product succeed.
Prenumenera på bloggen
Gå med för att få det senaste inom tech och design, direkt till din inbox.

Vårt team av UX-designer skapar kundupplevelser som dina användare kommer att älska.
Följ oss på sociala medier
Leave a Reply