
Artificial Intelligence, Disruptive Tech
Metas nya AI-modell ska faktagranska Wikipedia
Information har aldrig varit så lättillgängligt som i modern tid. Idag kan du med en snabb sökning på Google få upp flera hundratusentals resultat, varav Wikipedia är framstående. Information på Wikipedia är dock inte faktagranskad och för att fixa detta arbetar nu Meta, före detta Facebook, med att utveckla en ny AI-modell som kan faktagranska källor.
Wikipedia är opålitligt
Bild: Luke Chesser
Wikipedia är världens sjunde mest besökta hemsida, med över 59 miljoner artiklar om diverse ämnen. Problemet är att innehållet på Wikipedia är uppbyggt av användarna, där vem som helst kan gå in och redigera artiklar, samtidigt som informationen som finns inte blir faktagranskat. Detta gäller även referenser, citat, och källor.
Trots att informationen på WIkipedia inte är granskat, så sprids artiklarna över hela världen. Det många är omedvetna om är att informationen är opålitlig, trots att Wikipedia själva nämner att de inte anser information på sidan som pålitlig. Detta kan bero på att sidan har en så väl etablerade roll som encyklopedi och att artiklar dessutom är uppbyggda av referenser, likt vetenskapliga texter.
Även de som är medvetna om Wikipedias opålitlighet kan lätt glömma bort det i stunder då man endast är ute efter snabb information. Risken med detta är självklar. En encyklopedi som används av människor världen över och som har stort inflytande på allmänhetens kunskap bör med all fördel innehålla korrekt information.
Metas AI-modell för faktagranskning
Meta, före detta facebook, har valt att ta sig an problemet. I ett blogginlägg presenterar de sin nya AI-modell som är utvecklad med hjälp av maskininlärning och utformad för att kunna automatiskt verifiera citat på Wikipedia.
Utmaningen ligger i att AI-modellen behöver förstå innehållet av citat för att kunna jämföra det med dess referens. Denna jämförelse är inte möjligt att göra genom att bara matcha bokstäver och siffror från två olika texter, då naturligt språk är för komplext för det. Därmed behöver jämförelsen ske mellan matematiska representationer av texter.
För att lyckas med detta bygger AI-modellen ett index av artiklar och delar in texter i bitar (eng: chunks). Dessa bitar blir sedan tillskrivna var sin beskrivning för dess innebörd. Innebörden av biten jämförs därefter med referensen, för att kontrollera om fakta stämmer.
Meta hoppas på att AI-modellen, utöver att kunna identifiera felaktiga citat på Wikipedia, även skall kunna ge förslag på riktiga källor som kan användas i stället. Dessa förslag skall komma från det index som modellen bygger upp, och som kontinuerligt uppdateras.
Svårt att bedöma källors trovärdighet
Utöver förmågan att kunna kontrollera om citat kommer från dess givna källa, behöver Metas AI modell även kunna skilja på pålitliga och opålitliga källor. Dock är till exempel skillnad på trovärdigheten på en artikel från en vetenskaplig tidning, och ett blogginlägg.
Skalan som behöver användas för att bedöma hur trovärdig en källa är kan dock bli komplex. Detta eftersom utöver vart källan publicerades behöver modellen även ta hänsyn till faktorer såsom om källan är vetenskapligt granskad eller inte. Det är en utmaning som ännu inte är överkommen.
Om Meta lyckas lösa utmaningen och skapa en fulländad AI-modell för syftet kan Wikipedia bli världens största pålitliga encyklopedi. Dessutom kommer man kunna underlätta informationssökning för vetenskapliga studier. I stunden är modellen dock ännu inte färdigutvecklad, men de som är nyfikna på mer kan besöka deras demo.
UX Connections, the UX design agency with UX/UI consultants to help your digital product succeed.
Prenumenera på bloggen
Gå med för att få det senaste inom tech och design, direkt till din inbox.

Vårt team av UX-designer skapar kundupplevelser som dina användare kommer att älska.
Följ oss på sociala medier
Leave a Reply