Artificial Intelligence, Disruptive Tech

Metas nya AI-modell ska faktagranska Wikipedia

Wendy Zhou, Journalist
@uxconnections

Information har aldrig varit så lättillgängligt som i modern tid. Idag kan du med en snabb sökning på Google få upp flera hundratusentals resultat, varav Wikipedia är framstående. Information på Wikipedia är dock inte faktagranskad och för att fixa detta arbetar nu Meta, före detta Facebook, med att utveckla en ny AI-modell som kan faktagranska källor.

Wikipedia är opålitligt

An image of Wikepedia's own Wikipedia page.

Bild: Luke Chesser

Wikipedia är världens sjunde mest besökta hemsida, med över 59 miljoner artiklar om diverse ämnen. Problemet är att innehållet på Wikipedia är uppbyggt av användarna, där vem som helst kan gå in och redigera artiklar, samtidigt som informationen som finns inte blir faktagranskat. Detta gäller även referenser, citat, och källor.

Trots att informationen på WIkipedia inte är granskat, så sprids artiklarna över hela världen. Det många är omedvetna om är att informationen är opålitlig, trots att Wikipedia själva nämner att de inte anser information på sidan som pålitlig. Detta kan bero på att sidan har en så väl etablerade roll som encyklopedi och att artiklar dessutom är uppbyggda av referenser, likt vetenskapliga texter.

Även de som är medvetna om Wikipedias opålitlighet kan lätt glömma bort det i stunder då man endast är ute efter snabb information. Risken med detta är självklar. En encyklopedi som används av människor världen över och som har stort inflytande på allmänhetens kunskap bör med all fördel innehålla korrekt information.

Metas AI-modell för faktagranskning

Meta, före detta facebook, har valt att ta sig an problemet. I ett blogginlägg presenterar de sin nya AI-modell som är utvecklad med hjälp av maskininlärning och utformad för att kunna automatiskt verifiera citat på Wikipedia.

Utmaningen ligger i att AI-modellen behöver förstå innehållet av citat för att kunna jämföra det med dess referens. Denna jämförelse är inte möjligt att göra genom att bara matcha bokstäver och siffror från två olika texter, då naturligt språk är för komplext för det. Därmed behöver jämförelsen ske mellan matematiska representationer av texter.

För att lyckas med detta bygger AI-modellen ett index av artiklar och delar in texter i bitar (eng: chunks). Dessa bitar blir sedan tillskrivna var sin beskrivning för dess innebörd. Innebörden av biten jämförs därefter med referensen, för att kontrollera om fakta stämmer.

Meta hoppas på att AI-modellen, utöver att kunna identifiera felaktiga citat på Wikipedia, även skall kunna ge förslag på riktiga källor som kan användas i stället. Dessa förslag skall komma från det index som modellen bygger upp, och som kontinuerligt uppdateras.

Svårt att bedöma källors trovärdighet

Utöver förmågan att kunna kontrollera om citat kommer från dess givna källa, behöver Metas AI modell även kunna skilja på pålitliga och opålitliga källor. Dock är till exempel skillnad på trovärdigheten på en artikel från en vetenskaplig tidning, och ett blogginlägg. 

Skalan som behöver användas för att bedöma hur trovärdig en källa är kan dock bli komplex. Detta eftersom utöver vart källan publicerades behöver modellen även ta hänsyn till faktorer såsom om källan är vetenskapligt granskad eller inte. Det är en utmaning som ännu inte är överkommen.

Om Meta lyckas lösa utmaningen och skapa en fulländad AI-modell för syftet kan Wikipedia bli världens största pålitliga encyklopedi. Dessutom kommer man kunna underlätta informationssökning för vetenskapliga studier. I stunden är modellen dock ännu inte färdigutvecklad, men de som är nyfikna på mer kan besöka deras demo.

UX Connections, the UX design agency with UX/UI consultants to help your digital product succeed.

Subscribe to the Blog
Join for the latest tech, design and industry news straight to your inbox.

Our UX team designs customer experiences and digital products that your users will love.

Follow Us

Related articles

Leave a Reply

Your email address will not be published.