Facebooks försök att ta ansvar

En gång i tiden var Facebook bara en app bland andra på telefonen. Idag är det en politisk och kulturell kraft som påverkar hela värden, och effekterna av den förändringen blev uppenbar för många, inklusive grundaren Mark Zuckerberg, först i samband med det amerikanska presidentvalet 2016.

De senaste månadens avslöjanden om hur Cambridge Analytica använt Facebook-användarnas data för att skapa riktad politisk reklam under det amerikanska presidentvalet tydliggjort den insikten för ännu fler.

Två miljarder människor använder Facebook varje månad, 1,2 miljarder av dessa dagligen. Det är väsentligt mycket mer än den räckvidd som en enskild nyhetssajt, tv-kanal, tidning, eller magasin har någon annanstans i världen. Lägg sedan till att på listan över världens mest nedladdade appar äger Facebook tre av de som kan konkurrera med Facebook i popularitet –Whatsapp, Messenger och Instagram. Uttryckt annorlunda: Aldrig tidigare i historien har så mycket makt att påverka människors världsbild varit koncentrerad till en enskild organisation.

Under presidentvalskampanjen 2016 rapporterade media att Facebook svämmade över av falska nyheter som fick stor spridning, som den att påve Franciskus förordade Donald Trump som president (falskt). Media skrev att halvsanningar och felaktig information tycktes spridas snabbare än fakta och korrekta uppgifter. Uppenbarligen hade olika aktörer sina motiv för att mata partiska bubblor på Facebook med nyheter som låg i linje med bubblornas fördomar om andra bubblor.

Varför gjorde inte Facebook något för att stoppa det? Varför ändrade man inte algoritmen så att nyheter från falska nyheter-fabrikerna inte längre syntes? Varför tillsatte man inte en redaktör som kunde identifiera och blockera de hyperpartiska nyheter som förstärkte polariseringen av den politiska debatten?

DacnnGYWsAIlvz-

I utfrågningen i senaten gjorde Mark Zuckerberg en pudel, bad om ursäkt och sa gång på gång att han nu anser att Facebook haft en alltför snäv syn på vilket ansvar man har. Frågan är varför det behövde dröja ända till nu.

Mina egna erfarenheter av programmering gör att jag kan se att en av de viktigaste förklaringarna är att Facebook närmade sig problemet med falska nyheter och riktadpolitiskt ur en programmerares perspektiv, snarare än ur en redaktörs perspektiv. När Facebook gör ändringar av algoritmen bygger det på att man har funnit data som tyder på att användarna vill ha en förändring. Algoritmens mål är att räkna ut vad användaren finner meningsfullt och relevant– för att använda ett ord Mark Zuckerberg använde frekvent under senatsförhöret – och ge användarna mer av det. Varje gång du öppnar Facebook-appen görs en beräkning av relevansen hos runt 2000 inlägg i ditt nätverk (det är mer komplicerat än enbart antalet ”gilla”, antalet kommentarer eller delningar). Uppgiften att sätta samman ditt nyhetsflöde är med andra ord en gigantisk ekvation.

För några år sedan blev klick-lockande rubriker av typen ”Gravida Youtube-kändisen plötsligt död” stort på Facebook. Trots att användarna uppgav i olika undersökningar (Facebook gör sådana också) att de hatade dessa klickbeten, fortsatte de att klicka på dem. Data visade att användarna sällan delade vidare artiklarna, att man snabbt återkom till nyhetsflödet och att några av de populäraste klickbetena innehöll återkommande fraser (”Fem sätt som …” och ”… – du kan aldrig ana vad som hände sedan.”). Facebook justerade sin algoritm därefter, fann att användarna tyckte att den nya upplevelsen var lika meningsfull som tidigare, och problemet avtog.

Problemet med partiska, delvis falska och helt falska nyheter kunde dock inte lösas lika lätt. Hindret är filosofiskt, inte tekniskt. Genom historien har den offentliga diskussionen tjänat på att ge så många som möjligt en röst, eftersom det ger en ökad mångfald av perspektiv. Det Facebook upptäckte under 2016 var att mängden röster – två miljarder – också bidrog till en fragmentisering av verkligheten. Internt på Facebook kände man till teorin att algoritmen kunde bidra till att skapa filterbubblor, men det hade alltid betraktats som ett intressant intellektuellt problem snarare än något att lägga energi på, som en ingenjör uttryckte saken i en artikel i New York Times

Minns att Facebooks förhållningssätt är programmerarens, inte redaktörens. Tekniken antas vara neutral. Användaren förutsätts ta ansvar för sitt eget nyhetsflöde på Facebook. Det är en skarp kontrast mot den fria pressen, där man har en ansvarig utgivare som tar ansvar för allt innehåll. Om något inte är sant förlitar sig Facebook på att användarna tar ansvar för att inte sprida det.

Det Facebook skapat är med andra ord en redaktion som styrs av robotredaktörer och de egna läsarna. Om Facebook skulle anställa människor som redaktörer och skapa ett system för att svartlista de som sprider falska nyheter skulle man bli det man försökt undvika hela tiden: ett medieföretag. Det skulle tvinga Facebook att göra något man aldrig gjort – att ignorera vad användarna gillar.

I senaten erkände Zuckerberg gång på gång att Facebook borde haft ett bredare perspektiv på ansvar tidigare, att det var ett stort misstag som han har ansvar för.

Det är lätt för både bolaget och bolagets kritiker att säga en sådan sak, men hur det ska omsättas i praktiken är svårare att avgöra. Det är en sak att bolaget vidtar åtgärder för att öka användarnas kontroll över sin data, men en helt annan om bolaget skulle ta steg mot att försöka styra de politiska budskap som visas på sajten.

Det skulle uppfattas som censur och vara lika dåligt för användarna som för Facebooks aktieägare och är därför än osannolik utveckling. Hur gärna vi skulle önska att någon annan tog ansvar för att utrota hot och hat, motverka spridandet av propaganda och desinformation och förse oss med en välbalanserad bild så kan vi inte frånta oss ansvaret för att själva göra det.

Kritiken mot Facebook är i många fall berättigad, men den är i många fall också ett bakvänt sätt att uttrycka en önskan om att Facebook ska kunna se till att en hel befolkning är välinformerad. Kraven på att Facebook ska ta ansvar för vår världsbild är också en önskan från andra om att slippa samma ansvar.

Läs om hur tekniken påverkar vår att skaffa oss en korrekt uppfattning av världen i boken ”Den stora bubblan” som Per Grankvist är aktuell med nu

Skaffa dig nya perspektiv

Ta del av Pers syn på aktuella händelser med nyhetsbrevet Perspektiv. Direkt i din inbox, en gång varje månad.

Tack för att du prenumererar

Hoppsan! Något gick fel!

  • Helena Roth

    ‘Tekniken anses vara neutral’ skriver du och det tänker jag är ett antagande som ‘vi’ till mans gör, som verkligen ställer till det.

    Jag rekommenderar Anil Dash i samtal hos Krista Tippett för mer (insatta, han kan sin sak väl) tankar kring just det, där kontentan är att Nej, den är inte neutral. Det behövs en ‘moral reckoning’: http://helenaroth.com/moral-reckoning/

  • http://www.pergrankvist.se Per Grankvist

    Ur en programmerares perspektiv är tekniken neutral, ett språk som alla andra utan inneboende värde. Men precis som språket är tekniken är varken ond eller god, men det den likväl inte neutral. Vi behöver onekligen tala mer om teknikens möjligheter att förenkla och försvåra livet, och utifrån det ha en diskussion om hur vi förhåller oss till det ur ett etiskt perspektiv.