Hur fria är vi när altoritmerna styr vilken information vi konsumerar?
När Lawerence Lessig skrev klassikern “Code is Law” i början på 00-talet, förutspådde han inte algoritmerna på sociala medier. Men han insåg att programkod kan forma och kontrollera digitala miljöer. Att kod inte är något neutralt, kod är regler som implementerats och därmed sätter villkoren för hur den digitala tillvaron blir, menade han.
Lessig som är professor i konstitutionell lag skrev boken mot bakgrund av den diskurs kring “cyberrymden” som växte fram i kölvattnet av kalla krigets slut och webbens utveckling, där många vurmade för en statslös tillvaro som man likställde med “sann” frihet.
Idag har algoritmer djupgående inverkan på vilket informationsflöde varje individ får ta del av. Från dejtingappar till sociala medier: De senaste många åren har de haft en inverkan på vem vi gifter oss med, vem vi röstar på, vilka vänner vi umgås mest med, vilka produkter vi köper och inte minst hur mycket tid vi spenderar i det som en gång i tiden kallades “cyberrymden”.
Lessig betraktade/betraktar lagar och kod som parallella former av samhällsreglering. Han menade att det var (och är) viktigt för lagstiftare att förstå denna premiss och aktivt engagera sig i hur kod påverkar samhällsnormer och friheter för att skapa balanserade och rättvisa digitala system.
Att de senaste 20 åren givit honom rätt, skulle Soshana Zuboff sannolikt skriva under på. Zuboff, som är professor emerita vid Harvard Business School är en namnkunnig tänkare i skärningspunkten människa och maskin som bland annat skrivit boken The Age of Surveillance Capitalism. Häri redogör hon för hur stora tech-bolag utnyttjar personlig data för att förutse och forma användares beteende. En process hon kallar “övervakningskapitalism”.
Likt Zuboff, värnar den internationella människorättsadvokaten Dr. Susie Alegres i sin bok “Freedom to Think”, den personliga autonomin i vår djupt digitaliserade tidsålder. Hon talar om hur avgörande rätten att värja sig från missinformation och tänka fritt är för att vi ska lyckas upprätthålla ett demokratiskt samtal och samhälle.
Alegres bok som kom 2022 är kanske den berättelse som kan vara svårast att värja sig emot idag eftersom hon så rakt på sak problematiserar hur information som du och jag, och våra barn, aktivt matar in och passivt spåras på, på de olika some-plattformarna, och på det öppna nätet, studeras av respektive plattforms maskininlärnings-algoritm för att hitta psykologiska mönster och tillfälliga mentala tillstånd.
Alegre förespråkar ett förbud mot den här typen av profilering. Det räcker inte med etiska riktlinjer, säger hon bland annat i den här intervjun, eftersom etiska riktlinjer är frivilliga. Dom förpliktigar inte bolagen att förändra något.
Profilering kan tyckas harmlös när man enbart associerar det med reklam för ett par röda skor, eller en jacka. Men oddsen är så mycket högre – eftersom koden och algoritmerna är avancerade och mängden personuppgifter och beteende-data de matas med är så gigantisk – inte bara inom ramarna för plattformar som Facebook, utan också på det öppna nätet.
En kvalitativ studie från Danmarks Dataetiska Råd visar till exempel att 8 personer delar med sig av cirka 95 GB data om sig själva till 31 olika vardagsnära tjänster och plattformar, som Google, Facebook, Pokemon Go, Resekortet, TikTok, med flera. Det motsvarar tre Eiffeltorn av information om man printar ut det på A4-papper och staplar dem på varandra.
Den omtalade visselblåsaren Frances Haugen avslöjade exempelvis för några år sedan hur Facebooks algoritmer “uppmuntrar” eller främjar misinformation, hets mot folkgrupp och etniskt våld.
Till skillnad från den mer frekventa diskurs där man pratar om vikten av att plattformar tar ansvar för vilket innehåll som tillåts satte Haugen sökarljuset på koden – det vill säga på hur Facebook/Meta valt att designa och implementera sina algoritmer.
De av Metas algoritmer eller maskininlärnings-modeller som är kalibrerade att maximera engagemanget och tiden du är aktiv på plattformen favoriserar också kontrovers, misinformation och extremism, visade Frances Haugen.
Konsekvensen av detta har ibland varit katastrofala. Som 2017 när osanna nyheter och propaganda om Rohingya muslimerna i Myanmar fick viral spridning på Facebook och eskalerade konflikten i landet till ett regelrätt folkmord.
Frances Haugens avslöjande visade också hur interna rapporter från Meta slår fast att Instagram är ytterst skadligt mot unga tjejers mentala hälsa. Något Haugen också attribuerar till hur plattformens engagemangs-algoritmer är konstruerade.
Vad Haugen, Alegre med flera till syvende och sista konstaterar är att lagstiftning är ett måste, eftersom företagen de i huvudsak pratar om, inte visat att de kan själv-reglera – trots att de internt känner till problemen.
När Haugen vittnade i den amerikansk senaten, oktober 2021, pläderade hon därför för ett förbud mot den engagemangs-baserade rankingen, och för att Meta ska återinför det kronologiska flödet.*fotnot*
*fotno* Mer information om Facebooks roll i demokratiska val, läs här: https://www.technologyreview.com/2021/07/29/1030260/facebook-whistleblower-sophie-zhang-global-political-manipulation/
Lagstiftarna försöker hinner ikapp
Med EU:s Dataskyddsförordning landade för mer än fem år sedan en lagstiftning som på allvar värnade den enskilda individens rätt till ett privatliv i vår tidsålder. Även om verkställandet går långsamt, skiljer sig från medlemsland till medlemsland, råder det ingen tvekan om den gjort det svårare med “business as usual”, även för de bolag som ovannämnda tänkare riktar udden mot; techbolag som byggt upp sin affärsmodell på en slags “fri” åtgång till personuppgifter.
Brysseleffekten visar därutöver hur denna lagstiftning fått kusiner i många andra länder och regioner.
Nya tangerande lagar lägger sig nu sig som ett lager ovanpå GDPR. Till exempel Digital Services Act (DSA) och Digital Markets Act (DMA).
DMA beskrivs som konkurrenslagstiftning, eftersom den riktar sig mot mycket stora så kallade gatekeepers som Meta och Google, och kräver att de inte missbrukar sin marknadsdominans. Till exempel får Google inte favorisera sina egna tjänster i sökresultaten.
DSA, å dess sida, fokuserar på vilket innehåll en plattform som till exempel Facebook har. DSA har alltså udden riktat mot vad man kallar mellanhänder, som stora marknadsplatser, internetleverantörer och sociala medier. DSA kräver att dessa mycket stora online-plattformar aktivt bekämpar olagligt innehåll och skyddar integriteten hos deras användare, till exempel genom att förbjuda riktad reklam mot barn.
Även om DSA inte har den slags algoritm-fokus som Frances Haugen pläderar för, och bad den amerikanska kongressen se över, väntas den indirekt påverka hur plattformarna utformar sina algoritmer då den ställer höga krav på innehållsansvar och rättvist agerande – här i Europa.
Den teknikneutrala AI-förordningen
En lagstiftning som däremot har ett slags algoritm-fokus är AI-förordningen – Artificial Intelligence Act (AIA). Vilket kan te sig “naturligt” eftersom AI-system drivs av vad som i grunden definieras som avancerade algoritmer eller metoder.
Men kommer AIA att komma åt de algoritmiska utmaningar som Haugen, Zubof och Alegre talar om?
Kanske om de klassificeras som högrisksystem, enligt förordningens slutliga bestämmelser.
AIA är nämligen en riskbaserad lagstiftning. Den klassificerar AI-system baserat på deras risknivå och ställer stränga krav på system som anses vara av hög risk.
Samtidigt bör vi påminna oss själva om att en lagstiftning som reglerar AI givetvis inte haft ett särskilt område, som sociala medier, i åtanke när den ritades upp. Den definieras faktiskt som “teknikneutral” just för att den ska kunna vara tillämpbara på ett brett spektrum av AI-system och även framtida teknologier som vi ännu inte vet något om.
Vad är Artificiell Intelligens?
Just teknikneutraliteten kan tyckas märklig eftersom AI, hur man än vrider och vänder på frågan är en “teknik”. Men även om en lag om AI inte kan vara teknikneutral kan kanske premissen kring neutralitet vara god då den gör lagstiftningen långsiktigt hållbar.
Men vad är artificiell intelligens enligt AI-förordningen då?
Lagstiftarna ville först ha en en förhållandevis bred definition av begreppet så träffytan blev relativt stor. Det fanns också två lite olika förslag på hur AI-förordningen skulle vara utformad. En från EU-kommissionen och en från Ministerrådet.
Sedan kom förslag på en rad förändringar till kommissionens förslag från EU-parlamentet under sommaren 2023, i samband med den diskussion som uppstod när ChatGPT och de så kallade Large Language Modellerna slog världen med häpnad.
När triologen (ministerrådet, kommissionen och parlamnetet) till slut kom överens om ett gemensamt förslag till AI-förordning hade man valt en snävare definition av AI, som för övrigt går i linje med OECD:s definition av AI.
OECD:s definition Ett AI-system är maskinbaserat och kan generera utdata som påverkar fysiska eller virtuella miljöer, baserat på explicita eller implicita mål framtagna av människor. OECD:s definition inkluderar aspekter som systemets förmåga att dra slutsatser från indata. Dess autonomi och anpassningsförmåga, samt dess kapacitet att producera olika typer av utdata som förutsägelser och innehåll.
Fördelen med en mer precis definition av vad AI är att alla automatiserade och regelstyrda system inte omfattas “bara för att”. Många bolag vill till exempel digitalisera genom att automatisera. När man automatiserar vissa delar av verksamheten gör man det med regelstyrda system. Detta är dyrt, men leder sedan till bra resultat. Genom att snäva in AI-begreppet träffar man inte alla regelstyrda system bara för att, utan situationen blir mer rimlig.
Det går också att argumentera för att en “för” bred definition av AI och således stor träffyta för AI-förordningen kan inverka negativt på innovation generellt.
Transparens
I berättelsen om de effekter som algoritmerna på sociala medie-plattformar har nämns behovet av transparens. Det är bland annat därför DMA och DSA kräver transparens av gatekeepers och mycket stora online-plattformar – vilket även inkluderar hur deras algoritmer fungerar.
På Irland tror man dock inte att DSA kommer räcka till i dess nuvarande utformning – just på grund av att den har ett content-fokus istället för ett algoritm-fokus, och därför inte trots kunna komma åt kärnproblemet.
Landets nya tillsynsmyndighet, Comisiún na Meán, har därför tagit fram ett regleringsförslag som kräver att rekommendationssystem baserade på profilering ska vara avstängd i grund- eller standardläge.
Att Irland visar framfötterna i frågan nu beror bland annat på att huvudstaden drabbades av allvarliga upplopp för inte så länge sedan. Upploppen gick att härleda till just algoritmiskt förstärkt misinformation.
Kanske leder Irlands lagförslag och approach, i kombination med kraven i DSAs, till det som Frances Haugen med flera efterfrågat. Åtminstone för hur plattformarna fungerar på den europeiska marknaden.
Irland har länge utmålats som det land där man varit minst villig att sakföra techbolagen i fråga, eftersom de har sina europeiska huvudkontor i landet. Men med upploppen och den nya tillsynsmyndigheten verkar det ha skett ett skifte. I den nuvarande irländska diskursen lyfts till exempel hur problematiskt det är att man efter 5 år med GDPR fortfarande inte lyckats få till stånd compliant samtyckesfunktioner på alla plattformar och webbsidor som vill spåra människor och samla in personuppgifter. Webben läcker personuppgifter som ett såll.
Debatten är intressant eftersom den visar att det inte räcker att bara få bra lagstiftning på plats. Det krävs aktiva tillsynsmyndigheter i varje land, och människor och institutioner som är villiga att driva fall. När vi nu utöver DMA och DSA också får en AI-förordning i EU ser det ut som att vi får fler möjligheter, men risken är också att frågan om algoritmisk förstärkning hamnar mellan stolarna/lagarna.
I vilket fall som helst.
Transparens är viktigt för att upprätthålla eller värna de grundläggande rättigheter som GDPR, DMA och DSA bygger på. Konceptet är också bärande i AI-förordningen. Samtidigt kan transparens i praktiken vara omöjligt när det rör sig om de mest komplexa AI-modellerna. Och bara för att något är svårt att förklara betyder det inte att det inte ska få lov att existera.
Det här gäller särskilt när det rör sig om komplexa AI-modeller som bygger på deep learning och neurala nätverk. Vissa AI-system kan vara så komplexa att de ses om “black boxes” – där det är svårt att förstå hur de kommer fram till sina resultat eller outputs. Även om resultatet är bra, kan den underliggande processen vara matematiskt svårt att förklara.
Skriv det om facebook move fast and break things.
Utöver en lite snävare definition av AI bygger den nya AI-förordningen, som sagt, på ett riskbaserat system, med högre regleringskrav för system som har hög risk.
Att skynda långsamt – vikten av ett etiskt ansvarstagande
AI-förordningen vilar på etiska riktlinjer från Ethics Guidelines for Trustworthy AI. Riktlinjerna har tagits fram av High Level Expert Group on Artificial Intelligence – en expertgrupp som inrättats av EU-kommissionen. Och den vilar på sex principer som visar vad man som företag bör eftersträva när man vill utveckla och använda AI. Det finns ingenting som hindrar ett företag från att anamma detta om man vill. Samtidigt förpliktigar riktlinjer allena ingen verksamhet, som Dr. Alegre framhåller. Inbäddat i en riktig lag, som AI-förordningen, däremot kan den göra sitt jobb. ´
AI och GDPR är två parallella regelverk med olika syften. GDPR skyddar varje individs personuppgifter. AI-förordningen träffar all data som finns på marknaden, om än främst i AI-system.
Så vad innebär det här för system som styr vilken information individer ska se och varför i olika sociala plattformar? Att en plattform som Facebook kontinuerligt prövats och fällts utifrån ett GDPR-perspektiv är känt. Men kan deras rekommendationssystem definieras som high-risk? Det återstår att se. Just nu är ligger det dock närmare till hands att studera vilken effekt DSA och DMA kommer att ha på plattformar som Metas Facebook.
1 comment
A WordPress Commenter
Hi, this is a comment.
To get started with moderating, editing, and deleting comments, please visit the Comments screen in the dashboard.
Commenter avatars come from Gravatar.