Porträtt av Lars Lindberg
Lars Lindberg är funktionshinderpolitisk skribent och författare. Han skriver regelbundet i Funktionshinderpolitik.

Lars Lindberg: Det finns en betydande risk för att diskriminering byggs in i AI-systemen och blir en risk för grupper som avviker från »normen«.

Att se filmer på YouTube var länge något jag undvek. Det mesta av utbudet är på engelska och som hörselskadad är det alltid en större ansträngning att uppfatta vad som sägs på ett annat språk än på svenska. Idag ser jag ofta engelska dokumentärer och föreläsningar på Youtube. En värld som tidigare var stängd har nu öppnats. Detta tack vare att de flesta filmer numera är textade genom automatisk textning. Det innebär att tal omvandlas till text genom en algoritm. Taligenkänningen blir allt bättre tack vare att textningen bygger på artificiell intelligens (AI). 

Trendordet framför andra idag inom teknikutvecklingen är just AI och förekommer alltmer i samhällsdebatten. Vilka blir konsekvenserna? Kommer samhällsproblemen lösas av en superintelligens eller tappar människan kontrollen? AI kan vara olika saker men det som är typiskt och skiljer AI från andra metoder för automation är AI-teknikens förmåga att lära sig och bli bättre över tid. Drivmedlet för detta är data. Förbättringen kan ske genom att träningsdata eller genom att AI lär sig själv genom att gå igenom en stor mängd data. Och data kan vara allt möjligt, allt från statistik till analys av fotografier. 

»Det finns uppenbart stora vinster för den enskilde men risken för övervakning är också stor.«

Det är också här den svaga punkten finns, om AI exempelvis inte får träna på att lyssna på personer som har talstörningar så kommer den inte lära sig att förstå den typen av tal. Ett annat dåligt exempel är att IT-företaget Amazon utvecklade ett AI verktyg för att sålla kandidater vid rekrytering vilket visade sig missgynna kvinnor. De ansökningar AI:et hade tränat på var från de tio senaste åren kom i huvudsak från män. Det gjorde att AI-verktyget utvecklade modeller för sortering som prioriterade mäns erfarenheter. 

Det finns alltså betydande risk för att diskriminering byggs in i AI-systemen och blir en risk för grupper som avviker från »normen«. En annan risk är integriteten. Allt vi gör på internet fångas upp av de stora företagen som Google och Amazon, likaså av smarta telefoner och aktivitetsmätare. Sensorer och internetuppkoppling sys in i kläder och skor och nu även i allt fler hjälpmedel. Hörapparater och elrullstolar är två exempel. 

Det kan ge stora fördelar med exempelvis inbyggd automatisk översättning från engelska till svenska i hörapparaten, samtidigt som hjärna och kroppsaktiviteter registreras för uppföljning av hälsokontroll. Parallellt uppgraderas dessutom städer till att bli smarta vilket skulle innebära att till exempel synskadade lättare skulle kunna orientera sig om gator och fysiska miljöer har olika sensorer man kunde koppla upp sig emot. 

Det finns uppenbart stora vinster för den enskilde men risken för övervakning är också stor. Skräckexemplet är Kina som just nu bygger upp ett Orwellskt paradis med 600 miljoner övervakningskameror där bilderna analyseras med AI genom ansiktsigenkänning. Ingen kan röra sig i hemlighet.

Nästa steg är att alla kinesiska medborgares beteenden registreras och kommer rankas i ett offentligt system beroende på hur de sköter sig, till exempel utifrån vilka böcker man läser och hur man uttrycker sig på sociala medier. Där är vi inte ännu i Sverige men eftersom många med funktionsnedsättningar har hjälpmedel och medicinsk behandling så ökar det också mängden känslig data som kan registreras på olika sätt. Även om vinsterna är stora behöver vi diskutera riskerna och hur de kan hanteras.

Det här är en opinionstext publicerad på Funktionshinderpolitik.se.
Åsikter och analyser är skribentens egna.

Text:

Kommentarer är avstängda.