Förra veckan berättade vi om att Microsoft sparkat omkring femtio av sina journalister och redaktörer på MSN. De ersätts med AI som väljer ut nyheter som visas i Microsofts kanaler.

Det tog inte lång tid för Microsofts satsning att visa exempel på de stora brister som består i användandet av AI och algoritmer. I en artikel på MSN om sångerskan Jade Thirlwall, som ingår i gruppen Little Mix, valde algoritmen att använda en bild på Leigh-Anne Pinnock, en av de andra sångerskorna i gruppen. Artikeln handlade dessutom om rasistisk mobbning som Thirlwall utsatts för på sin katolska skola.

AI och algoritmer har en utpräglad brist på igenkänning av icke-vita personer. Problemen ligger i att artificiell intelligens matas med bristfällig data som speglar samhällets fördomar och icke-jämställda perspektiv. 2018 gick Microsoft ut med att de skapat ett verktyg som ska uppmärksamma människor på om AI algoritmer behandlar dem utifrån ras eller kön, tydligen har de en hel del jobb kvar att göra där. Även Google och Facebook har verktyg för att flagga för AI med bristfällig träning eller data, men uppenbarligen finns det fortfarande en del saker att förbättra.

I boken Race After Technology skriver professor Ruha Benjamin om hur populära appar och algoritmer kan underbygga sociala orättvisor. Datadriven automatisering är något som framställs som neutralt, men verkligheten är långt ifrån det. I sin bok presenterar Benjamin konceptet ”Thew New Jim Code”, där hon visar på hur automatisering har förmåga att dölja, påskynda och fördjupa diskriminering.

För att skapa rättvisa algoritmer krävs mer och bättre kvalitetssäkring. Man kan exempelvis använda tredjepartsgranskning av algoritmerna för att söka efter tecken på fördomar i koden eller datat den matas med.