TNG
Bild med spelpjäser med mur som skiljer (sorterar) dem åt som illustrerar rekryteringstrenden etiska och etniska algoritmer, som TNG tar upp i sin årliga trendspaning 2018.

Trend – Et(n)iska algoritmer vid rekrytering

TNG logo trender för fördomsfri rekrytering och trendspaningArtificiell intelligens, AI, ses av många som rekryteringsvärldens frälsare. Med AI ska arbetet inom HR och rekrytering bli lättare. Som rekryterare kommer du hitta fler kandidater, skapa optimala kund- och kandidatupplevelser samt slippa både administration och kandidatfrågor då chatbots svarar på dem. Och bäst av allt, AI kommer alltid att hjälpa dig att rekrytera mer objektivt och fördomsfritt. Eller?

Att människor fattar subjektiva beslut i rekryteringar är inget ovanligt. Det kan handla om att man både medvetet och omedvetet sorterar bort en person som har ”fel” ålder eller ”fel” namn. Därför sätter många sitt hopp till att AI ska kunna hjälpa fler att rekrytera mindre fördomsfullt. Men kan vi lita på att de algoritmer som programmeras in AI-tekniken är så objektiva som vi tror? Eller är det så att de faktiskt är omedvetet subjektiva?

Människan styr datan

AI bygger på algoritmer som så småningom blir självlärande, men för att komma igång behöver de laddas med data. Ofta används då historisk data – så kallad predikativ data – som bygger på tidigare erfarenheter, beteende och resultat.

Det är den typen av data som vi människor programmerar in. Data som samlats över tid och baseras på nuvarande medarbetare, men också på tidigare anställda. Personer som rekryterats innan man övervägde en objektiv eller inkluderande process. Kanske via nätverksrekrytering eller kompisar. Människor som fick jobbet för att det då kändes bra i magen och är roliga att snacka med på fikapausen. Eller anställda som kommer från samma universitet bara för att ”det ska vara så”. Risken är därför stor att artificiell intelligens cementerar gamla fördomar genom att lära av historien och inte reflektera verkligheten som den är idag.

Etiska principer

Som en lösning anser många att algoritmer bör skrivas med etiska principer för att få in rättvis data, så kallade etiska algoritmer. Inom den akademiska världen har till exempel Stanford och Harvard börjat erbjuda kurser i AI och etik. Ett annat exempel är Googles Deepmind, som just har inrättat en forskningsenhet med fokus på etik inom AI.

Samtidigt visar en ny studie från MIT och Boston Consulting Group att det finns ett betydande kunskapsgap och låg riskmedvetenhet bland företagsledare inom området, vilket riskerar påverka utvecklingen av algoritmer i organisationer negativt. Och detta kommer påverka rekryterare och deras arbete.

Men det finns många som har börjat agera. Ett flertal utvecklare arbetar för att skapa bättre algoritmer som är mer etiska och rättvisa för att förhindra så kallad algoritmisk diskriminering. Men faktum kvarstår: många som kodar är fortfarande män och vita. Det innebär att de tar med sina förutfattade meningar in i hur man ska avkoda och läsa data. Vilket i sin tur vinklar algoritmerna fel.

För att se förbi sina egna omedvetna val och fördomar har en utvecklare i Holland tagit fram ett verktyg – Alex – som kopplas på vid kodning. Ett script larmar om koden inte är neutral. Dessutom ger Alex då förslag på hur man kan skapa en mer inkluderande kod så att exempelvis både ”affärsman” och ”affärskvinna” ska vara synonyma med ordet ”entreprenör”.

Coded gaze

Ett annat ämne som diskuteras just nu är algoritmer för ansiktskodning. Det är extra intressant för alla som verkar inom rekryteringsvärden där verktyg som HireVue växer snabbt. Företaget använder videointervjuer för att läsa av kandidaternas ansiktsuttryck. En AI-algoritm bedömer sedan ordval, gestikulering och röst för att ranka kandidaten. Men var kommer rådatan ifrån som algoritmerna agerar ifrån? Är den verkligen objektiv och rättvis? Kan den läsa alla ansikten och ansiktsuttryck samt göra korrekta tolkningar eller kommer vissa kandidatgrupper väljas bort på felaktiga grunder?hirevue-video-interview

Detta är något som AI-forskaren på MIT Joy Buolamwini har tittat närmare på. Hon forskar på ansiktsigenkänning och upptäckte ganska snabbt att alla ansikten utom ett – hennes eget mörkhyade ansikte – kunde avkodas. Hon kallar fenomenet coded gaze. Joy Buolamwinis forskning har också visat att algoritmerna är mer anpassade efter män då även kvinnliga ansiktsformer och uttryck var svårläsliga.

För att komma tillrätta med problemet har Joy nu lanserat konceptet inclusive coding, inkluderande kod. Hon har också skapat en hemsida där man kan rapportera fördomsfull kod och där det också är möjligt att få sin AI-kod granskad så att den inte diskriminerar.

Omedvetna fördomar

År 2020 kommer 50 procent av alla sökningar ske via röstsök enligt branschstatistik och även det här kommer påverka hur algoritmerna ser ut bakom sökningarna – vilka resultat som sökningen levererar. Hur objektiv är Siri när hon svarar på våra frågor? Google Assistant kommer också till Sverige och Amazons Echo arbetar redan med jobbsök. Hur vet vi att de inte vinklar sina svar efter tidigare förutfattade meningar och vad de vet om mig som kandidat idag? För de vet mycket. Det kan vi vara säkra på.

Och fördomarna tar vi tyvärr med oss. Och ibland på de mest oväntade sätt. Hur kommer det sig annars att så många digitala assistenter har kvinnliga namn? Vad ligger bakom tanken att AI-chattar ska vara kvinnor? En digital tjänst – Wade & Wendy – ger karriärrådgivning med hjälp av artificiell intelligens. AI-Wendy har titeln ”hiring assistant”, medan AI-Wade har fått den ärofyllda titeln ”personal career advisor”.wendy-hiring-assistantDet här är bara några exempel på krocken mellan de stora förhoppningar som finns på artificiell intelligens och hur långt det faktiskt är kvar tills tekniken klarar att göra opartiska bedömningar. Det finns förhoppningar om en snar förändring eftersom många nu uppmärksammar problematiken. Det leder till ökad transparens även inom algoritmer och redan idag skapas nya jobb med yrkestitlar som ethical algoritm data scientists och ethical inclusion coder. Allt för att bekämpa att de fördomar som idag finns i den analoga världen förs över in i den digitala.

Trenden är en del av TNG:s artikelserie: Trender inom fördomsfri rekrytering 2018.
Vill du veta mera om et(n)iska algoritmer och ta del av våra källor? Kontakta oss!

Vill du ha hjälp att rekrytera snabbt, fördomsfritt och med fokus på rätt kompetens?

På TNG arbetar vi med fördomsfri rekrytering och bemanning. Vi sätter kompetensen främst och ser bortom de sökandes ålder, bakgrund, etnicitet, sexuella läggning, kön och namn. Det gör att vi hittar kandidater som andra har valt bort på felaktiga grunder. Vår talangpool är därför större och bredare och vi har fler kompetenser att matcha mot ditt företags behov. Det innebär också att vi snabbare kan tillsätta uppdrag och hitta rätt medarbetare till ditt företag.

Visa mig hur ni rekryterar fördomsfritt!