SecurityWorldMarket

12-07-2020

Teknologi fjerner fordomme ved rekruttering

Jenifer Clausell-Tormon og Dignee Brandt fortæller om Develop Diverse til IDAs nye podcast Blinde vinkler i studiet. (Foto: Privat / IDA)

Med kunstig intelligens risikerer vi at forstærke skævheder i ansættelsesprocesser, og det er hverken godt for diversiteten eller den enkelte virksomhed. Det vil to iværksættere vende på hovedet med ny software. Det skriver Ingeniørforeningen IDA på sin hjemmeside.

I 1970’erne begyndte man i flere amerikanske symfoniorkestre at gennemføre auditions med musikerne gemt bag et scenetæppe. Herfra var det kun musikken, der talte. Væk var opmærksomheden på hudfarve, køn og skæve næser. Op gennem 90’erne steg andelen af kvinder i symfoniorkestre fra 5 til 25 procent.

Spørgsmålet er nu, om man kan trække tæppet for i andre brancher, så vi kan få mere diversitet på arbejdspladserne?

Mange virksomheder har med tjenester som HireView udliciteret dele af deres rekrutteringsproces til algoritmer, og det har ikke gjort spørgsmålet mindre relevant, fordi beslutningerne nu åbenlyst baseres på, hvad der har fungeret før i tiden. Det mener Kim Escherich, der rådgiver i AI og etik i IBM og er gæst i første afsnit af IDAs nye podcast Blinde vinkler.

“Hvis vi har haft en tradition de sidste 10 år med kun at ansætte hvide mænd med nogle bestemte kvalifikationer, vil algoritmen også have den fordom, når vi træner den. Så de ord og begreber, som kvinder eller ikke-hvide måtte have brugt falder igennem algoritmen. Den kan simpelthen ikke se dem, fordi de ikke eksisterer i dens begrebsverden.”

Spænder AI ben for kvinder, når de søger job?
Med hundredvis af ansøgninger til en enkelt stilling, kan virksomheder spare dyrebar tid ved brug af kunstig intelligens.

Flere virksomheder er begyndt at bruge kunstig intelligens i den første sortering af ansøgninger. Her vil en trænet algoritme på baggrund af historisk data finde frem til, hvilke ansøgninger der med størst sandsynlighed passer til de krav, virksomheden har stillet op.

Problemet er bare, at hvis vi tager vores beslutninger udelukkende på baggrund af historisk data, så risikerer vi ikke alene at reproducere strukturelle skævheder, men også at forstærke dem.

“Vi er biased som mennesker. Så i virkeligheden er AI bare en afspejling af den virkelighed, vi kommer fra med alle de fordomme, den kommer med. Så det er faktisk en stor opgave at undgå, at det sker,” siger Kim Escherich, der tidligere har haft ledelsesansvar i it-branchen.

“Jeg tænkte som leder, at jeg har behov for de skæve eksistenser, som måske ikke kan løfte os op, men løfte os i nye retninger. Jeg har ikke behov for dem, der ligner mig selv. Og det vil en algoritme jo aldrig se.”

Teknologien kan også vende bias på hovedet

I den lille startup Develop Diverse har man netop taget på sig at løse diversitetsproblemer i virksomheders måde at kommunikere på. Det har nemlig i sidste ende stor indflydelse på, hvilke medarbejdere de får.

Develop Diverse har udviklet et software-værktøj, der analyserer en tekst for stereotypt sprogbrug omkring køn, etnicitet og alder og foreslår ikke-stereotype alternativer. Værktøjet kan for eksempel bruges i forbindelse med rekruttering, når der skrives jobopslag for at nå en bredere og mere forskelligartet målgruppe.

For eksempel har Develop Diverse analyseret sig frem til, at “analytisk” er en maskulin stereotyp og “passioneret” er en feminin stereotyp.

Større virksomheder som Amazon, TDC og Danske Bank har allerede været med til at teste værktøjet, fortæller CEO og stifter af Develop Diverse, Jenifer Clausell-Tormon.

“Vi prøver at gøre dem i stand til at tage en informeret beslutning. Så vi prøver at sige, ‘det her ord i den sammenhæng har stereotypiske konnotationer. Hvis dit formål er at skrive en mere inkluderende tekst, anbefaler vi, at du ændrer ordet’. Og så giver vi alternativer, som du kan vælge imellem,” siger hun i podcasten Blinde vinkler.

Læs hele artiklen om emnet her.



Leverandører
Tilbage til toppen