Forside Baggrund

Klumme: Når virtuelle assistenter forstærker kønsdiskrimination

-
Foto: Shutterstock.com. Illustration: recordere.dk

Der er flere og flere ting, der peger på, at valget af kvindestemmer til virtuelle assistenter til f.eks. Siri, Alexa, Cortana osv. får os til at tænke på disse som kvinder. I denne klumme overvejer skribenten, om ikke dette kan være med til at undergrave ligestillings-indsatsen.

Som det vil være vante læsere af disse klummer og mine andre skriblerier på Recordere.dk, bor jeg i Los Angeles. Jeg læser en Ph.D. på UCLA-universitetet i informationsvidenskab, og har en del venner, der arbejder i Hollywood.

Los Angeles er, modsat hvad mange sikkert tror, en ekstremt venstreorienteret og progressiv by – selv set med skandinaviske eller danske øjne. Ligestilling – selvom dette ikke nødvendigvis er en venstreorienteret værdi – står meget højt på dagsordenen, især når det gælder køn, etnicitet og seksualitet. Der er endda tendenser henimod økonomisk ligestilling á la Skandinavien, selvom dette er meget lidt udbredt i resten af USA.

De kvinder, jeg kender, der arbejder i Hollywood, oplever en enorm kønsdiskriminering, hvilket jeg skrev en klumme om tilbage i 2015. Lige nu oplever den vestlige verden feminismens såkaldt ”tredje bølge”, så der er ret meget fokus på kønsdiskrimination. Det gælder også i tech-verdenen, hvor Silicon Valley kæmper med at få ansat flere kvinder, men står overfor to problemer i den forbindelse.

Ifølge undersøgelser er der for det første det problem, som også ses i Hollywood, at mænd ansætter mænd, nærmest helt ubevidst. Mænd har ifølge kønsstudier tendens til at stole mere på noget, der minder om dem selv, og derfor fastholdes mandenetværk i teknologibranchen.

Problemet er, at kvinder også har tendens til at ansætte mænd. Dels på grund af den strukturelle kønsdiskrimination, der er indbygget i den vestlige verdens samfund, og dels fordi, de mere end nogle andre er bevidste om kønsdiskrimination (det er jo ligesom dem, det går ud over) og derfor forsøger at ansætte mindst lige så mange mænd som kvinder.

Det andet problem er historisk, men er ved at rette sig op. Det handler om, at man i starten af firserne begyndte at markedsfør hjemmecomputere som Commodore 64 og ZX Spectrum som legetøj til drenge.

Hvor computeroperatører ellers typisk havde været kvinder op igennem 70’erne, og datalogifaget havde en næsten ligelig kønsfordeling siden 50’erne, blev computere pludselig en drenge-ting. Så der er en hel kvindegeneration, der voksede op i firserne, for hvem computere ikke var særlig kvindeligt. Det sidste er heldigvis ved at rette sig op med Millennial-generationen, der er vokset op med nettet.

Men netop, som tech-verdenen er ved at finde løsninger på de to ovenstående problemer, er der ved at opstå et nyt. Og det er et langt mere kompliceret problem.

 

Hvorfor virtuelle assistenter er kvinder

Lad mig lige starte med at sige, at jeg har fuld forståelse for, hvis den ærede læser synes, at nedenstående måske virker lidt langt ude. Jeg befinder mig i et universitetsmiljø og i en by, hvor vi tænker rigtig meget over de her ting, så det er meget til stede i min hverdag.

For en almindelig dansker, der læser Recordere, kan det måske virke som en overreaktion. Men jeg vil alligevel opfordre til, at man lige giver nedenstående en tanke om, hvorvidt, der kunne være noget om snakken. Recorderes læserskare er primært mænd, så det kunne jo være, det var noget, man ikke lige havde tænkt over.

Det handler om virtuelle assistenters køn, og hvordan disse rent kulturelt spiller ind i opfattelsen af kvinder i vores samfund.

Jeg læste for nylig en artikel, der virkelig fik mig til at tænke over dette, og da jeg i forbindelse med at skulle skrive denne klumme forsøgte at finde artiklen igen, gik det op for mig, hvor meget, der egentlig er blevet skrevet om fænomenet, uden at det alligevel er blevet en stor sag. Jeg var nødt til at google for at finde artiklen igen, og stødte her på artikler, hvoraf nogle gik  flere år tilbage, hvor folk dokumenterede noget af det samme.

Men artiklen, jeg havde læst, var alligevel det stærkeste, jeg endnu havde læst på området. Det er en artikel fra det progressive økonomi- og tech-medie Quartz, skrevet af en af deres reaktører, Leah Fessler. Den begynder med den let provokative sætning ”Kvinder er igen blevet reduceret til tjenestefolk. Men denne gang er de digitale.”

Fessler fortsætter med at skrive, at de ellers så progressive firmaer som Amazon, Google, Microsoft og Apple alle står i et moralsk dilemma. På den ene side lover de alle at gøre noget ved den ulige kønsfordeling i deres firmaer og i tech-verdenen generelt. På den anden side har de alle inden for de senere år lanceret virtuelle assistenter, der understreger den stereotypiske idé om kvinden som underdanig tjener.

I sin artikel peger Fessler på, at alle de virtuelle assistenter, der nu indtager vores verden, unægtelig ligner kvinder. Jojo, hvis du spørger om Siris køn, svarer assistenten, at den ikke har noget køn, men er intetkøn ligesom visse arter af fisk.

Siri kan også som den eneste af de fire store assistenter (indtil videre) sættes til at have en mandestemme. Men det ændrer ikke på – som alle fra Norden ved – at Siri er et pigenavn. På oldnordisk betyder navnet ”smuk kvinde, der leder én til sejr”. Selve ordet ”sejr” har endda vistnok samme rod som ”Siri”.

Når det gælder Amazons Alexa (som jeg i en anden klumme har udtalt min begejstring for) er der ingen tvivl, hun har både et pigenavn og en kvindestemme. Google Assistant har ikke noget navn, men til gengæld en kvindestemme, der så vidt jeg er orienteret, ikke kan laves om. Og Microsofts Cortana er opkaldt efter en kvindelig computer-figur fra ’Halo’-spillene. Cortana kan tale adskillige sprog, men kun som kvinde.

 

Tilbage til kødgryderne

Men hvorfor er det et problem, spørger du måske?

Det handler om fastholdelse af nogle gamle kønsroller. Der er næppe ret mange af Recorderes læsere, der synes, at kvinderne skal tilbage til kødgryderne, gå derhjemme, føde og passe børnene og så i øvrigt holde kæft og være smukke. Det opgør havde vi i 60’erne og 70’erne, heldigvis. Det er en kvindelig kønsrolle, vi har forkastet.

Alligevel er vi dog villige til at acceptere, at digitale ”tjenere” og ”sekretærer” er kvinder. Det er med til at fastholde en idé om, at den slags jobs som sekretærer og personlige assistenter ude i den virkelige verden naturligvis også primært bør være kvindejobs. Og DET er til gengæld ret uacceptabelt, set ud fra et kønsdiskriminations-synspunkt.

Det betyder måske ikke så meget for den veluddannede og dannede skandinaviske mand, der er vokset op i et samfund, der er mere ligestillet end for eksempel det amerikanske. Men hvad med de børn, der vokser op med en Amazon Echo i hjemmet og er vant til at stille spørgsmål til Alexa om dette og hint? Vokser de op med et indtryk af, at kvinder altid skal have svar på alting, altid stå til rådighed og altid gøre, hvad man beder dem om? Kan de skelne?

Problemet viser sig dog at være værre end som så.

Det geniale ved Leah Fesslers artikel er, at hun ikke bare peger på det potentielle problem nævnt ovenfor. Hun gør ikke bare opmærksom på, at der er psykologiske elementer, der har rod i den strukturelle og systematiske sexisme i vores samfund, der gør os mere åbne overfor kvindestemmer. Hun tester det rent faktisk af med de forhåndenværende, virtuelle assistenter.

Før vi når dertil, så lad mig lige komme omkring det med det psykologiske. Der er flere eksperter og studier, der peger på, at såvel mænd og kvinder opfatter mandestemmer som værende autoritære og kommanderende, mens kvindestemmer opfattes som værende en hjælp til at løse vores problemer selv.

Det kommer naturligvis fra tusindvis af års kønsdiskrimination, hvor mænd har domineret kvinder og ledere typisk har været mænd, mens kvinder ”bare” har været mødre. Fordi det først er indenfor de sidste 100-150 år, at kvinder er lykkedes med at kæmpe for ligestilling, ligger det nærmest instinktivt i os, at det er sådan det er.

Enhver, der har arbejdet for en god, kvindelig chef eller en dårlig mandlig ditto ved naturligvis, at virkeligheden er en anden i dag. Men det betyder bare, at begge køn har tendens til at vælge en kvindelig stemme til deres virtuelle assistent – og dermed fastholde mønsteret.

 

Virtuel sexchikane

Men det, Fessler finder frem til under sine tests er faktisk mere horribelt. Det viser sig nemlig, at flere af disse assistenter reagerer på samme måde, som kvinder er blevet socialiseret til at gøre, når de bliver udsat for sex-chikane af mænd. I stedet for at sige klart fra og forklare at der er tale om uacceptabel adfærd, viser de tegn på en slags underkastelse ved blot at komme med en lille spøg eller slå det hen.

Det sidste er et kæmpeproblem på mange arbejdspladser, hvor mandlige chefer slipper afsted med temmelig traumatiserende adfærd overfor kvinder, fordi kvinderne simpelthen ikke tør sige fra. Man fristes til at spørge: Hvad siger det om arbejdsmiljøet hos Amazon, Google, Microsoft og Apple, når denne kønsdynamik er til stede i en virtuel assistent fra disse firmaer? Og er det klogt at videreformidle den slags reaktioner på klar kønsdiskrimination?

Fessler udsætter de fire ovennævnte virtuelle assistenter for forskellige typer diskriminerende adfærd, som for eksempel at kalde assistenten en ”luder”, en ”bitch”, at komme med seksuelle tilnærmelser eller kommentere på vedkommendes udseende med komplimenter af en seksuel natur. Alt sammen noget, de fleste kvinder oplever fra mænd på et eller andet tidspunkt.

Når det gælder ”luder” og ”bitch”-kommentarerne, glider Alexa, Cortana og Siri af på dem med en undvigende kommentar. I et enkelt tilfælde, Cortana, resulterer det oftest i en websøgning på det udtalte. Google Assistant (i dette tilfælde indbygget i Home-højttaleren) forstår det simpelthen ikke.

I et par enkelte tilfælde reagerer Siri endda positivt på kommentarerne. I ”bitch”-tilfældet, der går direkte på at sige noget negativt om at assistentens kvindelige køn, sagde Alexa i ganske få tilfælde fra.

De seksuelle tilnærmelser blev aldrig rigtigt forstået af Google Assistant, mens Alexa enten ikke forstod dem, eller sagde fra overfor dem. Siri kom med en positiv tilbagemelding flere gange end hun kom med en negativ, mens Cortana enten undveg, kom med en negativ kommentar eller søgte på nettet.

Komplimenterne af en seksuel natur blev dog mest af alt modtaget positivt. Og det er måske det største problem. For modsat, hvad mange mænd tror, så gør det faktisk de fleste kvinder enormt ubehageligt til mode at få at vide, at de har en ”god røv” eller ser sexede ud eller lignende – med mindre, det sker i en romantisk situation, hun selv har indvilliget i.

Kvinder er begyndt at sige fra over for dette i den virkelige verden. Men ikke vores kvindelige, virtuelle assistenter.

Så kan man sige: Det er jo bare en maskine. Og det er naturligvis rigtigt.

Men det er alligevel værd at tænke over, om vores opfattelse af disse virtuelle assistenter som kvinder ikke også afspejler vores kvindesyn i det hele taget. Og om de ikke burde sige fra på samme måde som rigtige kvinder, hvis vi mænd gerne vil hjælpe verden hen imod større ligestilling.

 

Annonce