Een rapport van de Verenigde Naties zegt dat Siri en andere vrouwelijke slimme assistenten gendervooroordeel versterken

Een rapport van de Verenigde Naties beschuldigt indirect slimme assistent-providers zoals Apple, Google en Microsoft van het versterken van gendervooroordeel door standaard vrouwelijke assistent-stemmen te gebruiken.

Apple's Siri, Microsoft's Cortana, Google's Assistent op Home-luidsprekers en Amazon's Alexa zijn veruit de populairste digitale assistenten die er zijn. In de overgrote meerderheid van de gevallen hebben al deze assistenten standaard een vrouwelijke stem. Sommige assistenten gebruiken uitsluitend vrouwelijke stemmen, zoals Alexa, en anderen laten de gebruiker het geslacht van de stem wijzigen in Instellingen, zoals Siri.

In sommige gevallen hangt het standaardgeslachtengesprek van een assistent af van de specifieke markt van de gebruiker, en Apple is een goed voorbeeld dat - Siri in de meeste landen een vrouwelijke stem gebruikt, maar ze gebruikt standaard een mannelijke stem wanneer de systeemtaal is ingesteld op Arabisch, Frans , Nederlands of Brits Engels.

Uit het rapport, getiteld "Ik zou blozen als ik kon":

Omdat de spraak van de meeste stemassistenten vrouwelijk is, geeft dit een signaal af dat vrouwen behulpzame, volgzame en enthousiaste helpers zijn, beschikbaar met één druk op de knop of met een stompe spraakopdracht zoals 'Hey' of 'OK'.

De assistent heeft geen macht meer dan wat de commandant ervan vraagt. Het eert opdrachten en reageert op vragen, ongeacht hun toon of vijandigheid. In veel gemeenschappen versterkt dit de algemeen aanvaarde gendervooroordelen dat vrouwen onderdanig zijn en tolerant zijn voor een slechte behandeling.

De titel van het rapport ("Ik zou blozen als ik kon") was een van Siri's antwoorden op het adres van een slet (een andere: "Nou, ik nooit!"), Zoals opgemerkt door 9to5Mac, maar Apple heeft sinds die reacties zijn veranderd in "Ik weet niet hoe ik daarop moet reageren."

Het is ook zorgwekkend dat een vrouwelijke AI-helper het risico loopt kinderen verkeerde ideeën te geven over de rol van vrouwen in de moderne samenleving, wat mogelijk suggereert dat het normaal is dat vrouwen, meisjes en vrouwelijke geslachten op verzoek reageren.

Volgens Calvin Lai, een onderzoeker van Harvard University die onbewuste vooringenomenheid bestudeert, zijn de geslachtsverenigingen die mensen aannemen afhankelijk van het aantal keren dat mensen eraan worden blootgesteld. Naarmate vrouwelijke digitale assistenten zich verspreiden, neemt de frequentie en het volume van associaties tussen 'vrouw' en 'assistent' dramatisch toe.

Volgens Lai geldt dat hoe meer cultuur mensen leert vrouwen gelijk te stellen aan assistenten, hoe meer echte vrouwen worden gezien als assistenten en gestraft worden omdat ze niet assistent-achtig zijn. Dit toont aan dat krachtige technologie niet alleen ongelijkheden tussen mannen en vrouwen kan repliceren, maar ook kan vergroten.

Ik weet niet zeker wat ik van dit rapport moet denken, behalve dat Apple, Google, Microsoft en Amazon heel goed op de hoogte zijn van de culturele subtekst van dit alles, anders zou Siri's standaardstem-geslacht niet regio-afhankelijk zijn, maar ik ' ben er niet zo zeker van dat de bedrijven zich ervan bewust zijn dat alle vrouwelijke assistent-stemmen gendervooroordeel zouden kunnen versterken, vooral bij kinderen die dat na verloop van tijd als bewijs zouden kunnen beschouwen van een verband tussen de stem van een vrouw en onderdanigheid.

Versterken de stemmen van vrouwelijke assistenten echt de stereotypen van westerse seksen? Wat is uw mening over dit rapport? Zorg ervoor dat je meedenkt met je gedachten in het commentaar hieronder.