.

ONU chama de sexista a criação de assistentes virtuais femininas por padrão

Enviado por Catos, , 0 comentários
Clique para ver a imagem em tamanho original


Um relatório divulgado recentemente pela Organização das Nações Unidas (ONU) tachou de sexista a prática de criar uma assistente virtual que, por padrão, adote voz e trejeitos de interação femininos. Atualmente, a prática é seguida por gigantes do setor de tecnologia como Apple (Siri), Microsoft (Cortana), Amazon (Alexa) e Google (Google Assistante).

Intitulado I'd blush if I could ("Eu ficaria vermelha de vergonha, se pudesse", numa tradução livre), o estudo argumenta, primariamente, que assistente - que age pelo papel de apoio e suporte - tenha de ser uma mulher. O título do estudo, inclusive, remete a uma frase utilizada pela Siri como resposta a perguntas machistas.

"Por causa da voz da maioria das assistentes ser feminina, isso envia um sinal de que mulheres são ajudantes submissas, dóceis e sempre dispostas a agradar, disponíveis com o toque de um botão ou com um comando mais ríspido de voz, como 'Ei' ou 'Ok'", diz o estudo. "A assistente não possui qualquer poder de ação além do que seu 'comandante' lhe peça. Ela honra comandos e responde a perguntas independentemente do tom ou hostilidade que lhes é apresentado. Em muitas comunidades, isso reforça vieses de gênero comumente conhecidos, de que mulheres são subservientes e tolerantes a maus tratos".


Clique para ver a imagem em tamanho original


O relato ainda continua, alegando que, à medida que esse tipo de tecnologia encontra seu caminho em comunidades e civilizações alheias às práticas ocidentais de gênero, como comunidades nativas, por exemplo, uma voz feminina programada para agir dessa forma pode reforçar preconceitos inerentes àquela comunidade:


"Como a Alexa, Cortana, Google Home e Siri são exclusivamente femininas ou femininas por padrão na maioria dos mercados, as mulheres são presumidas em uma posição de 'atendente digital', checando informações de clima, mudando a música, fazendo encomendas por meio de um comando e diligentemente vindo à atenção em resposta a saudações grossas como 'Acorde, Alexa'".


Um problema secundário, também discutido no relatório, é o fato de que algumas respostas das assistentes são propositalmente sensuais e cheias de flerte - especialmente quando a pergunta segue a mesma linha de discurso:


"Em 2017, uma investigação da [organização de notícias econômicas] Quartz mostrou que as quatro líderes do setor de assistentes digitais respondiam a assédios verbais e descobriu que todas, em média, se evadiam de abuso de forma jocosa ou respondia-os positivamente. As assistentes quase nunca respondiam negativamente ou rotulavam um discurso do usuário como inapropriado, independentemente de sua crueldade".



Clique para ver a imagem em tamanho original


Discussões similares já ocorreram no passado: foi-se o tempo, por exemplo, em que a pergunta "Siri, você é p**a" (Siri, are you a slut) fazia com que a assistente digital da Apple respondesse com "Eu ficaria vermelha de vergonha, se pudesse" (I'd blush if I could). A Apple promoveu correções de código que mudaram a resposta para "Eu não tenho resposta para isso" e similares (I don't know how to respond to that).

A questão da voz ser feminina também passa por alterações, dependendo do mercado de atuação: embora a maior parte do setor global conte com assistentes "mulheres", em países de cultura árabe ou idioma francês, holandês ou inglês britânico, a Siri tem por padrão uma voz masculina.

Um estudo conduzido pela Universidade de Indiana em 2017 mostrou que há maior assertividade e confiabilidade por parte dos usuários quando a assistente digital possui uma voz feminina. Segundo a conclusão, esse é o tipo de voz que encontram maior assertividade e receptividade. Entretanto, o estudo levou em consideração o conteúdo e não questões de gênero.

As empresas não comentaram o relatório da ONU.
Catos
Enviado por Catos
Membro desde
28 anos, Goiânia
label