Eu sou uma mulher trans. O Google Fotos não sabe como me categorizar

É você? Plataformas como Google Fotos, Fotos da Apple e Facebook estão forçando pessoas trans a interagir - e classificar - as fotos do nosso passado.

Eu sou uma mulher trans. O Google Fotos não sabe como me categorizar

Há duas pessoas na tela do meu telefone. Pelo menos, acho que são duas pessoas; O Google não tem tanta certeza. E nem qualquer outro sistema no mundo. Ambos têm o mesmo número de seguro social, o mesmo endereço residencial, os mesmos pais. Mas nem uma única pessoa diria que eles têm a mesma aparência. No máximo, eles veriam irmãos ou talvez primos, certamente aparentados, mas claramente de gêneros diferentes.

Este é o problema: eu sou uma mulher transgênero e tirei essas duas fotos de mim mesma, uma antes da transição e outra depois. O mundo está cheio de armadilhas como essa para mim, seja o segurança que olha minha carteira de motorista e exige uma segunda identidade antes de me deixar entrar no bar, ou o endereço de e-mail imutável que usa um nome antigo. Pessoas trans estão constantemente tendo que reconhecer o fato de que o mundo não tem uma ideia clara de quem nós somos; ou somos os mesmos que costumávamos ser e, portanto, somos chamados com o nome ou sexo errado a cada passo, ou somos diferentes, estranhos para nossos amigos e uma ameaça à segurança do aeroporto. Não há como vencer.

Os sistemas digitais tornaram isso muito pior. Para computadores e bancos de dados, o mundo existe em um binário. Ou duas coisas são iguais ou diferentes - sem ressalvas, sem um meio-termo. Mas, como uma pessoa trans, minha sensação de ser é freqüentemente condicional. Como respondo à pergunta: é você? depende de quem está perguntando.

Ser trans online



Algumas pessoas trans apagam seções inteiras de suas vidas dos servidores do Facebook e do Google apenas para que não tenham que ser apresentadas a outra tentativa de nostalgia conduzida por máquina na forma de uma memória do Facebook ou uma foto perdida aparecendo em um Google As fotos procuram, induzindo um acesso de memórias negativas e desconforto com o seu passado. Jennifer Moore, uma mulher trans com quem conversei, desmarcou-se de suas fotos antigas no Facebook.

Muitas vezes eu procuro uma foto minha, mas não quero que seja automático, diz Moore. Certamente não quero que alguém que tenha meu nome procure por mim e encontre fotos minhas antigas.

Nós dois tivemos a mesma reação: paralisia confusa.



Moore recebeu a mesma solicitação do Google Fotos que eu, e nós dois tivemos a mesma reação: paralisia confusa. Eu estava recebendo a pergunta por um ano antes de decidir o que fazer a respeito, disse Moore.

Por fim, a mídia social a convenceu a tomar uma decisão: ela ensinou ao algoritmo de aprendizado de máquina do Google Fotos que seu eu anterior era uma pessoa diferente, mantendo-o acessível, mas forçando o software a traçar uma linha entre pré e pós-transição. Ela até deu à nova pessoa o nome morto, o termo que as pessoas trans usam para designar um nome que não usamos mais após a transição.

Havia algum meme de transição antes e depois que circulava no Twitter e eu queria participar, disse Moore. Ter o Google sabendo quem eu sou ficou muito mais fácil, mas eu não queria colocar meu nome nessas fotos antigas.



Esses agrupamentos são visíveis apenas para usuários individuais e, se você desativar o recurso, todos os grupos e rótulos serão excluídos. O Google também introduziu recentemente marcação manual de rosto , que permitirá que os usuários identifiquem fotos suas em diferentes estágios de transição como pessoas diferentes e que o algoritmo gerencie o resto. O recurso de agrupamento de rostos se destina a facilitar o gerenciamento, rotular e localizar fotos de pessoas e animais de estimação de maneiras que sejam relevantes para você. Quando esse recurso está ativado, você pode ocasionalmente ver avisos pedindo feedback para ajudar a personalizar e melhorar ainda mais seus grupos, disse um porta-voz do Google em um comunicado.

Não é um objeto imutável

Alguns softwares nem mesmo dão a você a chance de ter uma crise existencial; simplesmente toma a decisão por você. E essa decisão costuma ser errada. Cayce Fisher, uma mulher trans que usa um iPhone, lembra como seu telefone decidiu agrupar todos os seus selfies, escolhendo o mais antigo, anos antes da transição, como um ícone para representar o álbum como um todo.

Ele contém fotos de casamento ao lado de fotos do local de trabalho, ao lado de selfies realmente tristes e deprimentes que tirei antes de fazer a transição, ao lado de fotos que tirei esta manhã, diz Fisher. Eu penso e me sinto diferente em relação a todas essas fotos.

No final, Fisher conseguiu alterar a foto da capa do álbum, mas o aplicativo Fotos continuou agrupando todas as suas imagens anteriores. E isso simplesmente não fazia sentido com a forma como ela se via.

Não há como entender que as pessoas crescem e mudam.

siri 0 dividido por 0
Cayce Fisher

Diz implicitamente que essa pessoa de 2002 é a mesma que essa pessoa de 2019. Não há como entender que as pessoas crescem e mudam, diz Fisher. A pessoa é um objeto imutável.

A única maneira de se livrar desse agrupamento seria removê-lo totalmente e gastar tempo para recategorizar as fotos pré e pós-transição - ou excluir totalmente as fotos antigas, uma opção que Fisher relutou em escolher.

No meu caso, assim como no dela, não quero fingir que meu passado não existe. Eu sou uma pessoa radicalmente diferente do que eu de 2013, mas essas memórias são minhas também, e nem sempre é justo me pedir para desistir delas por causa de um software mal projetado. Eu tinha quase três décadas de vida antes de fazer a transição, então mesmo o ato de dizer a um aplicativo que agora sou uma pessoa diferente por razões puramente utilitárias parece uma traição dessas memórias, como se eu estivesse tentando agir como se nunca ocorrido.

Uma anomalia na máquina

O cerne da paralisia de Moore e da frustração de Fisher com decisões como essas pode ser encontrado no simples fato de que qualquer resposta que damos a um computador é unidimensional e qualquer resposta que o computador dá é inescrutável. Isso é simplesmente parte do design, de acordo com Penelope Phippen, uma mulher trans que foi publicada em periódicos da indústria de software por seu trabalho em algoritmos de aprendizado de máquina.

O design dos modernos sistemas de aprendizado de máquina é tal que é muito difícil para as pessoas que os criam dizer por que estão fornecendo as respostas que estão fornecendo, diz Phippen. É quase impossível raciocinar sobre eles, a menos que você tenha um diploma em matemática superior, então nós simplesmente não temos.

Sem entender como uma máquina toma suas decisões, ficamos com contradições. Onde vemos uma lenta progressão de um self para outro, a máquina nos força a classificar em duas categorias: iguais ou diferentes. E embora isso funcione para a maioria das pessoas cisgênero que crescem, envelhecem e fazem mudanças graduais em sua aparência, as pessoas trans continuam sendo uma anomalia.

Os sistemas são muito projetados com essa visão cisnormativa.

como faço para assistir ao debate esta noite
Penelope Phippen

Os sistemas são muito projetados com essa visão cisnormativa, diz Phippen. Você se move pelo mundo com esta única experiência, sem essas mudanças enormes e significativas.

Sistemas de aprendizado de máquina voltados para o usuário como este dependem de dois modelos, diz Phippen. Primeiro, um modelo global que reside nos servidores do Google é treinado em centenas de milhares, senão milhões, de imagens. Esse sistema faz uma primeira etapa para categorizar cada rosto antes que ele chegue ao seu telefone. No seu telefone, outro sistema de aprendizado de máquina é treinado pelo usuário, por meio desses prompts perguntando se duas fotos são da mesma pessoa. Normalmente, esses resultados são armazenados apenas localmente e raramente são incorporados ao conjunto mais amplo de dados de treinamento.

Em suma, não é provável que confunda muito o algoritmo global se você disser ao Google que seus eus pré e pós-transição são pessoas diferentes; eles podem parecer diferentes localmente, mas se o primeiro modelo vê você como a mesma pessoa, é provável que continue assim. No final, a agência que temos sobre esses algoritmos existe em nossos telefones e em nenhum outro lugar. Identificar-me como uma pessoa diferente antes e depois da minha transição provavelmente não tornará essa escolha automática para a próxima pessoa trans que aparecer e não quiser ver seu passado revelado por uma máquina.

Agência sobre o algoritmo

No final das contas, a única maneira de treinar um sistema como esse a tratar pessoas trans com respeito é ensiná-lo a identificar uma pessoa trans - um prospecto repleto de escolhas morais difíceis.

O mesmo conjunto de dados que poderia ser usado para construir um sistema para evitar a exibição de fotos de pessoas trans antes de iniciarem a transição poderia ser usado trivialmente e transformado em arma por um estado autoritário para identificar pessoas trans em câmeras de rua, diz Phippen.

No final, a agência que temos sobre esses algoritmos existe em nossos telefones e em nenhum outro lugar.

Com esse futuro distópico em mente, juntamente com o fato de que agências federais como a ICE já usa tecnologia de reconhecimento facial para fiscalização da imigração , queremos que o aprendizado de máquina reúna uma identidade coerente das imagens pré e pós-transição? Em que ponto da transição uma foto pode ser exibida para usuários trans? Até mesmo Phippen acha essa pergunta difícil de responder.

Eu não resolvi tudo isso por mim mesma, como quero lidar com minha identidade passada e como ela se relaciona com a atual, diz Phippen. Na maioria das vezes, não sou forçado a fazer isso na minha vida cotidiana.

Mas, independentemente de quaisquer decisões pessoais, esse mundo pode estar em seu caminho mais rápido do que qualquer um poderia imaginar. Os sistemas de aprendizado de máquina estão se desenvolvendo rapidamente e podem em breve ser capazes de identificar usuários trans. Os pesquisadores já compilaram conjuntos de dados que incluem imagens de pessoas trans ao longo do tempo , e um algoritmo treinado nesses dados pode ser usado para identificar se as fotos na conta do Google de uma pessoa em particular pertencem a alguém que fez a transição.

A realidade da vida para qualquer pessoa trans geralmente não envolve acerto de contas regularmente com nossos eus passados ​​- a maioria de nós sai do nosso caminho para evitar confrontos como esse - nem com as implicações do software cisnormativo. E ainda, naquela pequena tela do telefone, há duas miniaturas, pedindo para eu fazer uma escolha.

No final, clico no botão que indica que há duas pessoas diferentes na minha tela.

Gostaria que o Google fizesse isso por mim sem pedir? Provavelmente não. Com as pessoas trans enfrentando o assédio diário simplesmente por existirem como nós, as apostas parecem muito altas para arriscar ensinar esses sistemas a nos reconhecer, mesmo que o efeito pretendido seja bem-intencionado.

Pessoalmente, fico feliz em contar ao Google algumas mentirinhas inocentes para que eu não precise ser bombardeado com fotos minhas antigas ou até mesmo desabilitar completamente o reconhecimento facial. Isso parece um pequeno preço a pagar por um mundo onde permaneço no comando do algoritmo, sem entregar o controle sobre quem sou para as empresas e suas máquinas sem rosto.


Cara Esten Hustle é escritora e desenvolvedora de software em Oakland, Califórnia.