Google e MIT provam que a mídia social pode desacelerar a disseminação de notícias falsas

A Jigsaw e o MIT publicaram um novo estudo que prova que o compartilhamento de informações incorretas pode ser frustrado com uma simples correção de UX.

Google e MIT provam que a mídia social pode desacelerar a disseminação de notícias falsas



Durante a pandemia COVID-19, o público tem lutado contra uma ameaça totalmente diferente: o que o Secretário-Geral da ONU, António Guterres, tem chamado uma pandemia de desinformação. Propaganda enganosa e outras notícias falsas são facilmente compartilháveis ​​nas redes sociais, o que ameaça a saúde pública. Tantas como um em cada quatro adultos alegaram que não receberão a vacina. E enquanto finalmente temos doses suficientes para alcançar a imunidade coletiva nos Estados Unidos, muitas pessoas estão preocupados com as vacinas (ou céticos de que COVID-19 seja mesmo uma doença perigosa) para atingir esse limite.

No entanto, um novo estudo do Instituto de Tecnologia de Massachusetts e da incubadora de tecnologia social do Google, Jigsaw, tem esperança de consertar a desinformação nas redes sociais. Em um estudo massivo envolvendo 9.070 participantes americanos - controlando por gênero, raça e partidarismo - os pesquisadores descobriram que algumas intervenções simples de IU podem impedir as pessoas de compartilhar notícias falsas sobre o COVID-19.



Como? Não acabou alfabetização que os ensina a diferença entre fontes confiáveis ​​e fontes ruins. E não por meio de conteúdo que foi sinalizado como falso por verificadores de fatos, como o Facebook tentou.

como desacelerar o tempo



Em vez disso, os pesquisadores introduziram vários prompts diferentes por meio de uma janela pop-up simples, todos com um único objetivo: fazer as pessoas pensarem sobre a precisão do que estão prestes a compartilhar. Quando estimuladas a considerar a precisão de uma história, as pessoas tinham até 20% menos probabilidade de compartilhar uma notícia falsa. Não é que nós viemos com uma intervenção que você dá às pessoas uma vez, e elas estão prontas, diz o professor do MIT David Rand, que também foi o autor principal do estudo. Em vez disso, o ponto é que as plataformas estão, por design, constantemente distraindo as pessoas da precisão.

Um prompt de precisão de protótipo inicial pedia aos usuários que refletissem sobre a precisão de uma manchete de notícias antes de continuar a navegar. [Imagem: Serra de vaivém ]

No início do experimento, as pessoas receberam um prompt pop-up, como se fossem solicitadas a avaliar a precisão de um título neutro. Um exemplo foi, ‘Seinfeld’ está oficialmente chegando à Netflix. Isso foi simplesmente para fazê-los pensar sobre precisão. Em seguida, foi apresentado a eles conteúdo de alto risco relacionado ao COVID-19 e perguntado se eles o compartilhariam. Exemplos das manchetes do COVID-19 que as pessoas tiveram que analisar foram, Vitamina C protege contra o coronavírus (falso) e CDC: a disseminação do coronavírus pode durar até 2021, mas o impacto pode ser atenuado (verdadeiro). Pessoas que foram orientadas a pensar sobre a precisão das manchetes eram menos propensas a compartilhar conteúdo COVID-19 falso.



Muitas vezes, as pessoas podem realmente dizer o que é verdadeiro e falso razoavelmente bem. E as pessoas dizem, em geral, que não querem compartilhar informações imprecisas, diz Rand. Mas eles podem fazer isso de qualquer maneira porque estão distraídos, porque o contexto da mídia social concentra sua atenção em outras coisas [além da precisão].

Uma versão animada da experiência de alfabetização digital do Jigsaw: as variações desse design foram testadas quanto à eficácia em várias dimensões. [Imagem: Serra de vaivém ]

Que outras coisas? Fotos de bebês. Novo anúncio de emprego de um inimigo. A pressão social onipresente de curtidas, compartilhamentos e seguidores conta. Rand explica que todas essas coisas se somam e o próprio design da mídia social nos distrai de nosso discernimento natural.

Mesmo se você for alguém que se preocupa com a precisão e geralmente é um pensador crítico, o contexto da mídia social apenas desliga essa parte do seu cérebro, diz Rand, que então contou uma vez no ano passado em que descobriu que havia compartilhado uma informação imprecisa história online, quando na verdade ele é um pesquisador apenas neste tópico.



O MIT foi o pioneiro na teoria da pesquisa. Em seguida, a Jigsaw entrou em cena para colaborar e financiar o trabalho, enquanto usa seus designers para construir os prompts. Rocky Cole, gerente do programa de pesquisa da Jigsaw, diz que a ideia está em incubação na empresa e ele não a imagina sendo utilizada em produtos do Google até que a empresa garanta que não haja consequências indesejadas do trabalho. (Enquanto isso, a subsidiária do Google, YouTube ainda é um paraíso perigoso por desinformação extremista, promovida por seus próprios algoritmos sugestivos.)

Por meio da pesquisa, o MIT e a Jigsaw desenvolveram e testaram várias pequenas intervenções que podem ajudar a levar uma pessoa de volta a um estado de espírito sensível e perspicaz. Uma abordagem foi chamada de avaliação. Tudo o que significou foi pedir a alguém que avaliasse se um título de exemplo parecia correto, tanto quanto era do seu conhecimento. Isso preparou seu modo de discernimento. E quando os participantes viam um título do COVID-19 após serem preparados, eles eram muito menos propensos a compartilhar informações incorretas.

como lidar com o bullying no trabalho

Outra abordagem foi chamada de dicas. Foi apenas uma pequena caixa que incitou o usuário a ser cético em relação às manchetes. Investigue a fonte. Observe a formatação incomum. Verifique as evidências. Outra abordagem foi chamada de importância e simplesmente perguntou aos usuários o quão importante é para eles compartilhar apenas histórias precisas nas redes sociais. Ambas as abordagens funcionaram para reduzir o compartilhamento de informações incorretas em cerca de 10%.

Uma abordagem que não funcionou foi em torno das normas partidárias, que foi uma sugestão que explicou como republicanos e democratas achavam que era importante compartilhar apenas informações precisas nas redes sociais. Curiosamente, quando essa abordagem de normas foi misturada com a abordagem de dicas ou a abordagem de importância, adivinhe? Dicas e importância se tornaram mais eficaz. A conclusão geral é que você pode fazer muitas coisas diferentes que preparam o conceito de precisão de maneiras diferentes, e todas elas funcionam muito bem, diz Rand. Você não precisa de uma maneira mágica especial perfeita de fazer isso.

O único problema é que ainda não entendemos uma peça-chave do quebra-cabeça: por quanto tempo esses prompts funcionam? Quando seus efeitos desaparecem? Os usuários começam a desligá-los?

Eu diria que [esses efeitos são] bastante efêmeros, diz Cole. A teoria sugere que as pessoas se preocupam com a precisão. . . mas eles veem um vídeo fofo de gato online e de repente não estão pensando em precisão, estão pensando em outra coisa. E quanto mais você vê os prompts de precisão, mais fácil é ignorá-los.

Essas incógnitas apontam para caminhos para pesquisas futuras. Enquanto isso, sabemos que temos ferramentas à nossa disposição, que podem ser facilmente incorporadas às plataformas de mídia social, para ajudar a conter a disseminação de desinformação.

Para manter as pessoas compartilhando informações precisas, os sites podem exigir uma alimentação constante de novas maneiras de fazer os usuários pensarem sobre a precisão. Rand aponta para um alerta no Twitter lançado durante a última eleição presidencial. Ele considera este prompt um pedaço de design muito bom, pois pergunta aos leitores se desejam ler um artigo antes de retuí-lo, lembrando-os sobre o tópico de precisão. Mas o Twitter não atualizou o prompt nos meses seguintes, e provavelmente é menos eficaz como resultado, diz ele. A primeira vez [eu vi isso] foi tipo ‘Uau! Merda! & Apos; Rand diz. Agora é como, ‘sim, sim. & Apos;