O YouTube planeja exibir anúncios que educam as pessoas sobre técnicas de desinformação, após um experimento bem-sucedido da Universidade de Cambridge, no Reino Unido.
Os pesquisadores descobriram que os vídeos melhoraram a capacidade das pessoas de reconhecer conteúdo manipulador.
Eles serão exibidos na Eslováquia, República Tcheca e Polônia para combater fake news (notícias falsas) sobre refugiados ucranianos.
- O que WhatsApp, Telegram, TikTok, Facebook e YouTube prometem fazer contra fake news nas eleições
- A nova atualização no WhatsApp que permite sair de grupos silenciosamente
O Google, empresa dona do YouTube, disse que as descobertas "emocionantes" mostram como a mídia social pode prevenir ativamente a disseminação de desinformação.
A pesquisa foi baseada em uma área de estudo em desenvolvimento chamada "prebunking", que investiga como a desinformação pode ser desmascarada ao mostrar às pessoas como ela funciona — antes de serem expostas à mesma.
No experimento, os anúncios foram exibidos para 5,4 milhões de pessoas, das quais 22 mil foram inquiridas posteriormente.
Depois de assistir aos vídeos explicativos, os pesquisadores observaram:
- Uma melhoria na capacidade dos participantes de identificar técnicas de desinformação;
- Uma maior habilidade para discernir conteúdo confiável de não confiável;
- Uma capacidade melhor de decidir se deseja ou não compartilhar conteúdo.
A pesquisa revisada por pares foi conduzida em conjunto com o Google e será publicada na revista científica Science Advances.
Beth Goldberg, chefe de pesquisa e desenvolvimento da unidade Jigsaw do Google, que se concentra em combater os riscos de segurança online, classificou as descobertas como "emocionantes".
"Demonstram que podemos expandir o prebunking para toda parte, usando anúncios como veículo", diz ela.
'Tropos comuns'
Jon Roozenbeek, principal autor do artigo, disse à BBC que a pesquisa é sobre "reduzir a probabilidade de alguém ser persuadido por desinformação".
"Obviamente, você não pode prever todos os exemplos de desinformação que vão se tornar virais", afirma.
"Mas o que você pode fazer é encontrar padrões e tropos comuns."
"A ideia por trás deste estudo era: se encontrarmos alguns desses tropos, é possível tornar as pessoas mais resilientes contra eles, mesmo em relação a conteúdo que nunca viram antes?"
Os cientistas inicialmente testaram os vídeos com membros do público sob condições controladas em um laboratório, antes de mostrá-los a milhões de usuários no YouTube, como parte de um estudo de campo mais amplo.
A campanha antidesinformação e a campanha prebunking foram veiculadas no YouTube "como seriam no mundo real", explica Roozenbeek.
"Nós as exibimos como anúncios do YouTube — assim como um anúncio sobre creme de barbear ou qualquer outra coisa... antes do vídeo ser reproduzido."
Como funcionou o estudo
Os anunciantes podem usar um recurso do YouTube chamado Brand Lift, que informa se e como um anúncio aumentou o reconhecimento do produto.
Os pesquisadores usaram este mesmo recurso para avaliar a capacidade das pessoas de identificar as técnicas de manipulação às quais haviam sido expostas.
Em vez de uma pergunta sobre reconhecimento da marca, eles apresentaram o título de uma notícia às pessoas, que foram convidadas a lê-lo. Elas foram informadas então que o título continha manipulação, e solicitadas a identificar que tipo de técnica estava sendo usada.
Além disso, havia um grupo de controle separado que não assistiu a nenhum vídeo, mas foi apresentado ao título e às perguntas correspondentes.
"O que você espera é que o grupo que assistiu aos vídeos identifique corretamente com muito mais frequência do que o grupo de controle — e acabou sendo este o caso", diz Roozenbeek.
"Em média, o grupo que viu os vídeos acertou cerca de 5% mais vezes do que o grupo de controle. Isso é altamente significativo."
"Não parece muito — mas também é verdade que o grupo de controle nem sempre está errado. Eles também acertam várias perguntas."
"Essa melhoria, mesmo no ambiente ruidoso do YouTube, mostra basicamente que você pode melhorar a capacidade das pessoas de reconhecer estas técnicas de desinformação — simplesmente mostrando a elas um anúncio."
'Soluções baseadas em evidências'
A Universidade de Cambridge disse que este foi o primeiro estudo de campo no mundo real da "teoria da inoculação" em uma plataforma de mídia social.
O professor Sander van der Linden, coautor do estudo, afirma que os resultados da pesquisa foram suficientes para levar adiante o conceito de inoculação e expandi-lo, para potencialmente atingir "centenas de milhões" de usuários de rede social.
"Claramente é importante que as crianças aprendam a fazer leitura lateral e verificar a veracidade das fontes", diz ele.
"Mas também precisamos de soluções que possam ser expandidas nas mídias sociais e interajam com seus algoritmos".
Ele reconheceu o ceticismo em torno das empresas de tecnologia usarem este tipo de pesquisa e o ceticismo mais amplo em torno das colaborações entre indústria e academia.
"Mas, no fim das contas, temos que encarar a realidade, pois as empresas de mídia social controlam grande parte do fluxo de informações online. Então, para proteger as pessoas, criamos soluções independentes e baseadas em evidências que empresas de mídia social podem realmente implementar em suas plataformas."
"Para mim, deixar as empresas de mídia social entregues à própria sorte, não vai gerar o tipo de solução que capacita as pessoas a discernir a desinformação que se espalha em suas plataformas".
- Este texto foi publicado originalmente em https://www.bbc.com/portuguese/geral-62671970
Sabia que a BBC está também no Telegram? Inscreva-se no canal.
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Notícias pelo celular
Receba direto no celular as notícias mais recentes publicadas pelo Correio Braziliense. É de graça. Clique aqui e participe da comunidade do Correio, uma das inovações lançadas pelo WhatsApp.
Dê a sua opinião
O Correio tem um espaço na edição impressa para publicar a opinião dos leitores. As mensagens devem ter, no máximo, 10 linhas e incluir nome, endereço e telefone para o e-mail sredat.df@dabr.com.br.