YouTube vai exibir conteúdo educando usuários sobre fake news

25 ago 2022
Fique por dentro de todas as notícias pelo nosso grupo do WhatsApp!

Programa piloto será implementado no leste europeu para ajudar a combater desinformação em relação a refugiados ucranianos. YouTube vai exibir conteúdo educando usuários sobre fake news

Tom Gerken / BBC News

O YouTube planeja exibir anúncios que educam as pessoas sobre técnicas de desinformação, após um experimento bem-sucedido da Universidade de Cambridge, no Reino Unido.

Os pesquisadores descobriram que os vídeos melhoraram a capacidade das pessoas de reconhecer conteúdo manipulador.

Eles serão exibidos na Eslováquia, República Tcheca e Polônia para combater fake news (notícias falsas) sobre refugiados ucranianos.

O Google, empresa dona do YouTube, disse que as descobertas "emocionantes" mostram como a mídia social pode prevenir ativamente a disseminação de desinformação.

A pesquisa foi baseada em uma área de estudo em desenvolvimento chamada "prebunking", que investiga como a desinformação pode ser desmascarada ao mostrar às pessoas como ela funciona — antes de serem expostas à mesma.

No experimento, os anúncios foram exibidos para 5,4 milhões de pessoas, das quais 22 mil foram inquiridas posteriormente.

Depois de assistir aos vídeos explicativos, os pesquisadores observaram:

Uma melhoria na capacidade dos participantes de identificar técnicas de desinformação;

Uma maior habilidade para discernir conteúdo confiável de não confiável;

Uma capacidade melhor de decidir se deseja ou não compartilhar conteúdo.

A pesquisa revisada por pares foi conduzida em conjunto com o Google e será publicada na revista científica Science Advances.

Beth Goldberg, chefe de pesquisa e desenvolvimento da unidade Jigsaw do Google, que se concentra em combater os riscos de segurança online, classificou as descobertas como "emocionantes".

"Demonstram que podemos expandir o prebunking para toda parte, usando anúncios como veículo", diz ela.

Leia também:

Como descobrir os dados que o Google salva sobre você?

Samsung lança linha de celulares dobráveis no Brasil; veja preços

Anatel apreende 2 mil produtos eletrônicos clandestinos da Shopee

'Tropos comuns'

Jon Roozenbeek, principal autor do artigo, disse à BBC que a pesquisa é sobre "reduzir a probabilidade de alguém ser persuadido por desinformação".

"Obviamente, você não pode prever todos os exemplos de desinformação que vão se tornar virais", afirma.

"Mas o que você pode fazer é encontrar padrões e tropos comuns."

"A ideia por trás deste estudo era: se encontrarmos alguns desses tropos, é possível tornar as pessoas mais resilientes contra eles, mesmo em relação a conteúdo que nunca viram antes?"

Os cientistas inicialmente testaram os vídeos com membros do público sob condições controladas em um laboratório, antes de mostrá-los a milhões de usuários no YouTube, como parte de um estudo de campo mais amplo.

A campanha antidesinformação e a campanha prebunking foram veiculadas no YouTube "como seriam no mundo real", explica Roozenbeek.

"Nós as exibimos como anúncios do YouTube — assim como um anúncio sobre creme de barbear ou qualquer outra coisa... antes do vídeo ser reproduzido."

Saiba também:

ANDROID 13: confira as principais novidades do sistema do Google

'FOTO RANDOM': como fazer a colagem que é febre no Instagram e no TikTok

Como funcionou o estudo

Os anunciantes podem usar um recurso do YouTube chamado Brand Lift, que informa se como um anúncio aumentou o reconhecimento do produto.

Os pesquisadores usaram este mesmo recurso para avaliar a capacidade das pessoas de identificar as técnicas de manipulação às quais haviam sido expostas.

Em vez de uma pergunta sobre reconhecimento da marca, eles apresentaram o título de uma notícia às pessoas, que foram convidadas a lê-lo. Elas foram informadas então que o título continha manipulação, e solicitadas a identificar que tipo de técnica estava sendo usada.

Além disso, havia um grupo de controle separado que não assistiu a nenhum vídeo, mas foi apresentado ao título e às perguntas correspondentes.

"O que você espera é que o grupo que assistiu aos vídeos identifique corretamente com muito mais frequência do que o grupo de controle — e acabou sendo este o caso", diz Roozenbeek.

"Em média, o grupo que viu os vídeos acertou cerca de 5% mais vezes do que o grupo de controle. Isso é altamente significativo."

"Não parece muito — mas também é verdade que o grupo de controle nem sempre está errado. Eles também acertam várias perguntas."

"Essa melhoria, mesmo no ambiente ruidoso do YouTube, mostra basicamente que você pode melhorar a capacidade das pessoas de reconhecer estas técnicas de desinformação — simplesmente mostrando a elas um anúncio."

Leia mais:

Quem foi Cláudia Celeste, atriz transexual homenageada por doodle do Google

Por dentro do mundo secreto do comércio de nudes

'Soluções baseadas em evidências'

A Universidade de Cambridge disse que este foi o primeiro estudo de campo no mundo real da "teoria da inoculação" em uma plataforma de mídia social.

O professor Sander van der Linden, coautor do estudo, afirma que os resultados da pesquisa foram suficientes para levar adiante o conceito de inoculação e expandi-lo, para potencialmente atingir "centenas de milhões" de usuários de rede social.

"Claramente é importante que as crianças aprendam a fazer leitura lateral e verificar a veracidade das fontes", diz ele.

"Mas também precisamos de soluções que possam ser expandidas nas mídias sociais e interajam com seus algoritmos".

Ele reconheceu o ceticismo em torno das empresas de tecnologia usarem este tipo de pesquisa e o ceticismo mais amplo em torno das colaborações entre indústria e academia.

"Mas, no fim das contas, temos que encarar a realidade, pois as empresas de mídia social controlam grande parte do fluxo de informações online. Então, para proteger as pessoas, criamos soluções independentes e baseadas em evidências que empresas de mídia social podem realmente implementar em suas plataformas."

"Para mim, deixar as empresas de mídia social entregues à própria sorte, não vai gerar o tipo de solução que capacita as pessoas a discernir a desinformação que se espalha em suas plataformas".

Este texto foi publicado originalmente em https://www.bbc.com/portuguese/geral-62671970

Assista:

Relembre o último voo do Concorde, em 2003

Como fazer o 'Foto Random', colagem de fotos popular no Instagram e TikTok

Xiaomi apresenta robô humanoide que identifica sons e emoções


FONTE: G1 Globo


VEJA TAMBÉM
FIQUE CONECTADO