Banner 1 728x90

Pesquisa da Unicamp indica que canais do YouTube driblam moderação para lucrar com desinformação sobre a Covid-19

Por G1 em 16/11/2022 às 01:42:21
Estudo analisou 3.318 vídeos de 50 perfis brasileiros durante seis meses após o primeiro caso da doença no Brasil e constatou que parte deles ainda ganha dinheiro da plataforma, inclusive com anúncios. Logo do YouTube

REUTERS/Lucy Nicholson

Um estudo da Unicamp que analisou 3.318 vídeos de 50 canais brasileiros do YouTube aponta que produtores de conteúdo que espalham informações falsas sobre a Covid-19 driblam políticas de moderação da plataforma para lucrar com monetização e anúncios.

A pesquisa, feita em parceria com Institute for Globally Distributed Open Research and Education e com a Universidade da Califórnia, concluiu que 41% dos vídeos que mencionaram a Covid-19 nos seis meses após o primeiro caso confirmado no Brasil desinformaram a audiência sobre a doença. Os conteúdos analisados foram publicados entre 26 de fevereiro de 2020 a 26 de agosto do mesmo ano.

Em maio de 2022, portanto cerca de dois anos após as postagens, parte destas publicações de fake news sobre a doença ainda recebia monetização do YouTube.

Por meio de nota, a empresa afirmou que remove os conteúdos que violam as regras o mais rápido possível. Para isso, usa uma combinação de pessoas e aprendizado de máquina para identificar vídeos possivelmente problemáticos em grande escala.

"Também contamos com a ajuda da comunidade do YouTube e de especialistas do programa Revisor Confiável para identificar esse tipo de conteúdo e nos informar diretamente. E fazemos o possível para garantir que os vídeos que violam nossas políticas não sejam vistos por muitas pessoas, ou sequer sejam vistos, antes da remoção", afirmou a plataforma. Leia, ao fim da matéria, a nota completa.

LEIA TAMBÉM:

Cientistas da Unicamp mapeiam desinformação sobre Covid-19 e afirmam que pseudociência se propaga como epidemia

Pesquisadora analisa 'ecossistema' da desinformação e indica retomada do diálogo para reduzir efeito

Estudiosos de Campinas apontam dinâmicas da mente que ajudam a entender por que caímos em fake news

Segundo a pesquisa, do total de vídeos analisados, 53% mencionaram o coronavírus. Os conteúdos foram publicados por 27 canais, dos quais:

14 são perfis de teorias da conspiração que discutem tópicos relacionados à saúde,

11 são canais de saúde alternativa que adotam diferentes teorias da conspiração quando é conveniente para seus interesses,

2 são da mídia tradicional.

O YouTube anunciou, ainda em 2020, que combateria conteúdos falsos sobre a Covid-19. Em abril do mesmo ano, a política da plataforma derrubou quatro vídeos do presidente Jair Bolsonaro (PL) em que ele falava sobre remédios sem eficácia contra Covid.

Porém, dos 719 vídeos apontados pela Unicamp que desinformam sobre a doença, 531 são monetizados pelo Programa de Parceria do YouTube, com anúncios de 516 marcas, o que inclui empresas que promovem campanhas de conscientização sobre as vacinas.

Estes 531 vídeos monetizados estão hospedados em 24 canais. Os pesquisadores verificaram que, em maio deste ano, 2022, 20 deles ainda recebiam monetização YouTube, que removeu apenas seis dos vídeos que continham desinformação sobre a Covid-19. O estudo foi publicado em novembro na revista Frontiers in Communication.

Ao g1, o YouTube afirmou que possui sistemas de sinalização automática ajudam a identificar e revisar vídeos "antes mesmo que sejam assistidos pela comunidade".

"Quando esse conteúdo é identificado, revisores humanos analisam se ele viola ou não as políticas. Em caso afirmativo, o vídeo em questão é removido e usado para treinar nossas máquinas e melhorar nossa cobertura. Os revisores também protegem conteúdo com fins claramente educacionais, documentais, científicos ou artísticos (EDCA)", indicou a empresa, em nota.

A pesquisa da Unicamp dividiu os conteúdos falsos em categorias. Os principais tipos registrados foram:

teorias da conspiração (64,8%);

defesa de liberdades individuais ou incentivo à "pesquisa independente" sobre Covid (57,7%);

negação da importância de medidas de isolamento, como quarentenas e lockdowns (36,4%);

ataques à imprensa (35,6%); e

promoção de saúde alternativa para tratar ou prevenir a Covid-19 (32,2%).

Pandemia intensificou movimento antivacina

A doutoranda em política científica e tecnológica pela Unicamp Dayane Machado, principal autora do estudo, considera que a pandemia trouxe uma intensificação do movimento antivacina. “Antes, as informações sobre vacinas eram mais fragmentadas. Essas pessoas não conseguiam oxigênio suficiente para chegar em bolhas novas”.

Jornalista e pesquisadora, Dayane explica que o Brasil, por conta do Programa Nacional de Imunização, sempre teve uma boa aceitação de vacinas em comparação a outros países, como os Estados Unidos. “Pontos de hesitação vacinal ou rejeição eram muito isolados”, resume.

Porém, na pandemia, a ansiedade por informações rápidas deu margem para que canais que já são engajados em manipular a audiência pudessem produzir conteúdo para atender essa demanda, agora maior, analisa a pesquisadora.

"As pessoas querem respostas que, muitas vezes, nem os pesquisadores vão ter naquele momento", diz.

"Por causa dessa agonia, dessa ansiedade, elas vão para vários tipos de mídia para tentar se informar”, completa a jornalista.

Pesquisadora acredita em intensificação do movimento antivacina

Valdinei Malaguti/EPTV

Disfarce, replicação e dispersão

Os criadores de conteúdo com desinformação utilizam uma série de táticas - definidas pelo pesquisadores como disfarce, replicação e dispersão, - para driblar a moderação de conteúdo da plataforma.

Os motivos para produzir os vídeos podem ser desde fazer avançar a rejeição vacinal até ganhar dinheiro com os cliques. “A gente vê vários oportunistas aparecendo”, diz Dayane.

Substituir as palavras “Covid-19”, “pandemia” e “coronavírus” por outras previamente combinadas com a audiência, usar símbolos no lugar de letras – como, por exemplo, c0vid – fazer gestos e anagramas são algumas das táticas usadas pelos youtubers para propagar teorias conspiratórias e negar estratégias de prevenção defendidas por organizações oficiais de saúde.

Além disso, seis canais analisados possuem perfis reservas, caso o original seja desativado, e 18 usam outras redes como WhatsApp e Telegram para garantir a circulação de conteúdo, vender produtos ou entregar materiais mais extremos, segundo a pesquisa.

"Eles estão sempre direcionando o máximo de pessoas para esses outros espaços que eles consideram mais seguro para se expressar livremente", diz Dayane.

Vista aérea do campus de Campinas da Unicamp

Antoninho Perri/ Ascom/ Unicamp

Moderação de conteúdo

Para Dayane, o YouTube tem um longo histórico que mostra que existem problemas de moderação de conteúdo dentro da plataforma. A pesquisa conclui que a rede permitiu que canais de teorias da conspiração e saúde alternativa se organizassem, alcançassem e fidelizassem audiências, lucrando com conteúdos nocivos por anos antes da Covid-19.

“Eles são tratados como produtores de conteúdo que estão ali trabalhando como qualquer outro”, afirma.

A pesquisadora avalia que as técnicas que o YouTube tem adotado com o passar dos anos de rebaixar conteúdos perigosos, fazer com que eles não sejam tão recomendados e desmonetizá-los não são o bastante. “Esse tipo de medida meio que isolada não está fazendo o efeito que ela claramente deveria fazer”, diz.

Além do conteúdo, a desinformação também pode aparecer em publicidade, que geram renda para a plataforma.

“Quando você investiga conteúdo desta natureza, você deixa rastros [...] Nosso grupo começou a receber anúncios de produtos que eram, por exemplo, roupas para se proteger do sinal do 5G”, diz. “E aí você pensa: "não é possível que exista uma empresa que tenta vender isso e que a plataforma permita que esse tipo de anunciante anuncie dentro dela"”.

Já a empresa defende que o argumento de que mantém no ar conteúdo polêmico porque isso traz benefícios financeiros não é verdadeiro. "Além de sabermos que tipo de conteúdo não tem bom desempenho no YouTube, sobretudo quando comparado a conteúdos mais populares, como música ou humor, a desinformação corrói a confiança do público e dos anunciantes. Dedicamos tempo e recursos consideráveis a essa questão", afirma o YouTube.

O que pode ser feito

Dayane afirma que falta boa vontade da plataforma para agir em relação ao problema. Para ela, a mudança de postura em relação às políticas de uso dos últimos anos visam proteger a empresa da perda de lucro de investidores e é fruto de uma pressão social promovida por pesquisadores e pela imprensa.

“De tempos em tempos surgem relatórios falando que o Youtube removeu ou desmonetizou vídeos que violavam as políticas de uso. Eles parecem muito significativos, mas o X da questão é que ninguém tem acesso a esses dados. A única escolha que temos, como sociedade, é acreditar no que eles estão falando”, diz Dayane. “A própria empresa aplica a prova, corrige e dá nota pra si mesma no final”.

Para ela, seria fundamental a empresa firmar parceria com pesquisadores para combater a desinformação dentro da plataforma. “Se a gente consegue ver um problema desse tamanho num pedacinho de material que a gente consegue ter acesso com poucos recursos, imagina o que deve estar acontecendo no mundo todo”, diz.

Sobre a sugestão de parceria, o YouTube afirma que sempre procura novas maneiras de aprofundar a transparência e colaborar com pesquisadores acadêmicos de todo o mundo.

"Por isso, lançamos em julho de 2022 o Programa de Pesquisador do YouTube como forma de expandirmos o acesso à nossa API de dados global e oferecemos suporte técnico interno robusto. O programa ainda está em seu estágio inicial e continuaremos a desenvolver recursos adicionais com base no feedback da comunidade de pesquisa ao longo do tempo".

O que diz o Youtube?

O g1 perguntou ao Youtube, por meio da assessoria de imprensa, por que todos os vídeos citados pela pesquisa não foram excluídos, como a plataforma pretende melhorar a luta contra a desinformação a partir dos resultados do estudo da Unicamp e se considera firmar parcerias com pesquisadores para garantir o respeito às políticas de uso, como autora sugeriu. Leia, abaixo, a resposta na íntegra:

"Nosso compromisso com a responsabilidade tem como ponto de partida as diretrizes da comunidade, que são regras criadas para garantir a proteção dos nossos usuários. Elas definem o que é permitido no YouTube ou não e valem para todos os tipos de conteúdo na plataforma, incluindo vídeos, comentários, links e miniaturas. Nossas políticas cobrem áreas como discurso de ódio, assédio, segurança infantil, violência extrema, entre outras.

Cada uma delas é desenvolvida em parceria com diversos especialistas externos em políticas e setores, bem como criadores de conteúdo do YouTube. Além disso, nós revisamos sistematicamente essas políticas para garantir a conformidade com legislações ou outros elementos vigentes. Alguns exemplos são as importantes atualizações feitas nas políticas de discurso de ódio e assédio em 2019, o lançamento da política voltada a conteúdo nocivo de teorias de conspiração em 2020 e a política de desinformações na área da saúde relacionadas à COVID-19, que foi melhorada ao longo da pandemia e que norteou a remoção de milhões de vídeos.

Removemos conteúdo que viola nossas políticas o mais rápido possível. Para isso, usamos uma combinação de pessoas e aprendizado de máquina para identificar conteúdo possivelmente problemático em grande escala. Também contamos com a ajuda da comunidade do YouTube e de especialistas do programa Revisor Confiável para identificar esse tipo de conteúdo e nos informar diretamente. E fazemos o possível para garantir que os vídeos que violam nossas políticas não sejam vistos por muitas pessoas, ou sequer sejam vistos, antes da remoção. Nossos sistemas de sinalização automática ajudam a identificar e revisar vídeos antes mesmo que sejam assistidos pela comunidade.

Quando esse conteúdo é identificado, revisores humanos analisam se ele viola ou não as políticas. Em caso afirmativo, o vídeo em questão é removido e usado para treinar nossas máquinas e melhorar nossa cobertura. Os revisores também protegem conteúdo com fins claramente educacionais, documentais, científicos ou artísticos (EDCA).

Estamos sempre procurando novas maneiras de aprofundar a transparência e colaborar com pesquisadores acadêmicos de todo o mundo. Por isso, lançamos em julho de 2022 o Programa de Pesquisador do YouTube como forma de expandirmos o acesso à nossa API de dados global e oferecemos suporte técnico interno robusto. O programa ainda está em seu estágio inicial e continuaremos a desenvolver recursos adicionais com base no feedback da comunidade de pesquisa ao longo do tempo.

Além disso, destacamos que o argumento de que mantemos no ar conteúdo polêmico porque isso nos traz benefícios financeiros não é verdadeiro. Além de sabermos que tipo de conteúdo não tem bom desempenho no YouTube, sobretudo quando comparado a conteúdos mais populares, como música ou humor, a desinformação corrói a confiança do público e dos anunciantes. Dedicamos tempo e recursos consideráveis a essa questão."

VÍDEOS: Tudo sobre Campinas e região

Veja mais notícias da região no g1 Campinas

Fonte: G1

Comunicar erro

ComentĂĄrios