O plano do YouTube para parar de recomendar vídeos sobre teorias da conspiração está realmente funcionando.

O responsável por recomendar vídeos sobre teorias da conspiração é o algoritmo do YouTube, levando a culpa também por muitos vídeos que são uma furada e não tem muita ligação direta sobre os conteúdos visualizados pelos usuários.

Nem preciso citar muito sobre isso, pois acredito que você saiba do que eu estou falando.

Os críticos consideraram que o Youtube é como um “megafone digital” para espalhar vídeos sobre teorias conspiratórias instáveis. Mas em janeiro do ano passado, foi anunciado que o algoritmo iria mudar, quebrando os “conteúdos adjacentes “, filtrando então suas recomendações.

Novos estudos sobre a plataforma foram realizados e, os esforços do Youtube tem rendido bons frutos em suas recomendações automáticas. Agora os vídeos sobre teorias da conspiração tem atingindo um percentual de 40% menor para aparecer como um tipo de recomendação, em comparação ao que era antes do YouTube começar a reprimir esse tipo de produção dentro de sua plataforma.

Esses estudos foram feitos pelos pesquisadores da Berkley, que examinaram 8 milhões de vídeos, por mais de 15 meses, as recomendações sugeridas nesse período de tempo. Para julgar com efetividade o esforço do YouTube, os pesquisadores desse projeto treinaram o algoritmo para determinar, com base em sua descrição, comentários e transcrições, se um vídeo teria teorias da conspiração. Mas os resultados dessa pesquisa foram variados.

Image for post

Os pesquisadores identificaram também que o YouTube teve sucesso em desvendar vídeos de teorias de que o governo dos EUA perpetuou os ataques terroristas de 11/09 e que a Terra é plana — os dois tópicos foram os primeiros alvos anunciados para que começasse a enfrentar essas teorias de conspiração.

Foi constatado também que no período de Junho a Dezembro de 2019, as recomendações de vídeos sobre teorias da conspiração abaixaram para 50% e pouco tempo depois atingiu o recorde de 70% a menos.

Entretanto, apesar dos pesquisadores descobrirem esses números e porcentagens e serem consistentes com esses dados, não necessariamente tiraria a popularidade dos vídeos de origem sobre as falsas teorias da conspiração. Descobriram que as recomendações conspiratórias tem aumentado desde o ponto mais baixo em maio de 2019 e agora apenas 40% menos comum que antes.

Embora o Youtube tenha conseguido conter esses vídeos com informações falsas, ainda tem bastante sendo espalhada pelo mundo — incluindo aquelas sobre aliens construindo pirâmides e, as piores e mais preocupantes, sobre a negação do aquecimento global e suas mudanças climáticas.

Fique claro aqui que essas teorias conspiratórias são falsas, não acredite na teoria da terra plana ou sobre a teoria do aquecimento global ser mentira.

Os pesquisadores deram uma entrevista ao New York Times, nela informa sobre o YouTube e sua decisão de quais tipos de informação falsa seriam desativadas — aquelas que recebem atenção negativa da mídia, como conspirações do massacre de Sandy Hook, ou até mesmo sobre vacinação — contra aquelas que ainda são permitidas dentro da plataforma.

Image for post

Outro problema detectado é que, embora o estudo mostre uma redução significante das recomendações conspiratórias, ele não desmascara o impacto da radicalização. O estudo é limitado por ter sido realizado sem fazer o login na conta do YouTube, não refletindo como a maioria das pessoas navegam pela plataforma.

Sem a colaboração do YouTube sobre esse assunto, é difícil ter precisão nas recomendações personalizadas em escala, significando que qualquer estudo que pretende julgar se o YouTube tem impacto ou não na radicalização de pessoas, sendo então um defeito inerente.

A plataforma tem quase 2 bilhões de usuários ativos mensais, e é número crescente de usuários que usa o YouTube como sua fonte principal de notícias. As etapas que reduzem os vídeos de teorias da conspiração e dar aos usuários um controle mais direto sobre o que o algoritmo mostra a eles são passos na direção correta de corrigir esse problema, mas ainda há muito trabalho pela frente.

Leave a Reply

Your email address will not be published. Required fields are marked *