Home » Youtube tende a exibir mais vídeos problemáticos do que úteis, de acordo com um estudo e também com o senso comum.

Youtube tende a exibir mais vídeos problemáticos do que úteis, de acordo com um estudo e também com o senso comum.

by Jhonny Castro

Aqui está uma pesquisa respaldada pela realidade tangível que muitos de nós já vivenciamos no YouTube.

O algoritmo de recomendação da empresa de streaming de vídeos pode te envolver em uma maratona de vídeos tão envolvente que você perde a noção do tempo. No entanto, de acordo com uma pesquisa da Mozilla Foundation, confiar nesse algoritmo aumenta a probabilidade de você assistir a vídeos com conteúdo sexualizado e informações falsas em vez de conteúdo personalizado para seus interesses.

Em uma pesquisa envolvendo mais de 37.000 participantes, a Mozilla identificou que 71% dos vídeos sugeridos pelo YouTube foram considerados inapropriados pelos voluntários. Durante 10 meses, os participantes utilizaram uma extensão de navegador para monitorar sua atividade no YouTube, registrando se encontraram um vídeo problemático por meio de recomendação da plataforma ou por iniciativa própria.

O estudo identificou esses vídeos problemáticos como “YouTube Regrets”, que se referem a experiências negativas vivenciadas ao consumir conteúdo do YouTube. Esses arrependimentos incluíam vídeos que abordavam temas como pseudociência, teorias conspiratórias sobre o 11 de setembro, abuso animal e promoção da supremacia branca. Segundo os pais de uma menina de 10 anos entrevistados pela Mozilla, a criança se viu em uma situação delicada ao se deparar com vídeos sobre dietas extremas enquanto buscava por conteúdo de dança, o que a levou a desenvolver hábitos alimentares restritivos.

Os vídeos se tornam recomendados quando têm potencial para se tornar viral. Mesmo que contenham material prejudicial, se conseguirem muitas visualizações, o algoritmo pode recomendá-los aos usuários, em vez de se concentrar em seus interesses individuais.

O YouTube removeu 200 vídeos identificados durante uma investigação, e um representante informou ao Wall Street Journal que “a empresa diminuiu as sugestões de conteúdo considerado prejudicial para menos de 1% dos vídeos assistidos”. O representante também mencionou que o YouTube implementou 30 alterações ao longo do ano passado para lidar com a questão, e o sistema automatizado agora identifica e remove 94% dos vídeos que violam as políticas do YouTube antes de alcançarem 10 visualizações.

Apesar de ser simples concordar em excluir vídeos com violência ou racismo, o YouTube enfrenta desafios semelhantes ao lidar com a desinformação, como muitas outras plataformas de mídia social. Embora tenha removido anteriormente teorias da conspiração do QAnon que poderiam causar danos reais, muitos vídeos com conteúdo semelhante conseguem passar despercebidos, justificando-se como liberdade de expressão ou alegando ser apenas entretenimento.

O YouTube se nega a divulgar detalhes sobre o funcionamento do algoritmo de recomendação, justificando que é propriedade da empresa. Portanto, não sabemos se a companhia está fazendo o máximo possível para evitar a disseminação de conteúdos problemáticos através desse algoritmo.

Paráfrase: Embora seja louvável que o YouTube tenha feito 30 mudanças no último ano, se realmente deseja remover vídeos prejudiciais, seria importante que os usuários pudessem acompanhar de forma transparente esses esforços como um primeiro passo eficaz para uma ação significativa.

Plataforma de vídeos online

You may also like

Leave a Comment