Estudio: YouTube logra cierto éxito en las teorías de conspiración de Hobbling

 los cambios en el motor de recomendación de youtube han logrado frenar la difusión de las teorías de conspiración

Los esfuerzos de YouTube para reducir la difusión de las teorías de conspiración en la plataforma parecen estar dando sus frutos.

"Nuestro análisis corrobora que YouTube actuó sobre él política y redujo significativamente el volumen general de contenido conspirativo recomendado ", escribieron tres investigadores en un estudio que la Universidad de California, Berkeley, publicó el lunes.

Debido a que la información se difunde en YouTube en gran medida a través de recomendaciones: se recomienda el 70 por ciento del contenido visto. contenido: los investigadores pasaron 15 meses estudiando 8 millones de recomendaciones del algoritmo de la próxima observación de la plataforma.

A partir de abril de 2019, tres meses después de que YouTube anunciara medidas para limitar el contenido en la plataforma que podría desinformar a los usuarios de manera perjudicial, el equipo de investigación encontró una disminución constante en las recomendaciones conspirativas.

La disminución continuó Hasta principios de junio de 2019, cuando la frecuencia bruta alcanzó brevemente un punto bajo del 3 por ciento, señalaron los investigadores Marc Faddoula y Hany Farida de UC Berkeley, y Guillaume Chaslotb de la Fundación Mozilla.

La frecuencia bruta es el producto del número Según los investigadores, muchas veces se recomienda un video y la probabilidad de que cada video sea conspirador.

Sin embargo, parece que ha habido cierto deslizamiento. Desde el punto más bajo del año pasado, las recomendaciones conspirativas se han recuperado constantemente, señala el estudio. Ahora son un 40 por ciento menos comunes que cuando YouTube anunció por primera vez sus medidas.

Además, "a pesar de esta tendencia a la baja durante el año pasado, el volumen general de contenido conspiratorio recomendado por los canales de información sigue siendo relativamente alto", encontraron los investigadores.

Orientación selectiva

"Se debe pagar tributo a YouTube por filtrar eficazmente algunos temas peligrosos, como las afirmaciones de que las vacunas causan autismo", escribieron los investigadores.

"Sin embargo, otros temas que demostramos ser El FBI describió la promoción activa de YouTube como muy probable que motive a algunos extremistas nacionales a cometer actividades criminales, en ocasiones violentas ", señalaron.

Una mirada más cercana a los datos revela que YouTube es selectivo en cómo aplica su" políticas de contenido dañino ", señaló el científico investigador Faddoul.

" Algunos contenidos políticos y religiosos no han sido degradados, mientras que otros temas, como el coronavirus, no han tenido ninguna forma de desinformación conspirativa ", dijo a TechNewsWorld

Dada la información superior, el etiquetado y los recursos computacionales disponibles para YouTube, es técnicamente capaz de detectar temas conspiradores con gran precisión, señala el estudio.

"De hecho, para ciertos temas que parecen estar bajo un escrutinio particularmente minucioso, los videos recomendados son efectivamente despojados de la desinformación", afirma. "Es alentador ver que YouTube está dispuesto a abordar problemas específicos de manera efectiva y oportuna. Decidir qué degradar es, por lo tanto, una cuestión de política más que de tecnología".

Mantener la neutralidad

La selectividad de YouTube se deriva del deseo de todas las redes sociales de tener la menor intervención de contenido posible, explicó Faddoul.

"Quieren permanecer lo más neutrales posible", dijo. "No quieren ser criticados por parcialidad, como a menudo lo hacen los conservadores que ven un sesgo liberal en Silicon Valley".

Existen razones legales para mantener la neutralidad. Según la ley federal, YouTube y otros medios sociales se tratan como plataformas. Como tal, su responsabilidad legal por su contenido es menor que la de una publicación con contenido editorial.

"Cuanto más comienzas a editar y elegir lo que se puede promocionar y no, más te acercas a convertirte efectivamente en editor", dijo Faddoul.

El estudio exige una mayor transparencia en cómo YouTube hace sus recomendaciones para los usuarios.

"Con dos mil millones de usuarios activos mensuales en YouTube, el diseño del algoritmo de recomendación tiene más impacto en el flujo de información que el editorial "Los investigadores escribieron.

El papel del motor es aún más crucial, sostuvieron, cuando se considera lo siguiente:

  • El uso creciente de YouTube como fuente principal de información, particularmente entre los jóvenes
  • La posición casi monopolista de YouTube en su mercado; y
  • La creciente armamentización de YouTube para difundir desinformación y contenido partidista en todo el mundo.

"Y, sin embargo, las decisiones tomadas por el motor de recomendaciones son en gran medida sin supervisión y opacas para el público", señalaron.

Algorithm End Run

Agregar transparencia al proceso de recomendación agregaría responsabilidad, Faddoul sostuvo.

"Estas decisiones, lo que debe ser promovido por el motor de recomendaciones y lo que no, son importantes. Tener un proceso que sea público e involucre a otros actores además de YouTube, mejoraría el proceso ", dijo.

" Si tuviera más transparencia, tendría un espectador más informado ", comentó Cayce Myers, profesor asistente en el departamento de comunicaciones de Virginia Tech en Blacksburg.

Eliminar las protecciones de la plataforma para las redes sociales bajo la Ley Federal de Decencia de Comunicaciones de 1996 podría promover políticas de vigilancia de contenido más estrictas por parte de las compañías de redes sociales, dijo a TechNewsWorld. [19659003] "Mucho tiempo, la política de la compañía está impulsada por la responsabilidad", explicó Myers, "por lo que si cambia la responsabilidad de un sitio de terceros como YouTube, puede ver una respuesta más agresiva a la limpieza contenido ".

Aunque la transparencia siempre es algo bueno y podría ayudar a reducir la propagación de contenido dañino, plantea algunos problemas.

" Hacer que sus algoritmos sean transparentes divulgará tecnología que no desea que sus competidores tener acceso a ", dijo Vincent Raynauld, profesor asistente en el departamento de estudios de comunicación en Emerson College en Boston.

Además," cada vez que estas plataformas ajustan sus algoritmos, los productores de contenido siempre encuentran un forma de evitar los algoritmos o remodelar su contenido para evadir sus filtros ", dijo a TechNewsWorld.

Herramienta de radicalización

Si bien la reducción de las recomendaciones conspirativas de YouTube es alentadora, el estudio señaló que no podría hacer que desaparezca el problema de la radicalización. derecha a la extrema derecha.

"En general, la radicalización es un problema más complejo de lo que puede abarcar un análisis de recomendaciones predeterminadas, ya que involucra la mentalidad única y los patrones de visión de un usuario que interactúa a lo largo del tiempo con una capa múltiple opaca "El estudio observa.

" Exponerse al contenido de la conspiración es un aspecto del proceso de radicalización ", dijo Raynauld. "Para ser radicalizado, necesitas acceso a este contenido para impulsar la radicalización, pero sospecho que hay otros factores externos al contenido de YouTube en juego".


Leave a Reply

Your email address will not be published. Required fields are marked *