Imagen

El contenido "que alegue que un grupo es superior para justificar la discriminación, la segregación o la exclusión" y los videos que nieguen que hayan ocurrido incidentes violentos serán eliminados, dijo YouTube el miércoles.CréditoCréditoDado Ruvic/ReutersYouTube anunció planes el miércoles para eliminar miles de videos y canales que defienden el neonazismo, la supremacía blanca y otras ideologías intolerantes en un intento de limpiar el extremismo y el discurso de odio en su popular servicio.

La nueva política prohibirá "videos que afirmen que un grupo es superior para justificar la discriminación, segregación o exclusión", dijo la compañía en una publicación de blog.

La prohibición también cubrirá los vídeos que nieguen que hayan ocurrido incidentes violentos, como el tiroteo masivo en la escuela primaria Sandy Hook en Connecticut.

YouTube no nombró ningún canal o video específico que sería prohibido.

"Es nuestra responsabilidad proteger eso y evitar que nuestra plataforma sea utilizada para incitar al odio, el acoso, la discriminación y la violencia", dijo la compañía en la publicación del blog.

La decisión de YouTube, propiedad de Google, es la última acción de una empresa de Silicon Valley para frenar la difusión del discurso de odio y la desinformación en su sitio.Hace un mes, Facebook desalojó a siete de sus usuarios más controvertidos, incluido Alex Jones, el teórico de la conspiración y fundador de InfoWars.Twitter prohibió a Jones el año pasado.

Las empresas han sido objeto de intensas críticas por su reacción tardía ante la difusión de contenido falso y de odio.Al mismo tiempo, el presidente Trump y otros argumentan que las gigantescas plataformas tecnológicas censuran las opiniones de derecha, y las nuevas políticas implementadas por las empresas han inflamado esos debates.

La tensión quedó evidente el martes, cuando YouTube dijo que un destacado creador de derecha que utilizó lenguaje racial e insultos homofóbicos para acosar a un periodista en vídeos en YouTube no violaba sus políticas.La decisión desató una tormenta en línea, incluidas acusaciones de que YouTube estaba dando vía libre a algunos de sus creadores populares.

En los vídeos, ese creador, Steven Crowder, un comentarista conservador con casi cuatro millones de suscriptores en YouTube, insultaba repetidamente a Carlos Maza, periodista de Vox.Crowder usó insultos sobre la etnia y orientación sexual cubanoamericana de Maza.Crowder dijo que sus comentarios eran inofensivos y YouTube determinó que no infringieron sus reglas.

"Las opiniones pueden ser profundamente ofensivas, pero si no violan nuestras políticas, permanecerán en nuestro sitio", dijo YouTube en un comunicado sobre su decisión sobre Crowder.

Las decisiones consecutivas ilustraron un tema central que ha definido las luchas de moderación de las empresas de redes sociales: establecer reglas a menudo es más fácil que hacerlas cumplir.

"Este es un cambio importante y esperado desde hace mucho tiempo", dijo sobre la nueva política Becca Lewis, investigadora afiliada de la organización sin fines de lucro Data & Society."Sin embargo, YouTube a menudo ha ejecutado sus pautas comunitarias de manera desigual, por lo que queda por ver qué tan efectivas serán estas actualizaciones".

La escala de YouTube (se cargan más de 500 horas de videos nuevos cada minuto) ha dificultado que la empresa rastree las violaciones de las reglas.Y el enfoque históricamente laxo de la compañía para moderar videos extremos ha dado lugar a una serie de escándalos, incluidas acusaciones de que el sitio ha promovido videos perturbadores para niños y ha permitido que grupos extremistas se organicen en su plataforma.El sistema de publicidad automatizado de YouTube ha combinado vídeos ofensivos con anuncios de grandes corporaciones, lo que ha provocado quevarios anunciantesabandonar el sitio.

El tipo de contenido que será prohibido bajo las nuevas políticas de discurso de odio de YouTube incluye videos que afirman que los judíos controlan el mundo en secreto, aquellos que dicen que las mujeres son intelectualmente inferiores a los hombres y por lo tanto se les deben negar ciertos derechos, o que sugieren que los blancosuna raza es superior a otra, dijo un portavoz de YouTube.

Los canales que publican contenido que incita al odio, pero que no violan las reglas de YouTube con la mayoría de sus videos, pueden recibir advertencias bajo el sistema de aplicación de tres advertencias de YouTube, pero no serán prohibidos de inmediato.

La compañía también dijo que los canales que "repetidamente infrinjan nuestras políticas de incitación al odio", pero no las violen abiertamente, serían eliminados del programa de publicidad de YouTube, que permite a los propietarios de canales compartir la información.ingresos publicitarios que generan sus vídeos.

Además de endurecer sus reglas sobre incitación al odio, YouTube anunció que también modificaría su algoritmo de recomendación, el software automatizado que muestra a los usuarios videos según sus intereses y hábitos de visualización anteriores.Este algoritmo es responsable de más del 70 por ciento del tiempo total invertido en YouTube y ha sido un motor importante para el crecimiento de la plataforma.Pero también ha generado acusaciones de llevar a los usuarios a agujeros llenos de contenido extremo y divisivo, en un intento de mantenerlos mirando y aumentar las cifras de uso del sitio.

"Si el odio, la intolerancia y la supremacía coinciden, entonces YouTube es el líquido más ligero", dijo Rashad Robinson, presidente de la organización sin fines de lucro de derechos civiles Color of Change."YouTube y otras plataformas han tardado bastante en abordar la estructura que han creado para incentivar el odio".

En respuesta a las críticas, YouTube anunció en enero que recomendaría menos videos objetables, como aquellos con teorías de conspiración del 11 de septiembre e información errónea sobre las vacunas, una categoría que llamó "contenido límite".que los cambios de algoritmo habían resultado en una caída del 50 por ciento en las recomendaciones de este tipo de videos en los Estados Unidos.Se negó a compartir datos específicos sobre qué videos YouTube consideraba "límites".

"Nuestros sistemas también se están volviendo más inteligentes sobre qué tipos de videos deben recibir este tratamiento, y podremos aplicarlo a videos aún más dudosos en el futuro", decía la publicación del blog de la compañía.

Otras empresas de redes sociales han enfrentado críticas por permitir contenido supremacista blanco.Facebook prohibió recientemente una serie de cuentas, incluida la de Paul Joseph Watson, colaborador del sitio web de teoría de la conspiración Infowars, y Laura Loomer, una activista de extrema derecha.Twitter prohíbe los grupos extremistas violentos, pero permite que algunos de sus miembros mantengan cuentas personales; por ejemplo, el Ku Klux Klan fue excluido de Twitter en agosto pasado, mientras que su ex líder, David Duke, permanece en el servicio.Twitter es actualmenteestudiandosi la eliminación de contenidos es eficaz para frenar la marea de radicalización en línea.Un portavoz de Twitter se negó a comentar sobre el estudio.

Cuando TwitterprohibidoEl año pasado, el teórico de la conspiración Alex Jones, Jones respondió con una serie de videos denunciando la decisión de la plataforma y recaudando donaciones de sus seguidores.

La prohibición de YouTube a los supremacistas blancos podría provocar un ciclo similar de indignación y agravio, dijo Joan Donovan, directora del Proyecto de Investigación de Tecnología y Cambio Social de Harvard.La prohibición, dijo, "presenta una oportunidad para que los creadores de contenido obtengan una ola de atención de los medios, por lo que es posible que veamos algunas cargas particularmente falsas".

"Me pregunto hasta qué punto el contenido eliminado se amplificará en diferentes plataformas y tendrá una segunda vida". añadió la Sra. Donovan.