Saltar al contenido

Nueva IA de restricción de edad en YouTube preocupa a comunidad LGBTQ+

restricción de edad en YouTube

Con un historial de apuntar injustamente a los creadores de contenido LGBTQ + en su proceso de moderación, la nueva tecnología basada en inteligencia artificial de restricción de edad en YouTube se considera un próximo paso preocupante para el gigante tecnológico.

En el blog oficial de YouTube, la plataforma reveló planes para lanzar un nuevo software automático para «aplicar restricciones de edad de manera más consistente» en videos considerados inapropiados para espectadores más jóvenes.

Motivado por las preocupaciones recientes sobre los niños en la aplicación, el nuevo sistema se basa en un software de inteligencia artificial de aprendizaje automático con la capacidad de renunciar a los moderadores humanos para un proceso más automático. ¿La cuestión? Los sistemas automatizados de restricción de edad en YouTube han sido acusados ​​de señalar contenido y creadores LGBTQ + simplemente por existir.

«El aprendizaje automático está informado y creado por humanos, y es posible que esos sesgos sean inherentes a él o que la máquina misma los aprenda», dijo el YouTuber Rowan Ellis en una entrevista telefónica. «Su sesgo con respecto al contenido [LGBTQ +] ha sido evidente en las experiencias previas de YouTubers [LGBTQ +], y no he visto evidencia de que se haya hecho algo para evitar que suceda».

Restricción de edad en YouTube injustas a creadores de contenido

Ellis es una YouTuber que crea contenido educativo con una inclinación feminista y queer, y en 2017 publicó un video sobre el modo restringido de la compañía. Como una incursión inicial en la moderación automática de contenido, este modo permitía a los usuarios realizar una preselección opcional de «contenido potencialmente para adultos» a partir de sugerencias y recomendaciones de búsqueda.

Con más de 100,000 visitas, cree que hubo un esfuerzo consciente para evitar que su canal sufriera una restricción de edad en YouTube debido a su oposición vocal a los excesos del nuevo paso de esta red social hacia la moderación. Otros usuarios de la plataforma no tuvieron tanta suerte e hicieron que YouTube lo supiera.

En agosto de 2019, un grupo de ocho creadores LGBTQ + presentó una demanda colectiva contra YouTube que acusó a la compañía de Silicon Valley de restringir los creadores de videos y contenido queer y trans. La demanda alega que el sitio utiliza «prácticas ilegales de regulación, distribución y monetización de contenido que estigmatizan, restringen, bloquean, desmonetizan y dañan financieramente a los demandantes LGBT ya la comunidad LGBT en general». Todavía se abre paso en los tribunales de California.

Quizás te interese  ¿Cómo hacer videos para YouTube?

En junio de ese mismo año, la plataforma recibió una avalancha de atención de los medios después de negarse a reprender rápidamente al comentarista conservador popular Steven Crowder por una campaña de acoso homofóbico de meses contra el periodista y presentador de Vox Carlos Maza. Esto cimentó lo que Ellis dijo que es un patrón con la plataforma en línea de ignorar los desafíos únicos que enfrentan los creadores queer. La falta de fe de los creadores LGBTQ + en la capacidad de YouTube para mostrarse por ellos no carece de mérito.

«No creo que hayan entendido la necesidad de que haya transparencia en lo que respecta a los temas sociales y garantizar la igualdad», dijo. «Todavía hay niños en todo el mundo que han crecido con la idea de que ser gay está mal, y cuando comienzan a cuestionar esa creencia, pero la encuentran cerrada por una búsqueda o restricción segura, reforzará esta idea de que es incorrecto, inapropiado, adulto, perverso y sucio «.

Fallas en el aprendizaje automático

Con su sórdida historia con respecto a los creadores de contenido LGBTQ + en su plataforma, aún se ciernen las preocupaciones sobre la implementación de la capacidad del software de aprendizaje automático para discernir normas más importantes. Don Heider, director ejecutivo del Markkula Center for Applied Ethics, sugiere que la posibilidad de una locura es un riesgo demasiado grande para apostar.

«Es difícil creer que la IA pueda gobernar con eficacia el contenido de varios países con diferentes normas y estándares culturales», escribió en una entrevista por correo electrónico. «La IA se ve con demasiada frecuencia como la respuesta a preguntas complejas. En este punto, la IA y la forma en que se crea tienen dificultades para lidiar incluso con tareas simples, y mucho menos con cualquier moderación de contenido con cualquier nivel de complejidad».

YouTube decidió el uso de la tecnología de inteligencia artificial debido a la falta de moderación constante por parte de los moderadores humanos, según su blog. Aumentar el uso de filtros computarizados para eliminar videos que se consideran inadecuados se convirtió en la norma, y ​​la implementación de los mismos procedimientos para las políticas de restricción de edad en YouTube se considera el siguiente paso lógico.

Quizás te interese  Cómo transcribir videos de YouTube a texto en 2 clicks

Como empresa que busca mejorar gradualmente sus procesos después de largas críticas sobre su relación con los consumidores infantiles, esta decisión no sorprende.

Los niños se han convertido en un grupo demográfico clave para el sitio para compartir videos. En agosto, la firma de análisis de video digital Tubular descubrió que, además de los videos musicales, el contenido dirigido a niños encabezaba la lista de fin de mes de videos más vistos en YouTube.

El interés de la compañía en proteger esta lucrativa y emergente potencia en la plataforma tiene sentido. Sin embargo, las herramientas utilizadas para hacer cumplir esta protección siguen siendo incómodas para aquellos que ya se han encontrado en la fase final de los procedimientos de moderación de la empresa.

«Mi preocupación es que hará mucho daño y no protegerá a los jóvenes [LGBTQ +] que necesitan contenido informativo, franco y honesto que muchos de los YouTubers [LGBTQ +] podrían proporcionar, pero que se marca en su sistema como inapropiado», Ellis. dijo. «Incluso si no es malicioso, lo que no creo que sea, es una falta de participación de diversas voces, o al menos una falta de respeto.

«Vemos eso todo el tiempo en la tecnología. Cuando observas que el reconocimiento facial no puede diferenciar diferentes caras negras, o cuando miramos la medicina y vemos que la medicación solo se ha probado en un género en particular. Estas son conversaciones más amplias y YouTube no está exento de eso «.

Comenta con Facebook
Las Redes Sociales