"YouTube está facilitando la explotación sexual de niños. Y está siendo monetizada".
Esa es la frase que titula el video del youtuber Matt Watson (también conocido como MattsWhatItIs), quien muestra su indignación tras haber descubierto "una red de pedofilia en YouTube".
"Las recomendaciones del algoritmo de YouTube están facilitando a los pedófilos la capacidad de conectarse entre sí, intercambiar información y poner enlaces en los comentarios", dijo Watson en un video de más de 20 minutos publicado el pasado domingo que acumula cerca de dos millones y medio de visitas.
Watson explica que solamente le hicieron falta dos clics para acceder a contenido publicado por pedófilos y que la plataforma recomienda videos similares de manera automática, de forma que con pocos clics la columna de recomendaciones (a la derecha) se llena de videos con menores.
Además, según el youtuber la plataforma es utilizada por pedófilos para intercambiar contenido de menores y contactos.
También aclara que aunque algunos internautas ya advirtieron sobre este problema. Y dijo que tiene pruebas de que esos videos están siendo monetizados.
"Esto está mal, hay que hacer algo. Ellos lo saben. Y me repugna que nadie haga nada", dijo el creador de contenido californiano.
A continuación, reveló lo fácil que le resultó encontrar videos de contenido sexual con menores de edad que todavía siguen publicados en YouTube.
Son videos aparentemente inocente de niñas probándose bikinis, jugando o haciendo estiramientos, pero en los comentarios se pueden leer las reacciones de pedófilos buscando interacción con los menores o señalando partes del video que encuentran sexualmente sugerentes, así como enlaces que dirigen a contenido pornográfico.
Algunos de esos videos tienen millones de visualizaciones.
Watson pidió a sus espectadores que se pongan en contacto con las marcas que aparecen en los anuncios de esos videos para advertirles que están apoyando indirectamente una red de pedofilia.
Las reacciones no se hicieron esperar.
Algunas compañías como Disney, Nestlé, Purina, McDonalds, Canada Goose, Epic Games y Fortnite dijeron este miércoles que retiran su publicidad de la plataforma de videos de Google a raíz del escándalo.
Otras empresas, como Grammarly, dijeron que están en conversaciones con la plataforma para tratar de resolver el problema antes de cancelar del todo sus inversiones publicitarias.
"Cuando supimos sobre este asunto, nos quedamos -y todavía estamos- totalmente horrorizados, y contactamos a YouTube para que lo rectifique inmediatamente", declaró Senka Hadzimuratovic, vocera de Grammarly, una herramienta de gramática en línea.
¿Qué dice YouTube?
"Cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores es abominable y tenemos políticas claras en YouTube que lo prohíben", le dijo a BBC Mundo un vocero de YouTube.
"Hemos tomado acciones inmediatas borrando cuentas y canales, denunciando la actividad ilegal a las autoridades y deshabilitando los comentarios en decenas de millones de videos que contienen imágenes de menores".
"Hay más por hacer, y continuamos trabajando para mejorar y detectar este tipo de abusos más rápidamente".
Este portavoz también le dijo a BBC Mundo que la compañía está tomando acciones más drásticas y "agresivas" de las que ha implementado hasta ahora para abordar mejor la gestión del contenido inapropiado y que ha eliminado más de 400 canales, algo que también ha expresado públicamente.
Otras medidas incluyen eliminar videos que fueron publicados sin malas intenciones, pero terminaron poniendo en peligro a menores de edad e incrementar la capacidad de descubrimiento de este tipo de contenido.
La empresa también dijo que siempre estuvo comprometida en la lucha contra ese material "horrendo" usando tecnología de vanguardia, en la que seguirá invirtiendo.
Según datos de YouTube, la tecnológica eliminó el año pasado 46.000 cuentasde ciberdelincuentes y las denunció al Centro Nacional para Menores Desaparecidos y Explotados, una organización sin fines de lucro que fue establecida por el Congreso de Estados Unidos.
Y asegura que no solo no dejará de hacer ese trabajo, sino que aumentará sus esfuerzos para velar por la seguridad de los jóvenes.
Las normas de YouTube prohíben a menores de 13 años ser propietarios de cuentas en la plataforma.
Los antecedentes
Este problema se suma a una crisis de anunciantes que estalló en 2017, cuando cientos de firmas ,como A&T y Verizon o la farmacéutica GSK, retiraron sus anuncios luego de una investigación del diario británicoThe Times que concluyó que el sitio estaba colocando avisos publicitarios junto a videos extremistas de contenido político y religioso.
A finales de 2017, YouTube reaccionó presentando algunos cambios para luchar contra los abusos.
En ese momento, algunos periodistas, como el corresponsal de tecnología de la BBC Rory Cellan-Jones, se preguntaban si Google, propietaria de YouTube desde 2006, se enfrentaba a una crisis de confianza.
"Los medios de comunicación se enfrentan a regulaciones estrictas y las próximas podrían surgir del propio Google si no se solucionan los actuales problemas de otra manera", señaló.
Varios anunciantes regresaron un año después a la plataforma luego de que YouTube les asegurara que hizo progresos para detectar y gestionar el contenido inapropiado más rápidamente.
Relacionado
Google eliminó un canal de YouTube tras descubrir que estaba utilizando las reclamaciones de derechos de autor para extorsionar a otros usuarios.
Los responsables de Kenzo y ObbyRaidz, canales en los que publican videos jugando a Minecraft, denunciaron que habían recibido mensajes exigiéndoles dinero a cambio de retirar dos reclamaciones en su contra.
En los mensajes se les amenazaba diciéndoles que si se negaban a pagar, recibirían un tercer aviso por incumplimiento de derechos de autor o copyright.
Según Google, este aviso hace que un canal de YouTube esté "sujeto asueliminación".
La cuenta de YouTube del supuesto extorsionador ha sido eliminada después de que se dieran a conocer sus actos.
La extorsión
Kenzo y ObbyRaidz recibieron mensajes pidiendo que realizaran pagos de entre US$75 y US$400 vía PayPal o Bitcoin.
Ninguno de los dos lo hizo.
El británico Kenzo, quien tiene 60.000 suscriptores en YouTube, acudió a las redes sociales para pedir ayuda después de que uno de sus videos fuera retirado por la segunda reclamación de derechos de autor fraudulenta del extorsionador.
En su respuesta al tuit de Kenzo, YouTube dijo que ambas reclamaciones contra él habían sido "obviamente abusivas" y que el video eliminado ya había sido republicado en su canal.
Google, propietario de YouTube, no respondió a una petición de información por parte de la BBC sobre cómo pretende evitar este tipo de extorsiones en el futuro.
¿Cómo se reclama por derechos de autor?
Una "notificación de eliminación por derechos de autor" tenida en cuenta hace que un video de YouTube pueda acabar siendo retirado y que el canal infractor reciba un aviso por incumplimiento de copyright.
Para hacer esta reclamación, un usuario solo debe proporcionar su información de contacto y una descripción de los derechos de autor que cree que están siendo infringidos por el video en cuestión.
El denunciante también debe aceptar las posibles consecuencias legales si las alegaciones de infracción de derechos de autor resultaran ser "falsas o de mala fe".
El youtuber estadounidense ObbyRaidz calificó el sistema como "inservible" en un video publicado en su canal.
"Cualquiera puede hacerlo", dijo. "Hicieron tan fácil eliminar el canal de alguien: denuncian varios videos y su canal se termina".
"En mi opinión, YouTube solo puso una curita sobre un tema mucho más grande", dijo refiriéndose a la eliminación de la cuenta del extorsionador.
"Esto es algo que puede afectar a más canales en el futuro y necesitan solucionarlo cuanto antes".
Identificación automática
YouTube ha recibido críticas por su sistema de identificación de contenido porque determina de manera automática si un video contiene material que infringe derechos de autor.
Los ataques aumentaron el año pasado cuando un youtuber recibió un aviso de infracción de copyright por incluir su propia canción en uno de sus videos.
Una notificación de eliminación de un video por derechos de autor tiene su origen en una simple solicitud enviada a YouTube por un usuario.
Estas reclamaciones, sin embargo, no siempre conllevan la retirada o eliminación de un canal.
Por ejemplo, una persona puede optar por reclamar derechos de autor para, si su petición tiene éxito, mantener el video en la plataforma pero dirigiendo los ingresos por publicidad hacia el titular de los derechos.
Pero lo cierto es que este tipo de reclamación se está volviendo cada vez más común.
El youtuber MrBeast, que tiene más de 14,8 millones de suscriptores, aseguró que cinco de sus videos más recientes fueron desmonetizados bajo dichas reclamaciones, por lo que se plantea pagar a una persona para ayudarle a evitar esta medida cuando sus videos no infringen las normas.
0 Comentarios