“La niña del napalm” (1972)
“La niña del napalm” (1972)

Hay dos casos muy recordados respecto de errores de algoritmos en redes sociales en 2016 (y solo por mencionar un par entre miles). En primer lugar, está la histórica fotografía de "la niña del napalm" durante la guerra de Vietnam que fue prohibida en Facebook por la desnudez.

Por otro lado, una foto de una torta tradicional inglesa, denominada simnel, que también fue bloqueada, en este caso en Instagram. Los algoritmos confundieron el postre con senos y, en esta oportunidad, suspendieron la cuenta de la mujer que había subido la foto.

“Querido Instagram, esto es un postre, no un seno”, se lee en la publicación de la hija de la mujer con la cuenta suspendida.
“Querido Instagram, esto es un postre, no un seno”, se lee en la publicación de la hija de la mujer con la cuenta suspendida.

En ambos casos -humanos de por medio- los contenidos volvieron a ser subidos (y la mujer de la torta inglesa, clásica en Pascua, recuperó su cuenta suspendida).

¿Quién revisa los contenidos que los usuarios comparten en las redes sociales? Los sistemas algorítmicos, los visualizadores o "curadores" de contenido (personas) y los propios usuarios, reportando contenidos abusivos o inapropiados.

Pero, ¿cómo se delimita esta barrera entre "el bien" y "el mal"? A través de las políticas y términos de uso de las redes sociales, que cambian permanentemente. Leerlos es responsabilidad de los usuarios. Cada servicio tiene su forma de operar y controlar los contenidos.

"He leído y acepto los términos. Es la mentira más grande en la web. Nuestro objetivo es arreglar eso", dicen desde la organización Terms of service didn´t read (tosdr.org). El sitio analiza los términos de todas las redes sociales y los clasifica desde "muy bueno" (clase A) a "muy malo" (clase E). 

En líneas generales, hay contenidos que no son bienvenidos en las redes sociales, como la propaganda terrorista o la pornografía. Aunque en este último caso, Twitter y Snapchat son más permisivos, permiten desnudez e incluso pornografía, aunque también tienen sus formas de controlar determinados materiales.

Sin embargo, Twitter permite que el usuario regule parte del contenido que ve, mediante filtros en la configuración. Así, es posible elegir ver o no este tipo de contenido. Algunos usuarios podrían reportar material que en su configuración están permitidos.

Twitter: En Configuración/Privacidad y seguridad/Seguridad se puede elegir ver o no contenidos delicados.
Twitter: En Configuración/Privacidad y seguridad/Seguridad se puede elegir ver o no contenidos delicados.

En el caso de YouTube, por ejemplo, existen bots que leen las publicaciones de los usuarios. Pueden reconocer comentarios de índole sexual, hasta de armas y violencia. Inclusive, están comenzando a reconocer casos de bullying. El 99% de las revisiones se hacen a través de algoritmos, según indican desde Google.

Los equipos de trabajo de YouTube están constantemente tomando muestras para chequear que el algoritmo funcione correctamente. Intervienen cuando hay reportes de algún video en particular, pero sino el proceso es automático.
Por su parte, Facebook, de acuerdo a su último reporte de remoción de contenido, durante el primer trimestre de 2018 eliminó 21 millones de publicaciones de desnudos de adultos o material pornográfico. Un 96% del contenido fue detectado por herramientas tecnológicas antes de que fuera reportado.
Asimismo, cada 10.000 publicaciones visualizadas en Facebook, entre 7 y 9% incluyen material que viola sus estándares.
Las razones
¿Por qué sería eliminado un contenido en redes sociales, hasta provocar la suspensión o bloqueo de una cuenta? Aquí, las 5 principales razones:
Desnudez

En redes sociales como Facebook, Instagram o YouTube está prohibido la pornografía y las imágenes de desnudos.

Hay excepciones. Por ejemplo, un video que contenga desnudos u otro contenido sexual en YouTube se podría permitir si el objetivo principal es educativo, documental, científico o artístico. "Y no es innecesariamente gráfico", señalan desde soporte de la compañía.

En este caso entran los documentales, por ejemplo. ¿Qué sucedería si fuese un material sobre el cáncer de mamas? No sería inadecuado, dentro del contexto. En ese sentido, si el usuario que sube el video proporciona información que contextualiza en el título y la descripción, está ayudando a determinar el objetivo principal del video.

Asimismo, en los casos en que los videos no infringen las normas, con contenido sexual, se pueden aplicar restricciones de edad.

En el caso de Facebook e Instagram, han mejorado su sistema de detección. Sin embargo, todavía siguen apareciendo casos de posts levantados por desnudez, vinculados a obras de arte o expresiones artísticas.

Otro caso, respecto de fallas en la interpretación de los contextos, es el de la puericultora Paola de los Santos. Su trabajo es acompañar a madres en su etapa de lactancia. En su cuenta de Instagram @paolalactancia suele subir imágenes de madres amamantando o incluso, de senos.

El posteo compartido por la puericultora en Instagram.
El posteo compartido por la puericultora en Instagram.

Una imagen de un seno provocó algo que no suponía que iba a pasar. "Me dieron de baja la publicación. Hice captura de pantalla de eso y lo compartí. Por un día no pude subir nada más. Al otro día, pude acceder nuevamente a la cuenta. Es raro, subo varias fotos de tetas y nunca me había pasado", dice a Infobae la puericultora.

Incitación al odio

Durante el primer trimestre de 2018, Facebook dio de baja o advirtió sobre cerca de 3,5 millones de publicaciones con contenido violento. También fueron eliminados 2,5 millones de artículos que contenían discurso de odio.

De todas formas, el propio Mark Zuckerberg asume que todavía hay mucho por hacer para evitar este tipo de abusos, que no solo se aplican a Facebook.

En este sentido, la inteligencia no alcanza al momento de detectar estos contenidos inapropiados. Por eso, es clave entrenarla en una adecuada detección de los contextos.

En el caso de YouTube, la incitación al odio tiene denominadores comunes con Facebook y otras redes. Alude a la violencia de determinados grupos respecto de algunas características, como origen étnico o raza, religión, discapacidad, género, edad, condición de excombatiente de guerra u orientación o identidad sexual.

Por su parte, Twitter, que menciona también estos puntos en sus políticas comenzó en marzo de este año a mejorar "la salud" de las conversaciones, señalando la importancia de combatir a los trolls. La mayoría de las cuentas denunciadas por abuso es menor al 1% señalan desde Twitter.

En esta "limpieza", la red social de Jack Dorsey está considerando  señales nuevas. Por ejemplo, si una cuenta no confirma su correo electrónico y el usuario se registra con varias cuentas simultáneamente. O si éstas emiten tweets frecuentemente y mencionan cuentas que no las siguen, o se sugiere un comportamiento que podría significar un ataque coordinado.

Desde Twitter destacan sus resultados. En sus primeras pruebas en distintos países, redujeron un 4% los informes de abuso de búsqueda y un 8% de informes de abuso en las conversaciones.

Por otro lado, respecto de Instagram y en un episodio poco claro, la actriz Verónica Llinas, quien sube de forma periódica videos cómicos, sufrió el levantamiento de un video, sin saber por qué.

La actriz lo reportó y habló con el equipo de Instagram. "Al día siguiente volvió a aparecer el video, nunca supe bien por qué. Una hipótesis era que contenía la palabra 'suicidio' pero un poco raro… No se qué pasó con el video", dice a Infobae.

Violencia gráfica

Las redes sociales están de acuerdo en este punto. Twitter, por ejemplo,  considera violencia gráfica a cualquier tipo de contenido multimedia al que  llama "truculento", que muestre muertes, lesiones graves, violencia o procedimientos quirúrgicos.

Asimismo, agregan que consideran no apto para menores de edad cualquier contenido multimedia que sea pornográfico o cuyo fin sea generar excitación sexual.

Sin embargo, aclaran desde sus políticas: "Twitter permite algunos tipos de violencia gráfica o contenido no apto para menores en los tweets, siempre y cuando estos indiquen que incluyen contenido delicado".

En el caso de YouTube, se refieren a contenido violento o explícito. Y se detienen en el terrorismo. "No permitimos que organizaciones terroristas usen YouTube para ningún fin, incluido el reclutamiento", señalan.

Pero si se tratara de un contenido sobre terrorismo, en carácter noticioso, documental, científico o artístico, el usuario debería dar la información necesaria para que la audiencia lo comprenda fácilmente.

En el caso de Facebook, la compañía asume su responsabilidad, admitiendo que su tecnología aun no es suficientemente eficaz en este aspecto. Por esa razón, necesitan de grandes equipos de revisión.

En el primer trimestre, la red social dio de baja aproximadamente 3,5 millones de publicaciones con contenido violento. También se eliminaron 2,5 millones de artículos que contenían discurso de odio.

Copyright

Todas las redes sociales se detienen en este punto: la propiedad intelectual. Twitter aclara en sus políticas que puede suspender una cuenta si usa una marca comercial ajena, que podría engañar o confundir a otros usuarios.

Snapchat se compromete a tomar medidas razonables para eliminar de su servicio materiales que infringen repetidamente los derechos de autor. 

En el caso de YouTube, un video puede ser eliminado si incumple los derechos de autor. ¿Cómo lo saben? El propietario de esos derechos envía una solicitud legal a la red social.

SPAM y cuentas falsas

En principio, en Twitter está prohibido la venta y compra de nombres de usuario. Por otro lado, el spam en esta red social se toma como una actividad de manipulación, para dirigir el tráfico o la atención hacia cuentas, productos, servicios o iniciativas no relacionados. 

¿Qué puede constituir un SPAM? Vínculos compartidos sin ningún mensaje, haber sido bloqueado por un número significativo de personas, dar siempre las mismas respuestas, o si se publica reiteradamente la información de la cuenta de otros usuarios como propia (en la biografía, los tweets, URL del perfil y otros). Puede ser personas o bots.

Por su parte, según Facebook, han desactivado aproximadamente 583 millones de cuentas falsas en el primer trimestre. Dicen que la mayoría apenas unos minutos después de que fueran registradas. Calculan que entre 3 y 4% de las cuentas activas durante el período analizado eran falsas.

De acuerdo a YouTube, no es correcto publicar grandes cantidades de videos repetidos o subidos varias veces en un mismo canal. Asimismo, como en las otras redes sociales, cualquier elemento que aumente artificialmente la cantidad de vistas, "me gusta", comentarios y otras métricas (que puede ser a través del uso de sistemas automáticos o la presentación de videos a espectadores desprevenidos), infringe sus condiciones.

SEGUÍ LEYENDO: