Las reglas del juego en Facebook

Por Alex Argüelles / @KafSofit

El 21 de mayo de 2017, The Guardian publicó un artículo sobre los lineamientos y reglas que tiene Facebook para regular el contenido que publican los usuarios en su plataforma.  De más de 100 de manuales internos, el periódico digital realizó una breve selección para ilustrar algunos de los puntos principales (y alarmantes) de la visión que tiene la red social para moderar temas que van desde los discursos de odio hasta canibalismo.

A raíz del imparable crecimiento en popularidad y uso, surgieron distintos debates en la arena digital sobre el papel “ético” de Facebook al respecto de la información que se comparte y genera en dicha plataforma. Este debate ha ido creciendo a partir de los diversos eventos políticos y sociales que se han ido perfilando en la esfera de opinión que alberga esta red social, eventos que van desde contiendas políticas y suicidios en tiempo real hasta matanzas escolares y represión de protestas o sadismo. Los fragmentos liberados por The Guardian abarcan los siguientes aspectos:

Difamación sexual.

El manual define la difamación sexual (revenge porn o venganza pornográfica) como la distribución pública -sin autorización- de imágenes de desnudo o desnudo parcial con el fin de humillar o exponer a las personas que participan en ellas.

La explotación de imágenes íntimas es considerada abuso, mismo que puede identificarse por:

1. Imágenes producidas en un entorno privado.

2. La(s) persona(s) que aparece(n) retratada(s) está(n) desnuda(s), parcialmente desnuda(s) o sexualmente activa(s).

3. Falta de autorización/consentimiento para publicar dicho contenido, verificable por:

– Contexto de vengativo (e.j: pies de foto o video, comentarios, título de la página)

– Fuentes independientes (e.j: cobertura mediática, registros legales)

4. Intentar sacar provecho (económico vía suma de dinero o social vía likes o shares) de los contenidos abusivos.

5. Amenazar con aprovechar las imágenes (incluidas fotografías clandestinas o creepshots) vía una declaración explícita de difamación sexual o venganza pornográfica.

También establece una diferencia entre la extorsión sexual (sextortion) y la difamación sexual (revenge porn) de la siguiente manera:

Amenaza de publicar imágenes + coerción (presión para obtener dinero, “favores” u otras imágenes)= extorsión sexual.

Desnudo o desnudo parcial + entorno privado + contexto vengativo o falta de consentimiento/autorización= difamación sexual.

Abuso infantil (no sexual) en internet.

“Permitimos que la evidencia de abuso infantil sea compartida en el sitio con el fin de fomentar la identificación y el rescate de los menores de edad, sin embargo añadimos restricciones para proteger a la audiencia”

El manual define que la violencia infantil es aquella que afecta a cualquier menor de 18 años, por medio de la fuerza física con el fin de provocar daño o cualquier actividad que legalmente sea estipulada como abuso infantil.

Serán aptos para publicación videos que contengan a menores siendo pateados, golpeados, abofeteados, mordidos, quemados, cortados, envenenados, estrangulados, sofocados o ahogados por adultos; así como videos en los que se muestre a lactantes siendo aventados, agitados o lastimados por adultos. Los videos de menores de edad fumando (mariguana o tabaco) por coerción de un adulto también serán publicados.

Facebook no tomará medidas sobre las fotografías que muestren abuso infantil no sexual, se limitará a marcar como “inquietante o perturbador” cualquier video que muestre abuso infantil y sólo removerá cualquier contenido que muestre este tipo de abuso si es compartido con sadismo y celebración del mismo.

Amenazas de violencia creíbles.

Facebook busca “permitir la mayor cantidad de expresión posible”, sin embargo muestra interés en frenar la violencia que se ha reportado al interior de su plataforma con el fin de “evitar el daño potencial real provocado por quienes incitan o coordinan la violencia hacia otras personas o propiedades ajenas” a través de una serie de criterios para identificar las amenazas reales de lo que ellos han identificado como una práctica social de expresión del desacuerdo por medio de bromas violentas.

Los estándares para identificar las amenazas de violencia potencial en Facebook determinan que cualquier declaración de cometer violencia hacia una persona o grupo vulnerable, siempre y cuando la amenaza cumpla con las siguientes características:

– Esté dirigida a una persona vulnerable identificada por nombre, título, imagen u otra referencia.

– Esté dirigida a un grupo vulnerable.

– Haga declaraciones aspiracionales explícitas de daño a personas o grupos vulnerables.

– Promueva acciones explícitas enfocadas al daño a personas o grupos vulnerables.

Éstos criterios identifican como personas vulnerables a: cabezas de estado, autoridades específicas, testigos e informantes, personas que tengan historial de intento de asesinato, personas catalogadas como objetivos en listas de asesinato creadas por organizaciones peligrosas, activistas y periodistas. Mientras que como grupos vulnerables mencionan: personas en condición de calle, extranjeros y sionistas; con el caso excepcional de Filipinas, donde son considerados grupos vulnerables: adictos, usuarios y traficantes de drogas.

La amenazas que serán eliminadas deben estar dirigidas a alguna persona con vida o a alguna propiedad y proveer alguno de los siguientes datos: ubicación del objetivo, hora del acto de violencia, detalles del método de violencia, recompensa, venta o muestra de armas de fuego.

En zonas de conflicto, se tomarán en cuenta los siguientes criterios: dirigida a objetivos vulnerables, revela afiliación, señala a objetivos, agrupa objetivos, llama a la justicia callejera. Los objetivos vulnerables en este caso serán: periodistas, figuras políticas, activistas y embajadores.

Los crímenes reconocidos por Facebook son: robo, fraude, asesinato, vandalismo y violación sexual. Facebook no reconoce como crímenes: afirmaciones sobre sexualidad, protestas pacíficas contra gobiernos, restricciones de género y la discusión de eventos históricos o temas controversiales como religión.

Violencia gráfica.

Sobre los contenidos de violencia gráfica, Facebook determina tres grupos principales: sadismo, celebración de la violencia y mutilación.

El sadismo está definido como “el disfrute explícito de la sensación de dolor o humillación que experimenta un ser vivo” (relevante en contenidos violentos) y lo distingue del sadismo sexual “el disfrute erótico de la sensación de dolor o humillación” (relevante en actos sexuales no consensuados). Se considera sadismo expresar el goce del sufrimiento ajeno, el goce de la humillación ajena y la respuesta erótica al sufrimiento ajeno. Facebook no busca al sujeto de las fotos o videos, sino las expresiones de sadismo (ya sea comentario verbal o en pie de foto/video) de quien publica el contenido, en casi de presentarse, tanto el contenido (foto o video) como el comentario serán eliminados.

En cuanto a la celebración de la violencia, ésta no se refiere a lo que el sujeto en la imagen realiza sino a lo que quien publica hace con el contenido: hablar positivamente de la violencia, compartir el contenido por placer sensacionalista.

En el caso de muertes violentas, los videos o imágenes que las muestren podrán ser publicados y sólo en caso de que se compruebe la “celebración de la violencia letal” dichos contenidos y comentarios podrán ser eliminados. Los videos que muestren muertes violentas “son perturbadores pero pueden ayudar a crear consciencia”, por lo que Facebook considera que “los menores necesitan protección y los adultos necesitan una opción”; este tipo de contenidos llevará una marca  de advertencia (que los clasifica como perturbadores), sólo podrán ser vistos por audiencias de 18 años en adelante, tendrán la reproducción automática desactivada.

Facebook define la mutilación como: desmembramiento de un humano o feto, visibilización de entrañas de un humano o feto, cuerpos humanos o fetos siendo incinerados. Sin embargo, considera de que los contenidos que muestran las mutilaciones provienen de la documentación de atrocidades a pesar de conformar gran parte del imaginario más perturbador; es por ello que los videos de mutilaciones son eliminados (sin importar el motivo por el cuál se compartan), las fotos de mutilaciones tienen acceso restringido para proteger a la audiencia, todas las restricciones (sadismo, terrorismo y celebración de la violencia) aplican… Mientras que las fotos y videos de desmembramientos en un escenario médico serán ignoradas.

Autolesión en tiempo real.

Facebook permite que los usuarios transmitan -en tiempo real- intentos de autolesión o suicido ya que no busca censurar o reprimir a quienes se encuentran en sufrimiento, sino que busca promover la ayuda en tiempo real de las personas cercanas a quien recurre a estas prácticas (online y offline). Sin embargo Facebook no tolera la promoción, coordinación o el apoyo de este tipo de comportamiento. Ante estas situaciones las grabaciones serán eliminadas si no hay oportunidad de ayudar a la persona (en caso de que quien realiza el video haya obtenido un resultado letal) siempre y cuando dicho contenido no sea de interés periodístico.

Las amenazas de suicido que sean expresadas por hashtags o emojis serán ignoradas, al igual que las que propongan un método que demuestre ser poco efectivo o realista. La amenazas de suicidio que anuncien un evento con más de cinco días de anticipación, serán ignoradas.

Violencia animal.

Las imágenes de violencia animal pueden ser publicadas en Facebook, sin embargo las imágenes o videos que muestren imágenes extremadamente violentas serán marcados como “perturbadores”. Las restricciones de sadismo y celebración de la violencia se mantienen para los contenidos de abuso animal. Facebook permite que estos contenidos sean publicados con el fin de crear conciencia al respecto.

Serán marcados como perturbadores los videos que muestren: mutilaciones animales, un humano infringiendo golpes o patadas en repetidas ocasiones a un animal o cualquier acto de tortura que resulte en heridas severas para el animal. La mutilación animal incluye: desmembramiento, muestra de entrañas, animales incinerados o incendiándose. Las imágenes de pesca o caza, así como las de preparación de alimentos, serán excluidas de esta categoría.

Serán ignoradas (y carecerán de restricción alguna) las fotografías que muestren: humanos pateando, hiriendo o golpeando animales, animales ensangrentados o lastimados y animales enfermos o famélicos.

                   Cabe mencionar que si bien estas filtraciones no proveen los manuales completos, los puntos ciegos que el comité moderador de Facebook está dejando de lado son evidentes. Uno de los aspectos más alarmantes está en los grupos y personas que estos manuales definen como “vulnerables”, ya que -dejando de lado a los periodistas, activistas, testigos y víctimas de acoso- alude a figuras de alto poder político y deja de lado a segmentos que han sido declarados vulnerables por organismos internacionales, como son: mujeres, menores de edad y minorías étnicas y/o raciales.

Por otro lado, está el sesgo que muestra hacia las víctimas de abuso, pues no contempla el abuso hacia las mujeres o a géneros divergentes (dejando de lado la amplia muestra de contenidos de violencia intrafamiliar, por ejemplo). En el caso de las víctimas de abuso infantil, no hay documentos públicos que muestren alguna vía por la cual las víctimas podrían solicitar que sus contenidos fueran eliminados o el manejo que le darán a los casos referentes al bullying documentado fuera de la “celebración de la violencia”.

Si bien no hay forma de aminorar la gran tarea que implica mantener una convivencia sana sin restringir la libertad de expresión, es claro que esto no debe ser excusa para mantener unos lineamientos tan laxos en una plataforma que tiene gran valor para la esfera pública. Aunque en ningún momento Facebook debería considerarse una fuente completamente inapelable de información, es imposible pasar por alto el fuerte impacto que tiene para algunos usuarios que consumen noticias y construyen su identidad (afiliaciones, preferencias, estilos y grupos) en esta plataforma; es por ello que la importancia de conocer estos fragmentos de sus políticas internas no sólo beneficia a quienes mostramos una postura crítica ante el uso desmedido de las redes sociales, sino también a quienes hacen uso de esta red social sin tomar en cuenta la clase de contenidos que consumen o a los que son expuestos los menores de edad que están a su cuidado.

Aunque bajo ningún motivo se promueve la censura, es importante hacer notar la responsabilidad que tiene Facebook en cuanto a las asociaciones que permite y la difusión de contenidos que autoriza ya que esta red social no es exclusiva para el público adulto “crítico”. De cierta forma, hoy en día, no sólo aprendemos conducta cívica a partir de la convivencia social que tenemos en la vida offline, sino que también adquirimos ciertos criterios de lo “correcto e incorrecto” a través de las relaciones de sentido que se crean en la arena digital a la que estamos expuestos gran parte del tiempo. Es particularmente llamativo el saber que un negocio fincado en la posesión (y venta) indiscriminada de datos actualmente enfrenta a un dilema ético sobre las “libertades” que ofrece a sus usuarios a cambio de su información. Facebook muestra su talón de Aquiles, ante el conflicto de interés… ¿Nos extraña que deje a sus usuarios más vulnerables desprotegidos?