por Aglaia Berlutti
Hace unos días, compartí en mi front-page de Facebook una de las fotografías más icónicas del siglo pasado: la controvertida y dolorosa imagen de «La niña del napalm» del fotógrafo Nick Ut. Lo hice además, bajo un contexto profesional: La descripción que acompañaba el documento histórico —porque eso es lo que es— intentaba analizar la repercusión de la reciente censura que había sufrido debido a la normativa sobre desnudos de la red social. En ningún momento, creí que la fotografía —convertida en un símbolo del dolor y la violencia descarnada de la guerra— pudiera despertar susceptibilidades. O mejor dicho, considerarse algo menos que un alegato de ideas complejas expresadas a través de una imagen concreta.
Pero al parecer, lo es. O mejor dicho: lo es para el preciso algoritmo de Facebook encargado de tamizar imágenes de desnudos o de contenido sexual. Como ya había ocurrido días antes con el periódico Aftenposten de Noruega, de inmediato recibí una notificación donde se me indicaba que la imagen sería borrada y mi cuenta cuenta bloqueada durante tres días por infringir «las normas de publicación de la plataforma». Eso, a pesar de la batalla pública que el editor de Aftenposten había llevado a cabo contra Zuckerberg y su posterior triunfo, que acarreó un comunicado en el cual Facebook admitía que su sistema de detección de desnudos en ocasiones, sobrepasa lo razonable. Aún así, el bloqueo contra mi cuenta se hizo efectivo de inmediato y sin ningún tipo de posibilidad de argumentación en contra. Para Facebook, la política sobre desnudos y sobre todo sus implicaciones se encuentra más allá de un debate público y parece más relacionado con una línea no negociable de la empresa.
Claro está, no se trata de la primera vez que recibo censura directa por parte de Facebook. En ocho años de uso varias de las imágenes de mi trabajo fotográfico han sido borradas y mi cuenta bloqueada por tres o cuatro días, debido a los desnudos que forman parte de mi propuesta visual y sobre todo, al hecho que me llevó casi un lustro comprender que el reglamento sobre el «contenido inapropiado» no admite replicas, matices ni mucho menos argumentos en contra. No obstante, el hecho que una imagen pública e histórica como la de «La niña de Napalm» sea censurada, lleva a Facebook de nuevo al centro del debate sobre las redes sociales y la censura que se ejerce, en un intento de hacer la convivencia electrónica mucho más «saludable». ¿Qué hace que para Facebook no haya un mecanismo de distinción entre material potencialmente sensible o de contenido explícito y fragmentos de la historia reciente de enorme valor cultural? ¿Qué hace que Facebook como empresa sea incapaz de implementar sistemas mucho menos punitivos y sí más abiertos a un espectro más amplio sobre el contexto que rodea al contenido censurado? ¿O es que para Facebook —como red social y empresa— resulta mucho más sencillo el análisis del material que puede incluir o no el usuario desde lo obvio? En más de una ocasión, Mark Zuckerberg ha esgrimido la justificación que es imposible discernir la naturaleza subjetiva del contenido que se comparte y por tanto, las reglas deben ser tan estrictas como evitar filtración de material que pueda resultar ofensivo o potencialmente peligroso. No obstante, tal parece que el problema del sistema de Facebook para discernir el origen y el contexto del material que se comparte es algo más profundo y preocupante que el simple hecho de censurar sin un necesario análisis forma y fondo.
La censura a ciegas
El pasado 22 de agosto, el curador de arte Stephen Ellcock fue suspendido en el uso de su cuenta por treinta días debido a una «violación» no especificada de las normas comunitarias de Facebook. Para sorpresa de Ellcock —un londinense de 59 años que sólo comparte material artístico en su página de Facebook— la empresa esgrimió que había compartido material «sensible» que provocó su inmediata sanción. A Ellcock le llevó casi una semana encontrar el contenido que la red social había censurado: Se trataba del boceto de una mano dibujado por Hans Holbein el joven, uno de los retratistas más conocidos del s. XVI. Por alguna razón el sistema Facebook había concluido que el dibujo —en el que lo único que aparece es una mano— era un contenido «inapropiado e inadmisible» para ser difundido a través de su plataforma.
La reacción de Ellcock no se hizo esperar: de inmediato pidió a sus casi 110.00 seguidores protestar por un tipo de censura no sólo injustificable sino que además, carecía del menor sentido. Muchos de los aficionados a la página de Ellcock de inmediato le apoyaron compartiendo el boceto de Holbein, así como también cualquier otra obra que representara manos, tanto en el ámbito pictórico como fotográfico. De inmediato, la curiosa protesta se hizo viral. Las llamadas «manos de Ellcock» intentaron cuestionar el mecanismo que disgrega el material «sexual o inapropiado» en una red social que se niega no sólo a revisar sus políticas —o matizarlas en todo caso— y que ha convertido un sistema mecánico en una herramienta de sutil y la mayoría de las veces, inexplicable censura.
Luego de varias semanas, el esfuerzo tuvo resultados: Facebook terminó reconociendo que la censura contra Ellcock se debió a lo que llamó sin especificar un «error humano» de uno de sus empleados y pidió disculpas públicas. De inmediato, la cuenta de Ellcock fue restablecida y recuperó su actividad habitual. No obstante, ni en el comunicado que informó sobre el equívoco ni a través de ningún otro medio, Facebook informó en que había consistido el «error» ni mucho menos, si tomaría acciones para remediar situaciones semejantes. De hecho, para Ellcock lo más preocupante fue el hecho que a pesar de asumir su responsabilidad en la censura, Facebook no parece dispuesto a ceder en el debate sobre la pertinencia de la normativa, lo que hace que el sistema que censuró una obra de arte genérica, pueda hacerlo en el futuro.
«¿Cuántos artistas anónimos han sufrido algún tipo de censura por parte de Facebook sin la posibilidad del debate público?», comentó Ellcock en un mensaje que publicó luego que Facebook le permitiera seguir usando su cuenta. «¿A qué se enfrenta la manifestación y difusión del arte en medio de un sistema de normas poco claras que dependen de la arbitrariedad?». Como era presumible, Ellcock no recibió ninguna respuesta.
No es la primera vez que Facebook censura obras de arte por carecer de un sistema algorítmico mucho más preciso del que hasta ahora usa. Hace dos años, el cuadro «El origen del mundo» de Gustave Courbet —que muestra a una mujer tendida con los genitales muy visibles— provocó el cierre de la cuenta de varios usuarios, una ola de protestas y posteriormente un muy publicitado juicio a Facebook, que aún se dirime en tribunales franceses. Antes de eso, la fan page del Museo Pompidou fue censurada por publicar la imagen de un cuadro del pintor Gerhard Richter en la que aparecía una figura femenina desnuda. La fotografía fue eliminada y la cuenta de la institución sufrió tres días de bloqueo. Luego de una queja pública discreta, el museo pudo volver a utilizar su página. No obstante, de la misma manera en que ocurriría con Ellcock, la disculpa no incluía propósito de enmienda alguno ni tampoco un análisis de la situación que había provocado la censura en primer lugar. Para Facebook, su estricta política sobre el contenido inapropiado o sensible siguió siendo un punto que no se debate o lo que es lo mismo, no acepta argumento en contra.
De la censura al derecho que se protege: ¿Se excede Facebook en su protección al usuario?
Durante los últimos años, Facebook ha insistido que la censura de contenido que considera inapropiado tiene por único objetivo evitar que la red social más accesible del mundo se convierta en una plataforma de difusión ilegal de material sensible, como pornografía, o directamente criminal, como contenido pedófilo. No obstante, las directivas de Facebook parecen más enfocada al reconocimiento inmediato de contenido con cierto tono sexual —no importa su contexto o mucho menos su objetivo— que a cualquier otro objetivo, lo que convierte a la herramienta en un método fallido de origen. Más allá de sus intenciones, el control milimétrico al que Facebook somete a las imágenes que se comparten en su plataforma, pareciera tener un sentido más moralista que práctico o al menos que se deduce del análisis del resultado inmediato del método.
Según las normas de Facebook, cualquier fotografía que muestra genitales o nalgas de manera directa serán eliminadas de inmediato, de la misma manera que la imagen de un pezón femenino. La regla no especifica si la censura se aplica aún en imágenes de contenido histórico —como «La niña de Napalm»— o de piezas de arte universales. Para Facebook se trata de un elemento esencial: la desnudez es el principal motivo por el que se censura, no importa su objetivo o trascendencia.
Se trata de un pensamiento preocupante, porque aunque Facebook matiza en algunos puntos —como en el hecho que se permiten fotografías de pecho desnudos mientras sean «las de mujeres amamantando o que muestren los pechos con cicatrices por una mastectomía»— lo restrictivo de la normal parece no admitir mayor amplitud. Respecto a la pintura y la escultura, normas sí permiten desnudos, aunque no imágenes de sexo explícito. Sin embargo, Facebook no explica a que se refiere con esa interpretación, lo que abre la posibilidad que situaciones como la de Ellcock y otros tantas víctimas de un sistema restrictivo y automático se repitan con enorme frecuencia.
Un caso reciente es el ocurrido con el trailer promocional de la película «El abrazo de la serpiente» nominada al Oscar el año pasado en la categoría de película extranjera. En el material que acompaña al producto audiovisual, puede verse la imagen de un indígena que pasea llevando sólo el taparrabos, una vestimenta habitual en la zona. La imagen se difundió a través de un anuncio pagado en Facebook y además, como parte de la promoción de la película. Unos días después y sin aviso —a pesar que la empresa productora había pagado una campaña completa— el trailer y el resto de las imágenes promocionales en que aparecía el indígena en taparrabo fueron eliminadas.
Cuando la productora exigió una explicación a lo que llamo «un evidente incumplimiento de contrato», Facebook respondió que la imagen —y el resto del material promocional— había sido eliminado por «mostrar mucha piel», aunque de hecho el personaje fotografiado en el cartel oficial de la película lleva el mencionado taparrabo. No obstante, Facebook insistió que se trataba de una evidente «violación a los términos y convenios de uso» y no aceptó restituir el contenido censurado.
La productora Oscilloscope se apresuró a protestar a través de sus redes sociales insistiendo que Facebook había aprobado el material que se estaba utilizando como promoción de la película. «El anuncio, que estaba aprobado y ha estado circulando varios días, muestra una representación cultural muy precisa de la vestimenta tradicional del río Amazonas. La justificación de “exceso de piel” es simple y no es gratuita», reclamó y exigió una respuesta a Facebook, sobre todo por el hecho que la campaña publicitaria había sido contratada bajo términos específicos y Facebook se negaba a reintegrar el dinero invertido. Según la red social «la violación» de los términos de uso impedía cualquier tipo de reembolso.
Oscilloscope continuó insistiendo en su reclamo hasta que un empleado del llamado «departamento de integridad» de Facebook justificó de nuevo la decisión, argumentando que «los anuncios con un tono sexual subliminal no están permitidos. Esta política se aplica incluso cuando se está promocionando ropa interior, condones o libros de educación sexual». No obstante, la película dirigida por Ciro Guerra y que cuenta la historia de dos extranjeros que viajan al Amazonas en busca de una planta sagrada, no encaja en ninguno de los supuesto. A pesar de eso, Facebook continuó insistiendo en que el mero hecho de mostrar «ciertas partes del cuerpo proclives a la censura» podían provocar el retiro «total o parcial» de las imágenes utilizadas, sin ninguna explicación inmediata o posterior.
No obstante, Oscilloscope no se dio por vencido y expresó su sorpresa por el hecho que Facebook le brindara al trailer y el material de promoción de la película un un tono sexual encubierto es inimaginable. La productora continuó defendiendo su material y sobre todo la investigación antropológica que sostiene el film, argumentando que «estas imágenes se producen de manera antropológica e histórica en la naturaleza, argumentar que tienen una carga sexual sería como comparar National Geographic con Playboy. Les pido por favor que reconsideren su decisión».
Finalmente y luego que la insistencia de Oscilloscope y sobre todo, su repercusión pública, Facebook finalmente se retractó con un mensaje público en el que como en otras ocasiones, acepta su error pero sin un propósito de enmienda claro, según puede leerse en la web Fusion. «Pedimos perdón, fue un error, este vídeo no viola nuestras políticas». De nuevo, Facebook admite que su sistema de verificación de los contenidos que se comparte es inexacto y poco claro, pero insiste en no asumir la responsabilidad en el error del método, sino señalar equivocaciones puntuales o a los mentados «errores humanos».
Un extremo que la productora Oscilloscope tiene muy claro: «Me alegra que hayan cambiado de opinión, pero teniendo en cuenta de que este tipo de situación no es la primera vez que pasa, creo que podría haberse evitado», replicó Dan Berger, presidente de Oscilloscope luego de hacerse pública la disculpa de la red social.
De la censura a la restricción de contenido: ¿A quién protege Facebook?
A pesar de los alegatos de Mark Zuckerberg que su estricta normativa de contenidos tiene por objetivo mantener la red social «saludable» y a salvo de material inapropiado, los resultados del sistema parecen sugerir algo por completo distinto. O al menos es lo que sugiere lo sucedido con la poeta Luna Miguel (Alcalá de Henares, 1990), cuya página y perfil de Facebook fue eliminada luego que publicara en su front-page la promoción de su más reciente libro El dedo. Breves apuntes sobre la masturbación femenina (Capitán Swing). A pesar de lo insinuante que pueda parecer el título, el libro —una colección de exquisitos poemas sobre el placer de la mujer— no tiene un tono pornográfico, sino que analiza la sexualidad desde una serie de símbolos universales de enorme elegancia literaria. Además, la portada del libro es una ilustración minimalista que muestra una mano con el dedo índice extendido que toca una curva sugerente. Podría ser un monte de Venus, pero también, no serlo.
No obstante, para Facebook la mera insinuación parece haber sido suficiente para eliminar el perfil de la escritora sin ninguna otra explicación que la de acusar al material difundido por Miguel de «infligir las normas comunitarias de la plataforma».
Cuando Miguel pidió explicaciones sobre una idea tan abstracta (puedes leer su narración sobre lo ocurrido en este post de su blog) la red social insistió en no especificar cuál publicación había transgredido la norma y se limitó a insistir que el material de Miguel «no cumple los requisitos para usar Facebook». Además en un escueto mensaje, Facebook insistió a la escritora que no podía explicarle los motivos por lo cual su cuenta había sido eliminada por «motivos de seguridad» sin agregar alguna conclusión a lo que podría haber provocado una reacción tan inmediata y fulminante. De hecho, el mensaje cierra con una frase contundente «la decisión no es apelable».
Al consultar la Declaración de Derechos y Responsabilidades que los usuarios aceptan al crear una cuenta en Facebook puede leerse en el apartado referente a la seguridad que «No publicarás contenido que contenga lenguaje que incite al odio, resulte intimidatorio, sea pornográfico, incite a la violencia o contenga desnudos o violencia gráfica o injustificada». No obstante el contenido de la escritora no violentaba ninguno de los requisitos y mucho menos, podría interpretarse de esa forma. A pesar de eso Luna Miguel —y todo el contenido acumulado durante ocho años de participación activa en Facebook— fue eliminado.
¿Que regla infringió Luna Miguel si ninguna de las imágenes que compartió y mucho menos, el contenido escrito que formó parte de su front-page hasta su eliminación era pornográfico, sensible o ambiguo? ¿Se trató de la mera mención de la palabra «masturbación» o algo semejante? ¿O es algo más enrevesado que choca de manera directa con una interpretativa limitación de contenido de la red social? ¿Cuál es el límite entre la actuación de la red social como «guardián» de la integridad del contenido y algo más brumoso? ¿Qué hace que el material que compartimos sea analizado y tergiversado hasta considerarse peligroso? ¿Quién interpreta la normativa de Facebook hasta convertirla en un arma de doble filo? ¿Qué hace que cierto material sea considerado «una amenaza» a la salud de la red y otro pase por completo desapercibido? ¿Qué hace que las imágenes de violencia directa y cruda no sean censuradas de la misma manera?
Aftenposten, el periódico más grande de Noruega se hizo la misma pregunta luego que Facebook censurara una fotografía histórica de la Guerra de Vietnam sin otra explicación que «infringir las normas comunitarias». En una carta abierta publicada en primera plana dirigida a Mark Zuckerberg, el periódico cuestiona el sistema de censura de Facebook y pide al CEO reconocer su papel como el «mayor editor del mundo», lo que debate sobre la censura de supuesto contenido sensible a otro nivel.
Espen Egil Hansen, el editor en jefe y director general de Aftenposten, debatió de manera pública el hecho que Mark Zuckerberg tiene una responsabilidad evidente en el hecho de construir un sistema de interpretación visual que promueve la censura subjetiva, a pesar de la insistente visión de la red social en lo contrario. «Estoy molesto, decepcionado —bueno, de hecho, incluso atemorizado— de lo que está a punto de hacer que uno de los pilares de nuestra sociedad democrática», escribe Egil Hansen, dejando claro no sólo la posición del periódico sino también una preocupación cada vez más frecuentes en usuarios de la red social más accesible y con mayor número de usuarios en el mundo. «Me preocupa que el medio de comunicación más importante del mundo está limitando la libertad en lugar de tratar de extenderlo, y que esto ocurre de vez en cuando de una manera autoritaria», añadió.
La controversia ocurre luego que Facebook insistiera en que el mensaje del escritor noruego Tom Egeland sobre la guerra publicado por el periódico, en en el incluye siete fotografías del fotógrafo Nick Ut —en las que aparecen niños desnudos— es una clara violación a las normas de uso de la plataforma. Unos minutos después de la difusión del material, Egeland fue suspendido por veinticuatro horas de Facebook y más tarde, cuando Aftenposten informó sobre el hecho —utilizando de nuevo la fotografía de «La niña de Napalm» de Ut—, recibió un mensaje de Facebook solicitando el contenido fuera eliminado, a lo que el periódico se negó. De inmediato Facebook eliminó no sólo la fotografía, sino también la página del periódico en la plataforma.
En su carta abierta, Hansen describe todo lo anterior pero además añade que le preocupa la interpretación de la evidente discrecionalidad del sistema de censura en Facebook, incapaz de distinguir entre la pornografía infantil y un documento histórico de enorme valor como «La niña de Napalm».
«A pesar de que soy editor en jefe del periódico más grande de Noruega, tengo que darme cuenta de que está restringiendo mi espacio para el ejercicio de mi responsabilidad editorial», escribe Hagen, reflexionando de nuevo sobre un tema que ha llevado a Facebook al centro de las críticas varias veces durante los últimos años. «Creo que está abusando de su poder, y me resulta difícil de creer que lo haya pensado bien a fondo».
La reacción de Hansen y sobre todo, el editorial de Aftenposten llegan en un momento donde Facebook parece tener la obligación de revisar sus planteamientos sobre cómo se analiza el contenido que se difunde a través de la plataforma. Según un estudio del 2016 realizado por Pew Research Center, el 44 % de los adultos estadounidenses consiguen sus noticias en Facebook, lo que es un reflejo de la tendencia a nivel mundial. Con un predominio semejante, las estrictas leyes de Facebook necesitan —o al menos es el clamor un cada vez mayor números de usuarios— una revisión o al menos una evolución que aseguren se pueda disminuir la posibilidad de situaciones como la ocurrida Aftenposten. Una y otra vez, buena parte de la opinión pública comienza a preocuparse que el algoritmo de Facebook —o esa misteriosa red de intrincadas normas que nunca parece ser lo suficientemente clara— puedan ejercer un poder real sobre las noticias que se difunden y sobre todo, tener un peso real sobre la forma como se comprende la noticia y la difusión de la información.
El escándalo de Aftenposten llegó incluso a preocupar a la ministra Erna Soldber, que criticó abiertamente a Facebook por la censura y acusó a Zuckerberg por implementar reglas de «conducta» no muy claras a la hora editar contenidos. «Mientras estaba en un avión de Oslo a Trondheim, Facebook ha borrado una publicación de mi página», escribía Solberg en su perfil de Facebook. «Mediante la eliminación de imágenes de este tipo, por muy buenas que sean las intenciones, lo que está haciendo Facebook es modificar nuestra historia común». El hecho de la censura a la fotografía parecía sobre todo, exceder la idea común sobre la revisión de contenido y convertirse en algo más complicado: un mero ejercicio de poder.
Quizás debido al impacto mediático de lo ocurrido, Facebook se apresuró a ponerse en contacto con Aftenposten para notificarles que permitiría el uso de la fotografía en la página web del periódico. Según el el periódico noruego, Facebook considera que es necesario restablecerla «debido a su estatus de imagen icónica con una importancia histórica». No obstante, aún la imagen sigue siendo censurada y motivo de suspensión de servicio y de uso de distintos perfiles alrededor del mundo, como el mío. ¿Se trata entonces de otra nueva admisión de una «responsabilidad» difusa sobre el tema pero que no cambia el origen de la controversia y el problema real que provoca la censura en Facebook?
No podría decirlo. Y quizás aún no exista una respuesta clara a un dilema semejante. O no lo habrá, mientras Facebook continué considerando su reglamento infalible y sobre todo, que la discrecionalidad no está reñida con su responsabilidad con el material se difunde y su importancia pública. De manera que es probable que la censura en Facebook continúe siendo un tema de debate —estéril, además— por un buen tiempo más.
por Aglaia Berlutti
Hace unos días, compartí en mi front-page de Facebook una de las fotografías más icónicas del siglo pasado: la controvertida y dolorosa imagen de «La niña del napalm» del fotógrafo Nick Ut. Lo hice además, bajo un contexto profesional: La descripción que acompañaba el documento histórico —porque eso es lo que es— intentaba analizar la repercusión de la reciente censura que había sufrido debido a la normativa sobre desnudos de la red social. En ningún momento, creí que la fotografía —convertida en un símbolo del dolor y la violencia descarnada de la guerra— pudiera despertar susceptibilidades. O mejor dicho, considerarse algo menos que un alegato de ideas complejas expresadas a través de una imagen concreta.
Pero al parecer, lo es. O mejor dicho: lo es para el preciso algoritmo de Facebook encargado de tamizar imágenes de desnudos o de contenido sexual. Como ya había ocurrido días antes con el periódico Aftenposten de Noruega, de inmediato recibí una notificación donde se me indicaba que la imagen sería borrada y mi cuenta cuenta bloqueada durante tres días por infringir «las normas de publicación de la plataforma». Eso, a pesar de la batalla pública que el editor de Aftenposten había llevado a cabo contra Zuckerberg y su posterior triunfo, que acarreó un comunicado en el cual Facebook admitía que su sistema de detección de desnudos en ocasiones, sobrepasa lo razonable. Aún así, el bloqueo contra mi cuenta se hizo efectivo de inmediato y sin ningún tipo de posibilidad de argumentación en contra. Para Facebook, la política sobre desnudos y sobre todo sus implicaciones se encuentra más allá de un debate público y parece más relacionado con una línea no negociable de la empresa.
Claro está, no se trata de la primera vez que recibo censura directa por parte de Facebook. En ocho años de uso varias de las imágenes de mi trabajo fotográfico han sido borradas y mi cuenta bloqueada por tres o cuatro días, debido a los desnudos que forman parte de mi propuesta visual y sobre todo, al hecho que me llevó casi un lustro comprender que el reglamento sobre el «contenido inapropiado» no admite replicas, matices ni mucho menos argumentos en contra. No obstante, el hecho que una imagen pública e histórica como la de «La niña de Napalm» sea censurada, lleva a Facebook de nuevo al centro del debate sobre las redes sociales y la censura que se ejerce, en un intento de hacer la convivencia electrónica mucho más «saludable». ¿Qué hace que para Facebook no haya un mecanismo de distinción entre material potencialmente sensible o de contenido explícito y fragmentos de la historia reciente de enorme valor cultural? ¿Qué hace que Facebook como empresa sea incapaz de implementar sistemas mucho menos punitivos y sí más abiertos a un espectro más amplio sobre el contexto que rodea al contenido censurado? ¿O es que para Facebook —como red social y empresa— resulta mucho más sencillo el análisis del material que puede incluir o no el usuario desde lo obvio? En más de una ocasión, Mark Zuckerberg ha esgrimido la justificación que es imposible discernir la naturaleza subjetiva del contenido que se comparte y por tanto, las reglas deben ser tan estrictas como evitar filtración de material que pueda resultar ofensivo o potencialmente peligroso. No obstante, tal parece que el problema del sistema de Facebook para discernir el origen y el contexto del material que se comparte es algo más profundo y preocupante que el simple hecho de censurar sin un necesario análisis forma y fondo.
La censura a ciegas
El pasado 22 de agosto, el curador de arte Stephen Ellcock fue suspendido en el uso de su cuenta por treinta días debido a una «violación» no especificada de las normas comunitarias de Facebook. Para sorpresa de Ellcock —un londinense de 59 años que sólo comparte material artístico en su página de Facebook— la empresa esgrimió que había compartido material «sensible» que provocó su inmediata sanción. A Ellcock le llevó casi una semana encontrar el contenido que la red social había censurado: Se trataba del boceto de una mano dibujado por Hans Holbein el joven, uno de los retratistas más conocidos del s. XVI. Por alguna razón el sistema Facebook había concluido que el dibujo —en el que lo único que aparece es una mano— era un contenido «inapropiado e inadmisible» para ser difundido a través de su plataforma.
La reacción de Ellcock no se hizo esperar: de inmediato pidió a sus casi 110.00 seguidores protestar por un tipo de censura no sólo injustificable sino que además, carecía del menor sentido. Muchos de los aficionados a la página de Ellcock de inmediato le apoyaron compartiendo el boceto de Holbein, así como también cualquier otra obra que representara manos, tanto en el ámbito pictórico como fotográfico. De inmediato, la curiosa protesta se hizo viral. Las llamadas «manos de Ellcock» intentaron cuestionar el mecanismo que disgrega el material «sexual o inapropiado» en una red social que se niega no sólo a revisar sus políticas —o matizarlas en todo caso— y que ha convertido un sistema mecánico en una herramienta de sutil y la mayoría de las veces, inexplicable censura.
Luego de varias semanas, el esfuerzo tuvo resultados: Facebook terminó reconociendo que la censura contra Ellcock se debió a lo que llamó sin especificar un «error humano» de uno de sus empleados y pidió disculpas públicas. De inmediato, la cuenta de Ellcock fue restablecida y recuperó su actividad habitual. No obstante, ni en el comunicado que informó sobre el equívoco ni a través de ningún otro medio, Facebook informó en que había consistido el «error» ni mucho menos, si tomaría acciones para remediar situaciones semejantes. De hecho, para Ellcock lo más preocupante fue el hecho que a pesar de asumir su responsabilidad en la censura, Facebook no parece dispuesto a ceder en el debate sobre la pertinencia de la normativa, lo que hace que el sistema que censuró una obra de arte genérica, pueda hacerlo en el futuro.
«¿Cuántos artistas anónimos han sufrido algún tipo de censura por parte de Facebook sin la posibilidad del debate público?», comentó Ellcock en un mensaje que publicó luego que Facebook le permitiera seguir usando su cuenta. «¿A qué se enfrenta la manifestación y difusión del arte en medio de un sistema de normas poco claras que dependen de la arbitrariedad?». Como era presumible, Ellcock no recibió ninguna respuesta.
No es la primera vez que Facebook censura obras de arte por carecer de un sistema algorítmico mucho más preciso del que hasta ahora usa. Hace dos años, el cuadro «El origen del mundo» de Gustave Courbet —que muestra a una mujer tendida con los genitales muy visibles— provocó el cierre de la cuenta de varios usuarios, una ola de protestas y posteriormente un muy publicitado juicio a Facebook, que aún se dirime en tribunales franceses. Antes de eso, la fan page del Museo Pompidou fue censurada por publicar la imagen de un cuadro del pintor Gerhard Richter en la que aparecía una figura femenina desnuda. La fotografía fue eliminada y la cuenta de la institución sufrió tres días de bloqueo. Luego de una queja pública discreta, el museo pudo volver a utilizar su página. No obstante, de la misma manera en que ocurriría con Ellcock, la disculpa no incluía propósito de enmienda alguno ni tampoco un análisis de la situación que había provocado la censura en primer lugar. Para Facebook, su estricta política sobre el contenido inapropiado o sensible siguió siendo un punto que no se debate o lo que es lo mismo, no acepta argumento en contra.
De la censura al derecho que se protege: ¿Se excede Facebook en su protección al usuario?
Durante los últimos años, Facebook ha insistido que la censura de contenido que considera inapropiado tiene por único objetivo evitar que la red social más accesible del mundo se convierta en una plataforma de difusión ilegal de material sensible, como pornografía, o directamente criminal, como contenido pedófilo. No obstante, las directivas de Facebook parecen más enfocada al reconocimiento inmediato de contenido con cierto tono sexual —no importa su contexto o mucho menos su objetivo— que a cualquier otro objetivo, lo que convierte a la herramienta en un método fallido de origen. Más allá de sus intenciones, el control milimétrico al que Facebook somete a las imágenes que se comparten en su plataforma, pareciera tener un sentido más moralista que práctico o al menos que se deduce del análisis del resultado inmediato del método.
Según las normas de Facebook, cualquier fotografía que muestra genitales o nalgas de manera directa serán eliminadas de inmediato, de la misma manera que la imagen de un pezón femenino. La regla no especifica si la censura se aplica aún en imágenes de contenido histórico —como «La niña de Napalm»— o de piezas de arte universales. Para Facebook se trata de un elemento esencial: la desnudez es el principal motivo por el que se censura, no importa su objetivo o trascendencia.
Se trata de un pensamiento preocupante, porque aunque Facebook matiza en algunos puntos —como en el hecho que se permiten fotografías de pecho desnudos mientras sean «las de mujeres amamantando o que muestren los pechos con cicatrices por una mastectomía»— lo restrictivo de la normal parece no admitir mayor amplitud. Respecto a la pintura y la escultura, normas sí permiten desnudos, aunque no imágenes de sexo explícito. Sin embargo, Facebook no explica a que se refiere con esa interpretación, lo que abre la posibilidad que situaciones como la de Ellcock y otros tantas víctimas de un sistema restrictivo y automático se repitan con enorme frecuencia.
Un caso reciente es el ocurrido con el trailer promocional de la película «El abrazo de la serpiente» nominada al Oscar el año pasado en la categoría de película extranjera. En el material que acompaña al producto audiovisual, puede verse la imagen de un indígena que pasea llevando sólo el taparrabos, una vestimenta habitual en la zona. La imagen se difundió a través de un anuncio pagado en Facebook y además, como parte de la promoción de la película. Unos días después y sin aviso —a pesar que la empresa productora había pagado una campaña completa— el trailer y el resto de las imágenes promocionales en que aparecía el indígena en taparrabo fueron eliminadas.
Cuando la productora exigió una explicación a lo que llamo «un evidente incumplimiento de contrato», Facebook respondió que la imagen —y el resto del material promocional— había sido eliminado por «mostrar mucha piel», aunque de hecho el personaje fotografiado en el cartel oficial de la película lleva el mencionado taparrabo. No obstante, Facebook insistió que se trataba de una evidente «violación a los términos y convenios de uso» y no aceptó restituir el contenido censurado.
La productora Oscilloscope se apresuró a protestar a través de sus redes sociales insistiendo que Facebook había aprobado el material que se estaba utilizando como promoción de la película. «El anuncio, que estaba aprobado y ha estado circulando varios días, muestra una representación cultural muy precisa de la vestimenta tradicional del río Amazonas. La justificación de “exceso de piel” es simple y no es gratuita», reclamó y exigió una respuesta a Facebook, sobre todo por el hecho que la campaña publicitaria había sido contratada bajo términos específicos y Facebook se negaba a reintegrar el dinero invertido. Según la red social «la violación» de los términos de uso impedía cualquier tipo de reembolso.
Oscilloscope continuó insistiendo en su reclamo hasta que un empleado del llamado «departamento de integridad» de Facebook justificó de nuevo la decisión, argumentando que «los anuncios con un tono sexual subliminal no están permitidos. Esta política se aplica incluso cuando se está promocionando ropa interior, condones o libros de educación sexual». No obstante, la película dirigida por Ciro Guerra y que cuenta la historia de dos extranjeros que viajan al Amazonas en busca de una planta sagrada, no encaja en ninguno de los supuesto. A pesar de eso, Facebook continuó insistiendo en que el mero hecho de mostrar «ciertas partes del cuerpo proclives a la censura» podían provocar el retiro «total o parcial» de las imágenes utilizadas, sin ninguna explicación inmediata o posterior.
No obstante, Oscilloscope no se dio por vencido y expresó su sorpresa por el hecho que Facebook le brindara al trailer y el material de promoción de la película un un tono sexual encubierto es inimaginable. La productora continuó defendiendo su material y sobre todo la investigación antropológica que sostiene el film, argumentando que «estas imágenes se producen de manera antropológica e histórica en la naturaleza, argumentar que tienen una carga sexual sería como comparar National Geographic con Playboy. Les pido por favor que reconsideren su decisión».
Finalmente y luego que la insistencia de Oscilloscope y sobre todo, su repercusión pública, Facebook finalmente se retractó con un mensaje público en el que como en otras ocasiones, acepta su error pero sin un propósito de enmienda claro, según puede leerse en la web Fusion. «Pedimos perdón, fue un error, este vídeo no viola nuestras políticas». De nuevo, Facebook admite que su sistema de verificación de los contenidos que se comparte es inexacto y poco claro, pero insiste en no asumir la responsabilidad en el error del método, sino señalar equivocaciones puntuales o a los mentados «errores humanos».
Un extremo que la productora Oscilloscope tiene muy claro: «Me alegra que hayan cambiado de opinión, pero teniendo en cuenta de que este tipo de situación no es la primera vez que pasa, creo que podría haberse evitado», replicó Dan Berger, presidente de Oscilloscope luego de hacerse pública la disculpa de la red social.
De la censura a la restricción de contenido: ¿A quién protege Facebook?
A pesar de los alegatos de Mark Zuckerberg que su estricta normativa de contenidos tiene por objetivo mantener la red social «saludable» y a salvo de material inapropiado, los resultados del sistema parecen sugerir algo por completo distinto. O al menos es lo que sugiere lo sucedido con la poeta Luna Miguel (Alcalá de Henares, 1990), cuya página y perfil de Facebook fue eliminada luego que publicara en su front-page la promoción de su más reciente libro El dedo. Breves apuntes sobre la masturbación femenina (Capitán Swing). A pesar de lo insinuante que pueda parecer el título, el libro —una colección de exquisitos poemas sobre el placer de la mujer— no tiene un tono pornográfico, sino que analiza la sexualidad desde una serie de símbolos universales de enorme elegancia literaria. Además, la portada del libro es una ilustración minimalista que muestra una mano con el dedo índice extendido que toca una curva sugerente. Podría ser un monte de Venus, pero también, no serlo.
No obstante, para Facebook la mera insinuación parece haber sido suficiente para eliminar el perfil de la escritora sin ninguna otra explicación que la de acusar al material difundido por Miguel de «infligir las normas comunitarias de la plataforma».
Cuando Miguel pidió explicaciones sobre una idea tan abstracta (puedes leer su narración sobre lo ocurrido en este post de su blog) la red social insistió en no especificar cuál publicación había transgredido la norma y se limitó a insistir que el material de Miguel «no cumple los requisitos para usar Facebook». Además en un escueto mensaje, Facebook insistió a la escritora que no podía explicarle los motivos por lo cual su cuenta había sido eliminada por «motivos de seguridad» sin agregar alguna conclusión a lo que podría haber provocado una reacción tan inmediata y fulminante. De hecho, el mensaje cierra con una frase contundente «la decisión no es apelable».
Al consultar la Declaración de Derechos y Responsabilidades que los usuarios aceptan al crear una cuenta en Facebook puede leerse en el apartado referente a la seguridad que «No publicarás contenido que contenga lenguaje que incite al odio, resulte intimidatorio, sea pornográfico, incite a la violencia o contenga desnudos o violencia gráfica o injustificada». No obstante el contenido de la escritora no violentaba ninguno de los requisitos y mucho menos, podría interpretarse de esa forma. A pesar de eso Luna Miguel —y todo el contenido acumulado durante ocho años de participación activa en Facebook— fue eliminado.
¿Que regla infringió Luna Miguel si ninguna de las imágenes que compartió y mucho menos, el contenido escrito que formó parte de su front-page hasta su eliminación era pornográfico, sensible o ambiguo? ¿Se trató de la mera mención de la palabra «masturbación» o algo semejante? ¿O es algo más enrevesado que choca de manera directa con una interpretativa limitación de contenido de la red social? ¿Cuál es el límite entre la actuación de la red social como «guardián» de la integridad del contenido y algo más brumoso? ¿Qué hace que el material que compartimos sea analizado y tergiversado hasta considerarse peligroso? ¿Quién interpreta la normativa de Facebook hasta convertirla en un arma de doble filo? ¿Qué hace que cierto material sea considerado «una amenaza» a la salud de la red y otro pase por completo desapercibido? ¿Qué hace que las imágenes de violencia directa y cruda no sean censuradas de la misma manera?
Aftenposten, el periódico más grande de Noruega se hizo la misma pregunta luego que Facebook censurara una fotografía histórica de la Guerra de Vietnam sin otra explicación que «infringir las normas comunitarias». En una carta abierta publicada en primera plana dirigida a Mark Zuckerberg, el periódico cuestiona el sistema de censura de Facebook y pide al CEO reconocer su papel como el «mayor editor del mundo», lo que debate sobre la censura de supuesto contenido sensible a otro nivel.
Espen Egil Hansen, el editor en jefe y director general de Aftenposten, debatió de manera pública el hecho que Mark Zuckerberg tiene una responsabilidad evidente en el hecho de construir un sistema de interpretación visual que promueve la censura subjetiva, a pesar de la insistente visión de la red social en lo contrario. «Estoy molesto, decepcionado —bueno, de hecho, incluso atemorizado— de lo que está a punto de hacer que uno de los pilares de nuestra sociedad democrática», escribe Egil Hansen, dejando claro no sólo la posición del periódico sino también una preocupación cada vez más frecuentes en usuarios de la red social más accesible y con mayor número de usuarios en el mundo. «Me preocupa que el medio de comunicación más importante del mundo está limitando la libertad en lugar de tratar de extenderlo, y que esto ocurre de vez en cuando de una manera autoritaria», añadió.
La controversia ocurre luego que Facebook insistiera en que el mensaje del escritor noruego Tom Egeland sobre la guerra publicado por el periódico, en en el incluye siete fotografías del fotógrafo Nick Ut —en las que aparecen niños desnudos— es una clara violación a las normas de uso de la plataforma. Unos minutos después de la difusión del material, Egeland fue suspendido por veinticuatro horas de Facebook y más tarde, cuando Aftenposten informó sobre el hecho —utilizando de nuevo la fotografía de «La niña de Napalm» de Ut—, recibió un mensaje de Facebook solicitando el contenido fuera eliminado, a lo que el periódico se negó. De inmediato Facebook eliminó no sólo la fotografía, sino también la página del periódico en la plataforma.
En su carta abierta, Hansen describe todo lo anterior pero además añade que le preocupa la interpretación de la evidente discrecionalidad del sistema de censura en Facebook, incapaz de distinguir entre la pornografía infantil y un documento histórico de enorme valor como «La niña de Napalm».
«A pesar de que soy editor en jefe del periódico más grande de Noruega, tengo que darme cuenta de que está restringiendo mi espacio para el ejercicio de mi responsabilidad editorial», escribe Hagen, reflexionando de nuevo sobre un tema que ha llevado a Facebook al centro de las críticas varias veces durante los últimos años. «Creo que está abusando de su poder, y me resulta difícil de creer que lo haya pensado bien a fondo».
La reacción de Hansen y sobre todo, el editorial de Aftenposten llegan en un momento donde Facebook parece tener la obligación de revisar sus planteamientos sobre cómo se analiza el contenido que se difunde a través de la plataforma. Según un estudio del 2016 realizado por Pew Research Center, el 44 % de los adultos estadounidenses consiguen sus noticias en Facebook, lo que es un reflejo de la tendencia a nivel mundial. Con un predominio semejante, las estrictas leyes de Facebook necesitan —o al menos es el clamor un cada vez mayor números de usuarios— una revisión o al menos una evolución que aseguren se pueda disminuir la posibilidad de situaciones como la ocurrida Aftenposten. Una y otra vez, buena parte de la opinión pública comienza a preocuparse que el algoritmo de Facebook —o esa misteriosa red de intrincadas normas que nunca parece ser lo suficientemente clara— puedan ejercer un poder real sobre las noticias que se difunden y sobre todo, tener un peso real sobre la forma como se comprende la noticia y la difusión de la información.
El escándalo de Aftenposten llegó incluso a preocupar a la ministra Erna Soldber, que criticó abiertamente a Facebook por la censura y acusó a Zuckerberg por implementar reglas de «conducta» no muy claras a la hora editar contenidos. «Mientras estaba en un avión de Oslo a Trondheim, Facebook ha borrado una publicación de mi página», escribía Solberg en su perfil de Facebook. «Mediante la eliminación de imágenes de este tipo, por muy buenas que sean las intenciones, lo que está haciendo Facebook es modificar nuestra historia común». El hecho de la censura a la fotografía parecía sobre todo, exceder la idea común sobre la revisión de contenido y convertirse en algo más complicado: un mero ejercicio de poder.
Quizás debido al impacto mediático de lo ocurrido, Facebook se apresuró a ponerse en contacto con Aftenposten para notificarles que permitiría el uso de la fotografía en la página web del periódico. Según el el periódico noruego, Facebook considera que es necesario restablecerla «debido a su estatus de imagen icónica con una importancia histórica». No obstante, aún la imagen sigue siendo censurada y motivo de suspensión de servicio y de uso de distintos perfiles alrededor del mundo, como el mío. ¿Se trata entonces de otra nueva admisión de una «responsabilidad» difusa sobre el tema pero que no cambia el origen de la controversia y el problema real que provoca la censura en Facebook?
No podría decirlo. Y quizás aún no exista una respuesta clara a un dilema semejante. O no lo habrá, mientras Facebook continué considerando su reglamento infalible y sobre todo, que la discrecionalidad no está reñida con su responsabilidad con el material se difunde y su importancia pública. De manera que es probable que la censura en Facebook continúe siendo un tema de debate —estéril, además— por un buen tiempo más.
Compartir esto: