Facebook debe considerar contexto al revisar contenidos: expertos

Xavier Jasso
16/05/201916:47:06

CIUDAD DE MÉXICO, mayo 16 (EL UNIVERSAL).- Facebook debe considerar el contexto local desde el que se publica un mensaje, video o foto en la red social antes de eliminarlo, coincidieron más de 50 expertos en derechos humanos, derechos digitales, tecnología, libertad de expresión y democracia de Latinoamérica, quienes se reunieron en la Ciudad de […]

CIUDAD DE MÉXICO, mayo 16 (EL UNIVERSAL).- Facebook debe considerar el contexto local desde el que se publica un mensaje, video o foto en la red social antes de eliminarlo, coincidieron más de 50 expertos en derechos humanos, derechos digitales, tecnología, libertad de expresión y democracia de Latinoamérica, quienes se reunieron en la Ciudad de México para emitir sus recomendaciones sobre la formación de un consejo asesor sobre los contenidos que deben permanecer en la plataforma.
En seis mesas de trabajo se reunieron expertos de nueve países de la región, entre ellos de Brasil, Colombia, Jamaica, Barbados, Argentina y México, quienes debatieron con dos representantes de Facebook por mesa la forma en que este consejo independiente debería trabajar con el objetivo de garantizar la libertad de expresión y un entorno seguro para los usuarios.
Guy Rosen, Vicepresidente de Integridad de Facebook, encabezó los trabajos de dos días que comenzaron este miércoles en el que se simuló cómo los 15 mil revisores de contenido de la red social analizan y deciden qué contenido viola las normas comunitarias y cuál por ende debe eliminarse.
Sin embargo, la constante de la discusión fue que la plataforma debe reconocer y seguir leyes nacionales, considerar los contextos locales e incluso la superioridad de la libertad de expresión y el derecho de los usuarios de elegir qué ver en algunos contenidos que podrían considerarse chocantes o violentos, pero relevantes informativamente.
“Hay contenido que de acuerdo al derecho internacional y al constitucional está protegido por más que sea chocante o fuerte, y que termina siendo bajado o censurado de algún modo y por lo tanto sus políticas internas y sus decisiones como compañía deberían alinearse a estos estándares de derechos humanos. La pregunta sería si están dispuestos salirse de la narrativa de sus normas comunitarias”, comentó en entrevista con EL UNIVERSAL Edison Lanza, Relator Especial para la Libertad de Expresión de la Comisión Interamericana de Derechos Humanos quien participó en el evento.
Ronaldo Macedo Junior, profesor en la cátedra de Libertad de Expresión y Democracia de la Universidad de Sao Paulo, consideró la convocatoria regional de dos días en la Ciudad de México como un experimento interesante y sincero con el que buscan legitimidad y que les funciona como estrategia de marketing.
El taller forma parte de un proyecto de un año de duración para diseñar el Consejo Asesor de Contenido, que incluye además una consulta pública global y debates similares en ciudades como Singapur, Delhi, Nairobi, Berlín, Nueva York, entre otras.
Este consejo estará conformado por 40 personas, quienes revisarán algunas de las decisiones de contenido más controvertidas de Facebook y podrán sugerir cambios a las Normas Comunitarias que rigen la plataforma.
Este proyecto es parte de la respuesta de la compañía ante la crisis de reputación que ha tenido Facebook con transmisiones en vivo que incluyen el suicidio de una joven, la utilización de la red para fomentar el discurso de odio que acabó en el genocidio de los Rohyngya en Myanmar o los atentados terrorista de Nueva Zelanda en marzo de este año.
En noviembre de 2018 Mark Zuckerberg, director de la compañía, publicó la estrategia con la que buscarían de forma proactiva eliminar “contenido problemático”, en su mayoría basado en el perfeccionamiento de algoritmos de inteligencia artificial para enseñarles a reconocer contenido que viole estas normas.
Sin embargo, cada día se publican más de mil millones de fotos en Facebook, sin considerar los textos, videos, grupos secretos y mensajería del que sólo se revisan manualmente más de dos millones de contenidos.