
La decisión de Facebook de eliminar videos que muestran a personas decapitadas ha generado un intenso debate sobre si la red social debe o no imponer una política más amplia de censura de determinados contenidos.
En un
principio la red social rechazó las peticiones de usuarios de eliminar los
clips, argumentando que quería "preservar el derecho de las personas a
describir, representar y comentar sobre el mundo".
Pero
después de que la BBC reveló que uno de sus consejeros de seguridad criticó esa
decisión, la empresa cambió de opinión y anunció que eliminaría los videos que
expusieran decapitaciones, al tiempo que dijo que estaba reevaluando sus
reglas.
Sin
embargo, la idea de imponer controles más estrictos también ha generado muchas
críticas.
Antes de
su muerte, el defensor de la libertad en la red, Aaron Swartz, advirtió del
peligro que implica que en ciertos espacios privados de la red se limite lo que
se publica. Lo denominó "tiranía corporativa" y mencionó a Facebook
como ejemplo.
La red
social no ha confirmado la fecha en que planea terminar la revisión de sus
reglas y hacer públicos los cambios que introducirá. Las siguientes opiniones
de expertos consultados por la BBC sugieren que no le será nada fácil complacer
a todo el mundo.
Jeremie Zimmermann, La Quadrature du Net.
- Cofundador de la organización francesa por los derechos digitales La Quadrature du Net
- Activista en pro de la libre difusión del conocimiento en internet
Cualquier intervención de Facebook para eliminar o
bloquear el acceso a su contenido -teniendo en cuenta el respeto a los derechos
fundamentales y el principio de proporcionalidad- implicaría una censura
privatizada y a nadie le interesa que eso ocurra.
Una de
las principales preocupaciones al respecto es qué criterio se utilizaría para
decidir qué censurar. La censura haría que cada gobierno intente presionar a
Facebook para que aplique sus propios criterios, ya sea por razones políticas,
religiosas o de otro tipo.
Bajo
estas condiciones podemos estar seguros de que no se respetará el derecho a la
libertad de expresión o a un juicio justo.
Los
menores pueden tener acceso en la red a contenido inapropiado.
Así como
no podemos confiar en las grandes empresas centralizadas para defender nuestras
libertades fundamentales, no podemos pedirles que decidan qué información debe
ser compartida en línea.
Proteger
a los niños en la red es responsabilidad de los padres, no de Facebook.
Lo que sí
puede hacer la red social es utilizar toda la información a la que tiene acceso
para identificar a sus miembros menores de edad. De esta manera, cuando estos
se expongan a contenidos clasificados como no aptos, puede mandarles un mensaje
de advertencia.
Así, los usuarios tendrían la libertad de decidir si quieren tomar ese consejo o acceder al contenido.
Dr Lynne Jordan, Sociedad Británica de Psicología
- Psicóloga y miembra de la Sociedad Británica de Psicología
- Ha trabajado como terapeuta por más de 30 años, con énfasis en los problemas causados por traumas
Mi principal preocupación como psicóloga con experiencia en los efectos de la violencia, es la violación del derecho a la elección.
Diariamente
e indiscriminadamente se publican contenidos en Facebook y, a través del
"me gusta", se difunden sin tener en consideración los derechos de
los menores de edad y de otras personas que no quieren verlos.
Jóvenes o viejos pueden verse afectados negativamente al observar episodios violentos, ya sea en pantalla o en la vida realidad.
Los
efectos incluyen respuestas traumáticas, como la reproducción mental de las imágenes,
tener miedo y sentirse vulnerable, avergonzado, invadido, violentado y
confundido, así como enojado e impotente.
El hecho
de que las redes sociales no estén obligadas a proteger a sus usuarios del
contenido al que están expuestos es un problema.
El
material que se difunde muchas veces tiene la intención de hacer campaña en
contra de la delincuencia o de la violencia, pero en la práctica puede generar
el efecto contrario y contribuir a que la violencia escale.
Controlar
el contenido es similar a la prohibición de fumar en lugares públicos, que
busca proteger a quienes se pueden ver afectados sin haber dado su
consentimiento.
En ese
caso se trata de un problema de salud física, y en éste, de salud mental.
Andrew McDiarmid, Centro para la Democracia y la Tecnología
- Analista de políticas para el Centro para la Democracia y la Tecnología en Washington
- Esta organización sin ánimo de lucro hace campaña en contra de la censura gubernamental y otras posibles amenazas a la libre difusión de información en la red
La
controversia sobre los videos de decapitaciones en Facebook es un claro ejemplo
de la enorme complejidad de promover el respeto a los derechos humanos en la
red.
Miles de
millones de personas dependen de las plataformas de internet para hablar y
acceder a la información pública, pero estas plataformas están controladas por
empresas privadas, cuyas condiciones de servicio, en gran parte, definen los
contornos de la libertad de expresión.
De cierto
modo, los operadores de las plataformas también son altavoces y tienen el
derecho a determinar sus propias políticas.
Pero
también tienen la responsabilidad, sobre todo a medida que crecen y se
convierten en redes de referencia, de considerar el impacto de sus políticas y
de reducir al mínimo sus restricciones a la libertad de expresión.
Debido a
esta complejidad, los sistemas de evaluación de contenidos requieren
actualizaciones constantes para asegurarse de que los derechos fundamentales
estén protegidos.
Es una
labor complicada y un sistema propenso a los errores, pero la alternativa
-establecer políticas obligatorias de contenido y que los gobiernos compitan
por el control de la red- es insostenible y pone en mayor riesgo la libertad de
expresión.
Fuente: BBC Mundo

