Facebook, Twitter, Youtube y Microsoft han aceptado una nueva regulación de la UE que requiere que revisen y eliminen incitaciones al odio en sus plataformas en las 24 horas siguientes a que se les notifique. El nuevo código de conducta, cuyo borrador se ha escrito junto a la Comisión Europea, es un esfuerzo para impedir que las redes sociales sean usadas como plataforma para extender la xenofobia y la propaganda extremista. Las compañías de Internet europeas lo han tenido difícil para intentar calmar el incremento de contenido lleno de odio que existe online, en especial después de los ataques terroristas en París y Bruselas. Al mismo tiempo que tienen que combatir la represalia racista que sigue a ese tipo de sucesos, las compañías como Facebook y Twitter han provisto sin querer una plataforma a grupos terroristas para extender sus puntos de vista extremista en un esfuerzo para radicalizar a otros.

Facebook

Vĕra Jourová, el Comisario de Justicia, Consumidores e Igualdad de Género de la UE, ha dicho: “Los recientes ataques terroristas nos han recordado la necesidad urgente de hacer algo con el lenguaje que incita al odio.”

Las redes sociales son, desafortunadamente, una de las herramientas que los grupos terroristas usan para radicalizar a los jóvenes y que los racistas usan para extender la violencia y el odio.”

“Este acuerdo es un paso importante para asegurar que Internet siga siendo un lugar de expresión libre y democrática, donde los valores y leyes europeos se respeten.”

Bajo el nuevo código de conducta, Facebook, Twitter, Youtube y Microsoft deben revisar “la mayoría” de sus peticiones de eliminación de lenguaje que incite al odio en las 24 horas siguientes a que se produzcan, y eliminar o desactivar el acceso al contenido cuando sea necesario. También tienen que poner en marcha procesos “claros y efectivos” para revisar contenido potencialmente ilegal en sus plataformas.

Se ofrecerá entrenamiento adicional a las compañías para que su personal pueda lidiar con tales incidentes rápida y eficientemente, y Facebook, Twitter, Youtube y Microsoft compartirán tales prácticas entre sí.

Las compañías también tendrán que hacer saber a sus usuarios que ese tipo de contenido no está permitido en sus plataformas en base a unas normas comunitarias claras. Además de eliminar contenido dañino diligentemente, Facebook, Twitter, Youtube y Microsoft intentarán contrarrestar la retórica llena de odio promoviendo “contranarrativas independientes, nuevas ideas e iniciativas y programas educacionales de apoyo que animen al pensamiento crítico.”

No es suficiente

Mientras que las compañías de las redes sociales afirman haber aumentado sus esfuerzos para combatir el contenido dañino en sus plataformas, los críticos dicen que sus respuestas siguen siendo inadecuadas. En Francia, Facebook, Twitter y Youtube han sido llevadas ante los juzgados por organizaciones de derechos civiles por no ser capaces de eliminar 586 post racistas, homófobos y xenófobos que fueron reportados a las compañías entre finales de marzo y el 10 de mayo de 2016.

Twitter se ha encontrado en un punto especialmente problemático, pues sus propios ejecutivos han bromeado sobre la incapacidad de la compañía para acabar con el abuso. La compañía ha creado un consejo de seguridad desde entonces, cuya tarea es monitorizar la página web en busca de contenido peligroso. También han llevado a cabo una operación contra las cuentas relacionadas con organizaciones terroristas.

Karen White, la directora de políticas públicas europeas de Twitter, ha dicho: “La conducta llena de odio no tiene lugar en Twitter y seguiremos enfrentándonos a este problema junto a nuestros compañeros de la industria y la sociedad civil. A la vez que tomamos medidas contra las conductas perjudiciales que rompen las reglas de Twitter, también confiamos en la capacidad de la plataforma para empoderar a las voces positivas, a poner en duda los prejuicios y a luchar contra las raíces más profundas de la intolerancia”

“Estamos esperando que se cree un diálogo aún más constructivo entre la Comisión Europea, los estados miembros, nuestros compañeros en la sociedad civil y nuestros colegas del sector tecnológico acerca de este problema.”

“Con mala idea”

El nuevo código de conducta ya ha levantado ampollas entre algunos grupos de los derechos civiles, sin embargo, que afirman que las nuevas reglas permiten a las compañías privadas vigilar Internet de acuerdo a sus propias normas. La organización que aboga por los derechos de Internet, EDRi (European Digital Rights) y el grupo de derecho internacional Acces Now han dicho que el código de conducta ha sido creado “con mala idea”, y han anunciado que se desentenderían de futuras discusiones con la Comisión Europea en relación a las políticas de Internet.

Han afirmado, en una declaración conjunta: “Para abreviar, el ‘código de conducta’ rebaja la ley a un estado de segunda clase, detrás de la ‘guía’ de compañías privadas a las que se les pide arbitrariamente que implementen sus términos de servicio. Este proceso, establecido fuera de un marco democrático, saca provecho de las reglas de obligación poco claras de las compañías. También crea serios riesgos para la libertad de expresión, dado que el contenido legal pero controvertido podría ser borrado como resultado de este mecanismo de borrado voluntario e incomprensible.

“Esto significa que este ‘acuerdo’ entre solo un puñado de compañías y la Comisión Europea es probable que rompa la Carta de la UE de Derechos Fundamentales, bajo la que las restricciones de derechos fundamentales deberían ser llevadas a cabo solo por ley. En términos prácticos, anula la cláusula legal de la Corte Europea de los Derechos Humanos sobre la defensa de la expresión legal.

“Luchar contra la incitación del odio online es un problema importante que requiere discusiones abiertas y transparentes para asegurar que se cumplan las obligaciones con los derechos humanos. Este problema sigue siendo una prioridad para nuestras organizaciones y seguiremos luchando por el desarrollo de marcos transparentes y democráticos.”