La presión que se ejerce sobre Facebook, junto a otros gigantes de Internet, debido a que son acusados de hacer demasiado poco para erradicar el discurso de odio y reclutadores yihadistas en sus plataformas han llevado a que la empresa mejore su inteligencia artificial. Buscan hacer de la red social “un lugar hostil” para extremistas. Además, la empresa ha dicho el miércoles que va a contratar a 3000 personas extra para sacar el contenido violento de raíz del gigante de las redes sociales en un escrutinio de una serie de asesinatos y emisiones de suicidios en su plataforma. “Si vamos a crear una comunidad segura, necesitamos responder rápidamente,” duce Mark Zuckerberg en una página de Facebook.

Facebook“Estamos trabajando para hacer que estos vídeos sean más fáciles de reportar para que podamos tomar las acciones correctas antes, ya sea respondiendo rápidamente cuando alguien necesite ayuda o retirando una publicación.”

Los 3000 nuevos reclutas, añadidos el año que viene, aumentará en dos tercios el tamaño de operaciones comunitarias de Facebook. El anuncio de Zuckerberg llegó una semana después de que un hombre tailandés de 20 años emitiera un vídeo en el que mostraba cómo asesinaba a su hija pequeña antes de cometer suicidio.

“Hemos visto a gente haciéndose daño a sí mismos y a otros en Facebook, ya fuera en directo o en un vídeo publicado más tarde,” ha dicho Zuckerberg. “Nos rompe el corazón, y hemos estado reflexionando sobre cómo podemos mejorar las cosas para la comunidad.”

Los revisores adicionales “nos ayudarán a mejorar a la hora de eliminar cosas que no permitimos en Facebook, como discursos del odio y explotación infantil.”

“Y seguiremos trabajando con grupos comunitarios locales y agentes de la ley que están en mejor posición para ayudar a alguien si lo necesitan, ya sea porque se van a hacer daño o porque son un peligro para otras personas.”