Jorge Montejo
Facebook, la red social más grande del mundo con más de 3,000 millones de usuarios activos mensuales, ha enfrentado importantes desafíos en los últimos años, incluyendo una notable pérdida de usuarios vinculada a la percepción de censura y polémicas en torno a sus políticas de moderación. Durante años, Facebook confió en organizaciones externas para la verificación de información como parte de un esfuerzo por combatir la desinformación en la plataforma. Sin embargo, este sistema provocó una creciente insatisfacción entre usuarios y creadores de contenido, quienes denunciaron que sus publicaciones eran eliminadas o marcadas como falsas de manera injusta. Casos emblemáticos incluyeron publicaciones removidas tras denuncias específicas, como aquellas relacionadas con Nuevo Gráfico, y
decisiones de verificadores externos que fueron acusados de corrupción y parcialidad política. Esta situación provocó que muchos usuarios migraran a otras plataformas como TikTok o X (anteriormente Twitter), percibidas como menos restrictivas.
Ante este panorama, Meta, la empresa matriz de Facebook e Instagram, anunció un cambio radical en sus políticas de moderación. Mark Zuckerberg, CEO de Meta, informó que la compañía abandonará el uso de verificadores de datos independientes y adoptará un sistema basado en “notas comunitarias”, inspirado en el modelo de X. Este sistema permitirá a los usuarios añadir contexto y correcciones a publicaciones directamente, eliminando la intervención de moderadores externos. Zuckerberg justificó este cambio afirmando que los verificadores externos eran “demasiado tendenciosos políticamente” y que era necesario “volver a nuestras raíces en torno a la libertad de expresión”. Joel Kaplan, quien recientemente asumió el liderazgo de asuntos globales en Meta, respaldó esta postura y señaló que el enfoque anterior, aunque bienintencionado, había resultado en una censura excesiva y dañina para la plataforma.
Sin embargo, este cambio ha generado fuertes críticas. Grupos defensores de la lucha contra la incitación al odio, como Global Witness, consideran que el anuncio es un retroceso que podría incrementar la desinformación y el discurso de odio. Ava Lee, representante de esta organización, calificó la decisión de Meta como una “maniobra política” destinada a acercarse al gobierno entrante de Donald Trump, con quien Zuckerberg ha buscado mejorar relaciones en los últimos meses. Otros críticos, como la Fundación Molly Rose del Reino Unido, han manifestado preocupación por los efectos de estas medidas en temas sensibles como el suicidio, la autolesión y el contenido depresivo, especialmente entre niños y jóvenes.
Aunque Meta afirma que este nuevo enfoque fomentará un debate más abierto y reducirá la censura, sus detractores advierten que podría socavar los esfuerzos para combatir la desinformación y garantizar la seguridad en línea. Este giro estratégico refleja una tendencia más amplia en la industria tecnológica, donde la moderación de contenido se ha convertido en un tema central de debate político y social. Con estas medidas, Facebook busca recuperar la confianza de sus usuarios y reforzar su compromiso con la libertad de expresión, pero el impacto de estos cambios aún está por verse.