Meta decidió eliminar su programa de verificación de datos en Estados Unidos, suspender la revisión de nuevas publicaciones para detectar violaciones de políticas y flexibilizar sus estándares comunitarios, permitiendo discursos deshumanizantes sobre personas transgénero e inmigrantes, un retroceso que se considera peligroso y como una genuflexión ante el nuevo presidente, Donald Trump
Meta, la empresa matriz de Facebook, Instagram y Threads, ha implementado una serie de cambios significativos en sus políticas de moderación de contenido y estrategias de cumplimiento. Estas modificaciones, anunciadas la semana pasada, suscitan controversia y preocupación por su posible impacto en la calidad de la información disponible en sus plataformas, especialmente en un contexto político polarizado, más ahora con la asunción del republicano Donald Trump en la Casa Blanca.
Entre las medidas destacadas, Meta decidió eliminar su programa de verificación de datos en Estados Unidos, suspender la revisión de nuevas publicaciones para detectar violaciones de políticas y flexibilizar sus estándares comunitarios, permitiendo discursos deshumanizantes sobre personas transgénero e inmigrantes.
Además, la compañía disolvió su programa de diversidad, equidad e inclusión. Estos movimientos, junto con la desactivación de sistemas clave para frenar la desinformación, han generado críticas por abrir la puerta a la propagación de noticias falsas sin restricciones.
Según documentos internos y declaraciones obtenidas por Platformer, Meta ordenó detener las penalizaciones relacionadas con desinformación en sus plataformas. Esto implica que contenidos virales engañosos, como los que proliferaron en las elecciones presidenciales de 2016 —ejemplo de ello son las falsas afirmaciones sobre el respaldo del Papa Francisco a Donald Trump—, ahora pueden amplificarse sin restricciones. La medida contrasta con los avances tecnológicos que Meta había implementado en los últimos años, como clasificadores de aprendizaje automático que reducían en más del 90 por ciento el alcance de estos contenidos.
La eliminación del programa de verificación de datos se oficializó el 7 de enero, y marcó un cambio radical en la estrategia de moderación de Meta. En lugar de mantener herramientas para identificar y limitar la difusión de noticias falsas, la empresa planea sustituir el programa por un sistema en el que usuarios voluntarios añadan información a las publicaciones, similar al modelo de notas comunitarias utilizado por X (anteriormente Twitter). Sin embargo, Meta no ha detallado cuándo estará disponible ni cómo funcionará este sistema.
El cambio en la política de moderación responde, en parte, a presiones políticas y controversias previas. En una carta enviada en agosto al representante Jim Jordan, presidente del Comité Judicial de la Cámara de Representantes de Estados Unidos, Mark Zuckerberg expresó su incomodidad con las solicitudes del Gobierno de Biden para eliminar ciertos contenidos relacionados con la COVID-19. También lamentó la decisión de limitar temporalmente la distribución de noticias sobre la computadora portátil de Hunter Biden, un caso que se convirtió en bandera de sectores republicanos.
Estos gestos parecen ser una forma de reconciliación con críticos conservadores, pero también han sido interpretados como un desplazamiento hacia la derecha en la postura de Meta. Las políticas actuales permiten que las noticias falsas tengan un período de amplificación antes de ser evaluadas, lo que representa un retroceso en los esfuerzos de la compañía por garantizar la calidad de la información.
El impacto de estas decisiones no se limita a Estados Unidos. Aunque Meta aún no ha implementado estos cambios a nivel global, los expertos señalan que podrían replicarse en otros mercados si las regulaciones locales lo permiten. En este contexto, académicos, periodistas y legisladores enfrentan un nuevo desafío: monitorear el ecosistema de desinformación en las plataformas de Meta sin herramientas clave como CrowdTangle, un servicio gratuito eliminado en agosto que permitía rastrear publicaciones populares en tiempo real.
En el pasado, Meta se había destacado por su capacidad para identificar y desincentivar contenidos falsos, utilizando tecnologías avanzadas y colaboraciones con verificadores de datos. Por ejemplo, durante la pandemia, la empresa etiquetó 40 millones de publicaciones relacionadas con la COVID-19 en un solo mes y logró que el 95 por ciento de los usuarios evitaran interactuar con contenidos marcados como engañosos. Este tipo de medidas, aunque controvertidas, buscaban reducir el alcance del contenido falso sin comprometer la libertad de expresión, limitando únicamente lo que algunos expertos denominan «libertad de alcance».
La transición hacia un modelo basado en usuarios plantea interrogantes sobre su efectividad. Mientras tanto, el vacío dejado por la eliminación de sistemas profesionales de moderación permite que los bulos ganen terreno. Críticos señalan que estos cambios no solo debilitan la lucha contra la desinformación, sino que también pueden intensificar la polarización política al amplificar contenidos diseñados para manipular opiniones.
La decisión de Meta de priorizar un enfoque de «más discurso, menos restricciones» puede ser vista como un experimento arriesgado en un entorno donde la información, verdadera o falsa, tiene el poder de moldear percepciones y comportamientos. Si bien es posible que las plataformas digitales no sean responsables de las demandas del público por contenidos que refuercen sus creencias, los sistemas de moderación efectivos siguen siendo esenciales para mitigar los daños asociados con la difusión de noticias falsas.
En un momento crítico para la política y la sociedad, Meta parece dispuesto a redefinir su papel en la gestión de la información. Lo que está en juego no es solo la credibilidad de la empresa, sino también la confianza de sus usuarios en un ecosistema digital que debería aspirar a fomentar un debate informado y responsable.
Así, en un futuro cercano se prevé que escándalos como el Pizzagate, aquel que desembocó en el asalto a una pizzería ante los falsos rumores de que era el centro de operaciones para una red de pedofilia, vuelvan por sus fueros.
Los MAGA, esa agrupación de fanáticos estadounidenses propensos a seguir los pasos de Donald Trump en cuanta locura salga de su boca, podrán campear a sus anchas por las pistas de las plataformas de Meta, exponiendo sus narrativas, generalmente arropadas de mucha teoría conspirativa y ningún hecho verificable.
Es lamentable que las redes sociales más tradicionales, como X y Meta, otrora espacios para los puntos de vista diversos, han decidido tirar la toalla ante las noticias falsas y, simplemente, dejarlas ser. Estaremos frente a un metaverso, pero no uno creado con equipos de realidad virtual, sino por personas que decidan publicar cualquier cosa disfrazada de creíble para atrapar millones de cerebros en espirales informativas de todo tipo.
Por el momento, son muchos los que buscan cómo emigrar de estas plataformas a otras que ofrezcan más seriedad informativa, como en el caso de Bluesky, que acoge el espíritu de lo que alguna vez fue Twitter, o RedNote, una alternativa a TikTok. Empero, el todopoderoso Facebook todavía no tiene competencia.