25 February 2025, Indonesia, Bandung: In this photo illustration, the Facebook Logo displayed on a smartphone screen with Meta AI in the background. Photo: Algi Febri Sugita/ZUMA Press Wire/dpa | Algi Febri Sugita/ZUMA Press Wir / DPA

TW
0

El Consejo asesor de Meta está utilizando cuatro casos abiertos relacionados con el discurso de odio en sus plataformas para estudiar su nueva normativa de moderación de contenidos e insiste en que puede intervenir en las decisiones que tome la propietaria de Facebook e Instagram, a pesar de que tiene una influencia limitada en sus políticas generales.

La compañía anunció en enero un cambio en su sistema de moderación, con el que dejaría de utilizar los verificadores externos para apostar por el programa de las notas de la comunidad, dos enfoques diferentes para abordar el problema de la desinformación y la distribución de información falsa.

Desde 2016, la compañía contaba con expertos independientes de más de 80 organizaciones que trabajaban en más de 60 idiomas que revisaban las publicaciones y las calificaban según su precisión y las calificaban como parcialmente falsas, alteradas o señalaban que les faltaba contexto, entre otras clasificaciones.

Meta considera que este enfoque ya no se ajusta a las necesidades de la plataforma y, por eso, ha propuesto un sistema similar al que ya dispone X, basado en notas de la comunidad que los contribuyentes de la comunidad de usuarios de Meta añaden a las publicaciones para ofrecer contexto.

Este sistema, que se implementará en Instagram, Threads y Facebook en los próximos meses comenzando por Estados Unidos, se ha establecido para empoderar a la comunidad y que ésta decida cuándo las publicaciones son potencialmente engañosas y necesitan más contexto. De manera, una «amplia gama de perspectivas» deciden qué tipo de contexto es útil para que lo vean otros usuarios.

Desde este anuncio, el Consejo asesor de Meta, que actúa como órgano independiente de la compañía, ha expuesto sus preocupaciones en torno a estos cambios, ya que considera que pueden promover los discursos de odio y la violencia. Fundado en 2009, este Consejo está formado por un grupo de expertos de todo el mundo que tienen la misión de mejorar el trato de las plataformas que brinda Meta hacia las personas y comunidades a nivel global.

Anteriormente, este grupo ha indicado que la modificación de su sistema podía «priorizar las ideologías políticas sobre los imperativos de seguridad global» y ha opinado que es «incoherente», ya que la nueva normativa «se enfoca inapropiadamente en cómo se ha creado el contenido, en lugar de qué daños específicos pretende prevenir».

Una de las prioridades de este Consejo asesor es abordar la nueva política que regula las conductas de odio en las plataformas de Meta, según ha confirmado a Endgadget uno de los miembros de este grupo, el profesor de la Universidad de Notre Dame Paolo Carozzo, que se unió a esta Junta en 2022.

Este experto ha indicado que, cuando el director ejecutivo de Meta, Mark Zuckerberg, anunció este cambio en sus políticas de moderación, el Consejo ya estaba investigando cuatro casos relacionados con su normativa de incitación al odio, entre los que se tratan aspectos como la inmigración y el uso de símbolos de odio.

Con ello, ha confirmado que este grupo planea utilizar esos casos para examinar las nuevas políticas de moderación. «Retrasamos deliberadamente tomar una decisión sobre esos casosdespués del 7 de enero, precisamente para poder volver a Meta y hacer una nueva ronda de preguntas», ha señalado Carozza, que ha admitido que el Consejo trata «de utilizar en la medida de lo posible las herramientas» de las que dispone para obtener más información y aportar más transparencia y más certeza sobre cómo se desarrollará en la práctica".

Carozza también ha confirmado que el Consejo se ha reunido en diferentes ocasiones con Meta y ha presionado a la empresa para obtener más detalles sobre sus nuevas políticas de incitación al odio. Con ello, ha avanzado que entre los miembros del Consejo se dan "preocupaciones contrapuestas sobre ser rápidos y eficientes frente a ser más reflexivos y deliberantes".

Engadget ha recordado que Meta solo está obligada a cumplir con las decisiones tomadas por este grupo relacionadas con las publicaciones individuales y que las recomendaciones del Consejo no son vinculantes. Esto significa que esta asociación de expertos puede funcionar de forma independiente pero es Meta quien determina cuánta influencia pueden ejercer en sus políticas de uso.

Esto pone cuestiona la utilidad del Consejo asesor, que ya se ha visto presionado a renunciar en protesta por los cambios anunciados por Meta por la Coalición Global para la Justicia Tecnológica, formada por más de 250 defensores de los derechos humanos y digitales y organizadores de verificación de datos, entre otros.

A pesar de las limitaciones del Consejo, Carozzo insiste en que su existencia es necesaria para intervenir cuando se ponga en riesgo los derechos de la comunidad. «Si todos renunciaran en masa, las únicas personas que perderían serían los usuarios finales de Meta. Especialmente, aquellos que se encuentran en situaciones especialmente vulnerables», ha concluido.