Archivo - FILED - 16 May 2024, Mecklenburg-Western Pomerania, Schwerin: The Instagram, Facebook and WhatsApp apps can be seen on the display of a smartphone, reflecting the logo of the Meta internet company. Photo: Jens Büttner/dpa | Jens Büttner/dpa - Archivo

TW
0

Meta ha admitido que los índices de error de moderación de la compañía, con respecto al contenido de sus distintas plataformas, como Instagram y Threads, «todavía son demasiado altos», y asegura que continuará trabajando para "mejorar la precisión y exactitud" con la que implementan sus reglas de moderación de contenido.

La compañía liderada por Mark Zuckerberg dispone de una serie de soluciones de moderación para sus redes sociales, con las que revisa el contenido publicado por los usuarios para garantizar que cumple con sus normas comunitarias y políticas de uso. Estas herramientas están supervisadas por equipos internos de Meta y socios externos a nivel global.

Así, tal y como detalla en su Centro de transparencia, estos equipos revisan y analizan las publicaciones para identificar si son falsas, si contienen información errónea o si promueven acciones dañinas para los usuarios, como comportamientos de acoso, violencia o contenido de desnudos, según se pauta en las normas comunitarias de Instagram. Además, tratan de proteger a los usuarios menores con medidas enfocadas a limitar el contenido apropiado para su edad.

Sin embargo, estas pautas de moderación de contenido están sobrepasando la limitación de publicaciones en las plataformas de Meta, ya que los índices de error de moderación en Instagram o Threads «son demasiado altos», según ha admitido la propia compañía.

Tal y como ha explicado el presidente de Asuntos Globales de Meta, Nick Clegg, en declaraciones recogidas por The Verge, la compañía es consciente de que, al aplicar sus políticas de moderación «los índices de error siguen siendo demasiado altos». Como consecuencia, ha afirmado que se está obstaculizando «la libertad de expresión» que la tecnológica se propuso permitir en sus plataformas.

"Con demasiada frecuencia se eliminan o restringen contenidos inofensivos, y demasiadas personas son penalizadas injustamente", ha sentenciado Clegg.

Estas declaraciones se suceden a casos recientes de fallos de moderación de contenido, que ocasionaron la eliminación de cuentas y el bloqueo de contenido clasificado erróneamente como falso o controvertido, tal y como compartieron algunos usuarios afectados.

En ese momento, Meta señaló que estaba revisando los problemas relacionados con sus sistemas de moderación de Threads e Instagram. Más tarde, la tecnológica solucionó dichos problemas y alegó que se debían a una herramienta que «se rompió» y no mostraba suficiente contexto para los equipos de moderación.

Clegg ha compartido también que estuvieron sometidos a «reglas muy estrictas» durante la pandemia, lo que les obligó a eliminar "grandes volúmenes de contenido« de las redes sociales de Meta. »Sentimos que exageramos un poco. Somos muy conscientes porque los usuarios alzaron la voz y se quejaron con razón de que a veces aplicamos demasiado y cometemos errores«, eliminando o restringiendo »contenido inocente", ha apostillado.

Igualmente, durante las recientes elecciones presidenciales de Estados Unidos, el Consejo asesor de Meta también destacó la «aplicación excesiva» de las políticas de moderación, incluyendo los peligros que puede ocasionar esta práctica, como "conducir a la eliminación excesiva del discurso político".

A pesar de todo ello, el directivo de Meta ha trasladado que la compañía pretende continuar trabajando en sus pautas de moderación para «mejorar la precisión y exactitud» con las que implementan las reglas.