Empresas dedicadas a la IA generativa se comprometen a frenar la generación de imágenes de abuso sexual infantil con esta tecnología | THORN

TW
0

Microsoft, Meta, Google y OpenAI, entre otras grandes firmas tecnológicas enfocadas en el desarrollo de herramientas de Inteligencia Artificial (IA) generativa, se han comprometido a combatir las imágenes de abuso sexual infantil (CSAM, por su siglas en inglés) resultado del uso de esta tecnología y a seguir una serie de medidas de seguridad por diseño.

En 2023 se reportaron más de 104 millones de archivos sospechosos de incluir CSAM en Estados Unidos, una afluencia de imágenes generadas por IA que "plantea riesgos significativos para un ecosistema de seguridad infantil que ya está sobrecargado", tal y como señala la organización enfocada en la seguridad infantil Thorn.

A esta organización y a All Tech is Human, que promueve el uso de las tecnologías de manera responsable, se han unido Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, MistralAI, OpenAI, Stability AI y Teleperformance, para impulsar una iniciativa que busca proteger a los menores frente a usos indebidos de la IA.

En concreto, las firmas tecnológicas se han comprometido públicamente con los llamados principios de seguridad por diseño, una serie de medidas que nacen de la necesidad de erradicar la fácil creación de este tipo de contenidos.

Actualmente, los cibercriminales pueden utilizar la IA generativa con diferentes fines: desde dificultar la identificación de las víctimas infantiles hasta generar más demanda de material relacionado con el abuso infantil y permitir el intercambio de información entre depredadores sexuales.

De ahí que se hayan establecido una serie de medidas de seguridad por diseño, que requieren que las empresas «anticipen dónde pueden darse las amenazas durante el proceso de desarrollo» de estas herramientas y diseñar las soluciones necesarias antes de que se haya producido el daño.

En primer lugar, los firmantes se han comprometido a desarrollar, construir y entrenar modelos de IA generativa que aborden de forma proactiva los riesgos de seguridad infantil, un proceso en el que se deben estudiar los datos de entrenamiento de sus modelos, a fin de que no reproduzcan contenido abusivo.

En este apartado, también se tiene en cuenta la necesidad de implementar marcas de agua en estas imágenes y el empleo de otras técnicas que señalen que se trata de contenido generado por IA.

Por otro lado, los gigantes tecnológicos promueven con esta iniciativa la publicación y distribución de modelos de IA generativa después de que hayan sido capacitados y evaluados para la seguridad infantil, protegiendo a los menores en todo momento.

Asimismo, han acordado mantener la seguridad de sus modelos de IA y de sus plataformas, comprendiendo y respondiendo activamente a los riesgos de seguridad infantil, invirtiendo en investigación y soluciones tecnológicas futuras, así como desplegando medidas que permitan detectar y borrar imágenes que infrinjan la seguridad infantil en sus plataformas.

Google ya toma medidas

Por su parte, Google ha comentado su compromiso con los principios de seguridad de la IA generativa en su blog, donde ha señalado que actualmente dispone de una serie de herramientas para frenar el material CSAM. En concreto, ha reconocido el uso de una combinación de tecnología de coincidencia de 'hash' con clasificadores de IA, y también las revisiones de contenido por parte de su equipo humano.

"Cuando identificamos contenido de explotación, lo eliminamos y tomamos las medidas apropiadas", entre las que puede estar incluida informar del incidente al Centro Nacional para Niños Desaparecidos y Explotados estadounidense (NMEC), con el que colabora.

También ha dicho que también utiliza aprendizaje automático para identificar las búsquedas relacionadas con abusos y explotación sexual infantil y evitar que se produzcan resultados que puedan explotar o sexualizar a los niños.

Asimismo, dispone de un programa de alertas prioritarias para el que se ha asociado con expertos que identifican contenido potencialmente infractor para que los equipos de seguridad de Google los puedan revisar.