Hoy me ronda por la cabeza una pregunta tan sencilla como provocadora: ¿puede la Inteligencia Artificial ser más justa y objetiva que los humanos? La respuesta no es, en absoluto, trivial.
Vayamos por partes. Analicemos primero la evolución de la IA en los últimos años con algunos ejemplos muy reveladores.
Las primeras versiones de generadores de imágenes como DALL·E o MidJourney estaban plagadas de sesgos. La principal tendencia era representar a médicos, abogados o ingenieros como hombres blancos, mientras que asociaban a las mujeres con roles domésticos o tradicionalmente femeninos, como enfermeras o maestras. Esto no era porque la IA tuviera «malas intenciones», sino porque había sido entrenada con datos históricos plagados de prejuicios humanos, reflejo directo de nuestra sociedad.
Un caso más alarmante ocurrió con Amazon en 2018. La compañía desarrolló un sistema de IA para preseleccionar currículums, entrenado con datos históricos de contrataciones internas. ¿El resultado? El sistema perpetuó los sesgos también hacia hombres blancos, penalizando automáticamente experiencias asociadas a mujeres, personas de color o a personas con estudios en universidades no reconocidas internacionalmente. Amazon descartó el proyecto tras darse cuenta de que, lejos de solucionar un problema, lo amplificaba.
La buena noticia es que hemos logrado avances significativos en este terreno. Las versiones más recientes de los generadores de imágenes han reducido drásticamente los sesgos. Estas herramientas ahora reflejan una mayor pluralidad en términos de culturas, razas y géneros, tanto en entornos profesionales como creativos y cotidianos. Además, plataformas como Pymetrics o HireVue, diseñadas para evaluar habilidades mediante algoritmos justos y datos inclusivos, están transformando los procesos de selección de talento, promoviendo criterios más objetivos y equitativos.
Toca el turno ahora de los humanos. Si analizamos la evolución de nuestra sociedad, debemos reconocer lo evidente: estamos más manipulados y polarizados que nunca.
Y, en gran parte, la influencia viene por las redes sociales, la prensa y los algoritmos de búsqueda, los cuales no nos ayudan a descubrir nuevas perspectivas, sino que están entrenados para reforzar nuestras creencias preexistentes. Se esfuerzan para agradarnos y nos encierran en cámaras de eco que alimentan la polarización y, lo que es peor, lo hacen de forma tan sutil que ni siquiera nos damos cuenta.
Esta dinámica no solo dificulta el que cada vez nos sea más difícil el ver información desde otros puntos de vista que no sean los nuestros, sino que dificulta el diálogo, y distorsiona nuestra capacidad de tomar decisiones objetivas.
A todo ello debemos además añadir un factor crucial en esta comparativa que es la velocidad. Mientras que la IA mejora a un ritmo vertiginoso, nuestra mentalidad evoluciona a paso lento. Cambiar paradigmas sociales, derribar prejuicios y superar sesgos lleva generaciones; por el contrario, un modelo de IA puede ser entrenado y ajustado en cuestión de meses o incluso semanas. Esto coloca a la IA en una posición privilegiada para liderar el cambio, siempre que las personas detrás de su desarrollo actúen con visión ética.
Un ejemplo es el uso de IA en sistemas judiciales en países como Estonia, donde se ha implementado un «juez robot» para resolver disputas menores. Estos sistemas no están exentos de críticas, pero abren el debate sobre si una IA podría ser más objetiva que un juez humano, algunas veces influenciado por factores externos como prejuicios inconscientes o presión mediática.
Todos estos argumentos me sugieren varias preguntas:
¿Estamos dejando atrás nuestra humanidad mientras las máquinas, paradójicamente, adoptan rasgos más humanos?
¿Qué sucederá si usamos la IA para justificar nuestras propias decisiones injustas o polémicas?
¿Es la IA un espejo de nuestros propios prejuicios o una oportunidad para superarlos?
No hay respuestas correctas o incorrectas a estas preguntas. Las dejo como reflexiones para el lector.
Pero centrándome en la pregunta de este artículo sobre si la IA es más justa y objetiva que los humanos, la respuesta corta es: potencialmente, sí, pero solo si se diseñan sistemas éticos, transparentes y revisados de manera constante. La IA tiene el poder de analizar millones de datos de forma más eficiente y sin emociones, pero también es un reflejo de quien la entrena.
Así que aquí va mi conclusión: La justicia y la objetividad son retos que como sociedad llevamos décadas intentando superar. Hoy, la Inteligencia Artificial puede ayudarnos, pero no podemos delegar nuestra mayor responsabilidad. La IA no es inherentemente justa u objetiva, pero tiene la capacidad de serlo más que nosotros, las personas, si somos capaces de enseñarle el camino correcto. El cambio que buscamos depende de nuestra capacidad para construir un mundo más justo, empezando por nuestras propias decisiones.