La ética, clave en el desarrollo de la inteligencia artificial
La inteligencia artificial (IA) ha revolucionado múltiples sectores, pero también ha heredado importantes prejuicios de los datos con los que se entrena. En sistemas de reconocimiento y análisis facial, estos sesgos son especialmente preocupantes, ya que pueden afectar a grupos concretos como personas negras, mayores o con determinados rasgos, perpetuando estereotipos y desigualdades.
Un banco de imágenes pionero para evaluar sesgos
En respuesta a esta problemática, Sony AI ha creado el Fair Human-Centric Image Benchmark (FHIBE), un banco de imágenes humanas diseñado para evaluar los sesgos en modelos de visión artificial de manera justa y transparente. Este conjunto de datos ha sido desarrollado con estrictos criterios éticos, desde la recogida hasta el procesamiento.
Datos obtenidos con consentimiento y diversidad global
El FHIBE incluye fotografías de 1.981 personas de más de 80 países, todas proporcionadas bajo consentimiento y tras compensación económica. Además, los participantes pueden retirar sus imágenes en cualquier momento, asegurando respeto y privacidad. Se aplicaron técnicas avanzadas para eliminar datos personales no autorizados, priorizando la ética en cada etapa.
Esta base es diversa, con un 45% de imágenes de África y un 40% de Asia, e incluye variables como edad, tono de piel y condiciones ambientales. Cada imagen cuenta con anotaciones detalladas, incluyendo más de 8.500 atributos entre puntos anatómicos, tipo de luz y modelo de cámara, lo que la convierte en la colección de imágenes humanas más etiquetada y ética hasta la fecha.
Evaluación de algoritmos de visión artificial y sus fallos
El equipo que lidera Alice Xiang probó FHIBE contra modelos ampliamente usados, como sistemas de reconocimiento facial, verificación biométrica y grandes modelos multimodales (como CLIP o BLIP-2). Estos algoritmos se emplean en aplicaciones diversas, desde el desbloqueo de móviles hasta controles biométricos en aeropuertos.
Sesgos detectados y retos actuales
Los resultados evidencian que estos sistemas funcionan mejor con personas jóvenes, de piel clara y ascendencia asiática, fallando más con personas mayores, negras o con ciertos rasgos, como hombres calvos. También se observó que en la verificación facial, fallan más con mujeres, posiblemente por la variabilidad en peinados.
En modelos multimodales, los sesgos se manifiestan de forma cultural, identificando erróneamente el género o asociando ciertas razas a estereotipos. Por ejemplo, CLIP tiende a usar el masculino como género por defecto y ubica rostros africanos o asiáticos en contextos rurales.
El nuevo estándar ético que propone FHIBE
Sony AI presenta FHIBE no solo como una base de datos, sino como un ‘centinela’ para advertir y corregir sesgos en los modelos de inteligencia artificial. Así, los desarrolladores podrán auditar sus sistemas de forma ética, evitando depender de colecciones históricas obtenidas sin consentimiento, que han priorizado cantidad sobre calidad y equidad.
Este proyecto abre el camino a una IA más justa y confiable, bajo un modelo vivo y actualizable que permite la retirada de imágenes si los autores lo solicitan, fomentando la transparencia y confianza en los avances tecnológicos.
Más información relacionada
- Conceptos básicos de inteligencia artificial
- Investigación sobre IA sin prejuicios
- Ley de protección de datos (LOPD) en España

Imagen: www.abc.es




