Un enfoque ético para eliminar los prejuicios en la inteligencia artificial
Durante años, los sistemas de reconocimiento facial y visión artificial han heredado sesgos derivados de datos incompletos, no consentidos y poco diversos. Estos algoritmos suelen funcionar peor con rostros de personas de piel oscura, mayores o con características específicas, perpetuando estereotipos culturales y de género.
Fair Human-Centric Image Benchmark (FHIBE): la nueva propuesta de Sony AI
Un nuevo proyecto liderado por la investigadora Alice Xiang y Sony AI ha desarrollado el Fair Human-Centric Image Benchmark (FHIBE), el primer banco de imágenes humanas creado desde cero con principios éticos. Esta base se presenta publicada en Nature con el objetivo de evaluar y medir con transparencia los sesgos en modelos de visión artificial.
Características técnicas y éticas del FHIBE
El FHIBE contiene imágenes de 1.981 personas de más de 80 países, captadas tras consentimiento explícito y compensación económica, con la opción de retirar sus datos en cualquier momento. Se aplicaron métodos avanzados para proteger la privacidad, eliminando información o rostros no autorizados.
Los datos son diversos no solo geográficamente —con un 45% de las fotos procedentes de África y un 40% de Asia— sino también en edad, tono de piel, condiciones ambientales, y más. Cada imagen está etiquetada exhaustivamente con más de 8.500 valores que incluyen el tipo de luz, modelo de cámara y 33 puntos anatómicos del rostro y cuerpo, constituyendo la colección más completa a nivel mundial.
Evaluando los sesgos en sistemas reales de IA
Se probaron modelos populares de visión artificial con FHIBE, desde sistemas de reconocimiento facial usados en seguridad o redes sociales, hasta modelos multimodales como CLIP o BLIP-2, que combinan texto e imagen para tareas como búsqueda o clasificación.
Sesgos detectados en reconocimiento y verificación facial
Los resultados confirmaron que los algoritmos funcionan mejor con personas jóvenes, de tono de piel claro y ascendencia asiática, pero peor con personas mayores o afrodescendientes. Destaca el hallazgo de fallos en hombres calvos, pues el sistema asocia la ausencia de cabello a pérdida del contorno facial, y reconoce menos a mujeres en tareas de verificación facial debido a la variación en peinados.
Distorsiones en modelos multimodales
Modelos como CLIP mostraron un sesgo cultural al identificar a los hombres como género por defecto o asociar caras africanas y asiáticas con entornos rurales. BLIP-2 respondió con frases estereotipadas o degradantes al describir imágenes, reflejando asociaciones culturales aprendidas a partir de grandes datos en Internet.
Un centinela contra la reproducción de desigualdades
El estudio enfatiza que FHIBE no pretende reemplazar bases de datos actuales, sino actuar como un centinela ético y transparente para detectar sesgos y alertar cuando ocurran, promoviendo una auditoría responsable en el desarrollo de inteligencia artificial.
La investigadora Xiang comenta que:
«Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico, demostrando que es posible priorizar calidad y ética sobre la cantidad».
Conclusiones y futuro del FHIBE
El proyecto presenta una paradoja reveladora: la comunidad científica que denuncia sesgos en IA sigue usando bases de datos sin consentimiento, y FHIBE propone un nuevo estándar vivo que permite actualizarse y retirar datos si sus titulares lo desean. Los autores esperan que esta herramienta fomente confianza y equidad en los sistemas de inteligencia artificial de visión.
La creación de datos éticos y diversos tiene además enormes implicaciones para sistemas biométricos en aeropuertos o tecnologías de desbloqueo de móviles, donde los sesgos pueden afectar la seguridad y usabilidad.
Enlaces relacionados
- Es posible crear inteligencia artificial sin prejuicios – ABC Tecnología
- Publicación original en Nature (consultar cuando estén disponibles los datos oficiales en la revista)
- OpenAI y sus modelos multimodales
Imágenes y recursos

Imagen: www.abc.es



