- May 05, 2026

Sony AI crea un centinela ético para evitar sesgos en algoritmos de inteligencia artificial

Un enfoque ético para eliminar los prejuicios en la inteligencia artificial

Durante años, los sistemas de reconocimiento facial y visión artificial han heredado sesgos derivados de datos incompletos, no consentidos y poco diversos. Estos algoritmos suelen funcionar peor con rostros de personas de piel oscura, mayores o con características específicas, perpetuando estereotipos culturales y de género.

Fair Human-Centric Image Benchmark (FHIBE): la nueva propuesta de Sony AI

Un nuevo proyecto liderado por la investigadora Alice Xiang y Sony AI ha desarrollado el Fair Human-Centric Image Benchmark (FHIBE), el primer banco de imágenes humanas creado desde cero con principios éticos. Esta base se presenta publicada en Nature con el objetivo de evaluar y medir con transparencia los sesgos en modelos de visión artificial.

Características técnicas y éticas del FHIBE

El FHIBE contiene imágenes de 1.981 personas de más de 80 países, captadas tras consentimiento explícito y compensación económica, con la opción de retirar sus datos en cualquier momento. Se aplicaron métodos avanzados para proteger la privacidad, eliminando información o rostros no autorizados.

Los datos son diversos no solo geográficamente —con un 45% de las fotos procedentes de África y un 40% de Asia— sino también en edad, tono de piel, condiciones ambientales, y más. Cada imagen está etiquetada exhaustivamente con más de 8.500 valores que incluyen el tipo de luz, modelo de cámara y 33 puntos anatómicos del rostro y cuerpo, constituyendo la colección más completa a nivel mundial.

Evaluando los sesgos en sistemas reales de IA

Se probaron modelos populares de visión artificial con FHIBE, desde sistemas de reconocimiento facial usados en seguridad o redes sociales, hasta modelos multimodales como CLIP o BLIP-2, que combinan texto e imagen para tareas como búsqueda o clasificación.

Sesgos detectados en reconocimiento y verificación facial

Los resultados confirmaron que los algoritmos funcionan mejor con personas jóvenes, de tono de piel claro y ascendencia asiática, pero peor con personas mayores o afrodescendientes. Destaca el hallazgo de fallos en hombres calvos, pues el sistema asocia la ausencia de cabello a pérdida del contorno facial, y reconoce menos a mujeres en tareas de verificación facial debido a la variación en peinados.

Distorsiones en modelos multimodales

Modelos como CLIP mostraron un sesgo cultural al identificar a los hombres como género por defecto o asociar caras africanas y asiáticas con entornos rurales. BLIP-2 respondió con frases estereotipadas o degradantes al describir imágenes, reflejando asociaciones culturales aprendidas a partir de grandes datos en Internet.

Un centinela contra la reproducción de desigualdades

El estudio enfatiza que FHIBE no pretende reemplazar bases de datos actuales, sino actuar como un centinela ético y transparente para detectar sesgos y alertar cuando ocurran, promoviendo una auditoría responsable en el desarrollo de inteligencia artificial.

La investigadora Xiang comenta que:

«Queríamos demostrar que la ética puede incorporarse a cada etapa del proceso, desde la recogida de imágenes hasta su uso científico, demostrando que es posible priorizar calidad y ética sobre la cantidad».

Conclusiones y futuro del FHIBE

El proyecto presenta una paradoja reveladora: la comunidad científica que denuncia sesgos en IA sigue usando bases de datos sin consentimiento, y FHIBE propone un nuevo estándar vivo que permite actualizarse y retirar datos si sus titulares lo desean. Los autores esperan que esta herramienta fomente confianza y equidad en los sistemas de inteligencia artificial de visión.

La creación de datos éticos y diversos tiene además enormes implicaciones para sistemas biométricos en aeropuertos o tecnologías de desbloqueo de móviles, donde los sesgos pueden afectar la seguridad y usabilidad.

Enlaces relacionados

Imágenes y recursos

Investigadora Alice Xiang líder de Sony AI
Investigadora Alice Xiang, líder del estudio en Sony AI. Fuente: ABC.es

Imagen: www.abc.es

prensa

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Otras noticias

Destacado

NE

News Elementor

Tu fuente confiable para las noticias de Entrenúcleos y alrededores.

El periódico digital que conecta a Entrenúcleos, con noticias locales al alcance de un clic.

Lo más leído