Pensada en desarrolladores, la herramienta adjunta etiquetas a las fotografías para identificar los contenidos, entre ellas el género cuando en las imágenes detecta que hay personas.

Entre otros elementos, Cloud Vision "puede detectar caras, puntos de referencia, logotipos de marcas e incluso contenido explícito", informaron.

Google notificó de su decisión a los desarrolladores a través de un correo electrónico. En lugar de las etiquetas de género, clasificará a cualquier ser humano simplemente como "persona".

¿Cuál fue la razón? Simple: Google asumió que no es posible inferir el género de alguien únicamente a partir de su apariencia y que, por lo demás, dicha denominación puede trasgredir sus normas éticas. "Evite crear o reforzar sesgos injustos", reza el Principio #2.

Se subrayó que el sesgo en la inteligencia artificial es un tema "ampliamente discutido", respecto del cual los investigadores han manifestado su preocupación, pues datos defectuosos pueden exacerbar o crear suposiciones injustas.

"Un ejemplo son los algoritmos de reconocimiento facial que identifican erróneamente a las personas de color con más frecuencia que las personas blancas", se graficó.

La medida fue calificada como "muy positiva" por Frederike Kaltheuner, experta en sesgo de inteligencia artificial y quien colabora con Mozilla en temas de política tecnológica. Según reflexionó, "cada vez que se clasifica automáticamente a las personas, ya sea por su género u orientación sexual, debes decidir qué categorías usas en primer lugar, y eso acarrea muchas suposiciones".

"Clasificar a las personas como hombres o mujeres supone que el género es binario. Cualquiera que no se ajuste automáticamente se clasificará de manera errónea y se generará un error. Por lo tanto, se trata de algo más que un prejuicio: el género de una persona no puede inferirse por apariencia. Cualquier sistema de inteligencia artificial que lo haya intentado hacer eso inevitablemente confundirá a las personas", comentaron.

Google reconoce en sus principios de inteligencia artificial que los algoritmos y los conjuntos de datos pueden reforzar el sesgo: "Buscaremos evitar impactos injustos en las personas, particularmente aquellas relacionadas con características sensibles como raza, origen étnico, género, nacionalidad, ingresos, orientación sexual, capacidad y creencia política o religiosa", indicó Digital Trends.

Te puede interesar