Más artículos

Se popularizan algoritmos de inteligencia artificial que detectan acoso laboral o sexual en chats y emails

Se popularizan algoritmos de inteligencia artificial que detectan acoso laboral o sexual en chats y emails
Se incrementa el número de compañías que deciden implementar algoritmos "Metoo bots" para detectar acosos desde diferentes fuentes de internet o internas
12.01.2020 11.47hs Innovación

Los movimientos de igualdad y respeto de género llegan también a la tecnología. Cada vez son más comunes las soluciones que, basadas en algoritmos de inteligencia artificial, llegan a las empresas para detectar cualquier tipo de conducta indebida.

Se trata de algoritmos diseñados para procesar y analizar comunicaciones corporativas —principalmente correo electrónico y chats— con el fin de detectar acoso sexual o laboral, mobbing o lenguaje agresivo o amenazador en el entorno laboral.

Estos robots o bots (robots virtuales, programas informáticos con cierta capacidad para aprender y 'decidir') están entrenados para identificar indicios de acoso a partir de textos que sirven como "muestra" sobre qué palabras y tonos tienen cierta probabilidad de corresponderse con mensajes dañinos que, en última instancia, pueden suponer un problema potencial tanto para empleados como para la compañía.

En base a esa probabilidad este tipo de bots 'deciden' si un texto es aceptable o si no lo es, y en este último caso el algoritmo puede bloquearlo o notificarlo a los departamentos jurídicos o de recursos humanos, por ejemplo.

Obstáculos para detectar comentarios dañinos u ofensivos

Instagram ha comenzado a implementar este tipo de desarrollos de inteligencia artificial para detectar comentarios dañinos y con el fin de combatir el bullying y el ciberacoso en la red social.

Precisamente Facebook, propietaria de Instagram, reconoce la dificultad de determinar cuándo un comentario tiene como finalidad hacer daño, en parte debido a que los jóvenes "enmascaran" ciertas palabras o expresiones con símbolos o caracteres que modifican la ortografía "para engañar a los sistemas automáticos."

Aunque este tipo de técnica de reemplazo de caracteres es difícilmente aplicable a comunicaciones profesionales, la detección del lenguaje inapropiado —o que se pueda considerar inapropiado— no es trivial debido a los matices o variaciones del lenguaje, a la dificultad para determinar el contexto e incluso a cuestiones culturales, entre otras variables.

Por tanto y para que un sistema aprendizaje automático sea fiable es necesario que los algoritmos "lean" y analicen todas las comunicaciones que se producen dentro de la empresa y que aprendan a distinguir, incluso con ayuda de supervisores humanos, entre lo que una compañía considera aceptable en sus comunicaciones entre empleados y lo que no.

Robots y humanos que supervisan mails y chats corporativos

Que un sistema automático lea todos los mails y conversaciones de chats o entre empleados suscita recelo en torno al siempre peliagudo asunto de la privacidad, especialmente en la fase de entrenamiento de los bots: en esa primera fase es necesaria la supervisión humana del sistema; es decir, que otros empleados lean fragmentos seleccionados por la inteligencia artificial e indiquen al sistema si se trata de un falso positivo o de un falso negativo.

Al tratarse de supervisar comunicaciones corporativas que se desarrollan en el ámbito laboral el símil habitual es el de utilizar cámaras de videovigilancia y de otros sistemas de monitorización o de supervisión, incluyendo los registros de entrada y de salida o grabaciones de conversaciones telefónicas con clientes.

Sin embargo en muchos casos el acoso no se manifiesta por escrito, lo que dificulta su detección mediante el análisis de comunicaciones y conversaciones escritas.

Se calcula que en España en entorno a un 15% de los trabajadores sufren algún tipo de maltrato o acoso laboral o mobbing, un delito introducido en 2010 en el Código Penal, indicó Economía Digital.

Te puede interesar