Se incrementa el número de compañías que deciden implementar algoritmos "Metoo bots" para detectar acosos desde diferentes fuentes de internet o internas
12.01.2020 • 11:47hs • Ciberacoso
Ciberacoso
Se popularizan algoritmos de inteligencia artificial que detectan acoso laboral o sexual en chats y emails
Los movimientos de igualdad y respeto de género llegan también a la tecnología. Cada vez son más comunes las soluciones que, basadas en algoritmos de inteligencia artificial, llegan a las empresas para detectar cualquier tipo de conducta indebida.
Se trata de algoritmos diseñados para procesar y analizar comunicaciones corporativas —principalmente correo electrónico y chats— con el fin de detectar acoso sexual o laboral, mobbing o lenguaje agresivo o amenazador en el entorno laboral.
Estos robots o bots (robots virtuales, programas informáticos con cierta capacidad para aprender y 'decidir') están entrenados para identificar indicios de acoso a partir de textos que sirven como "muestra" sobre qué palabras y tonos tienen cierta probabilidad de corresponderse con mensajes dañinos que, en última instancia, pueden suponer un problema potencial tanto para empleados como para la compañía.
En base a esa probabilidad este tipo de bots 'deciden' si un texto es aceptable o si no lo es, y en este último caso el algoritmo puede bloquearlo o notificarlo a los departamentos jurídicos o de recursos humanos, por ejemplo.
Obstáculos para detectar comentarios dañinos u ofensivos
Instagram ha comenzado a implementar este tipo de desarrollos de inteligencia artificial para detectar comentarios dañinos y con el fin de combatir el bullying y el ciberacoso en la red social.
Precisamente Facebook, propietaria de Instagram, reconoce la dificultad de determinar cuándo un comentario tiene como finalidad hacer daño, en parte debido a que los jóvenes "enmascaran" ciertas palabras o expresiones con símbolos o caracteres que modifican la ortografía "para engañar a los sistemas automáticos."
Aunque este tipo de técnica de reemplazo de caracteres es difícilmente aplicable a comunicaciones profesionales, la detección del lenguaje inapropiado —o que se pueda considerar inapropiado— no es trivial debido a los matices o variaciones del lenguaje, a la dificultad para determinar el contexto e incluso a cuestiones culturales, entre otras variables.
Por tanto y para que un sistema aprendizaje automático sea fiable es necesario que los algoritmos "lean" y analicen todas las comunicaciones que se producen dentro de la empresa y que aprendan a distinguir, incluso con ayuda de supervisores humanos, entre lo que una compañía considera aceptable en sus comunicaciones entre empleados y lo que no.
Robots y humanos que supervisan mails y chats corporativos
Que un sistema automático lea todos los mails y conversaciones de chats o entre empleados suscita recelo en torno al siempre peliagudo asunto de la privacidad, especialmente en la fase de entrenamiento de los bots: en esa primera fase es necesaria la supervisión humana del sistema; es decir, que otros empleados lean fragmentos seleccionados por la inteligencia artificial e indiquen al sistema si se trata de un falso positivo o de un falso negativo.
Al tratarse de supervisar comunicaciones corporativas que se desarrollan en el ámbito laboral el símil habitual es el de utilizar cámaras de videovigilancia y de otros sistemas de monitorización o de supervisión, incluyendo los registros de entrada y de salida o grabaciones de conversaciones telefónicas con clientes.
Sin embargo en muchos casos el acoso no se manifiesta por escrito, lo que dificulta su detección mediante el análisis de comunicaciones y conversaciones escritas.
Se calcula que en España en entorno a un 15% de los trabajadores sufren algún tipo de maltrato o acoso laboral o mobbing, un delito introducido en 2010 en el Código Penal, indicó Economía Digital.