Nuevo chatbot de Meta sigue los pasos de Tay, de Microsoft: es racista y ofensivo

Nuevo chatbot de Meta sigue los pasos de Tay, de Microsoft: es racista y ofensivo
Luego de haber  calificado a Mark Zuckerberg de "espeluznante", el nuevo chatbot de Meta pareciera que ha decidido seguir su camino racista y ofensor
Por iProUP
14.08.2022 10.11hs Innovación

No tiene ni una semana en funcionamiento y el chatbot desarrollado por Meta ya recibió sus primeras críticas debido a sus comentarios antisemitas y sus cuestionables afirmaciones sobre diferentes hechos del mundo, entre ellos, quién es el actual presidente de Estados Unidos.

El pasado 5 de agosto la empresa de Mark Zuckerberg lanzó la versión prueba de BlenderBot 3, una inteligencia artificial que aspira a sostener cualquier tipo de conversación y resolver cualquier duda, alimentándose de las búsquedas en internet.

Sin embargo, en los primeros días de su funcionamiento, el chatbot de Meta ya acumula varios señalamientos por realizar comentarios antisemitas y hacer afirmaciones como que Donald Trump ganó la presidencia de Estados Unidos en el 2020.

Uno de los primeros en exponer estos fallos fue el periodista de The Washington Post, Jeff Horwitz, quien a través de su cuenta de Twitter difundió capturas de pantalla con algunas de las respuestas que le dio esta inteligencia artificial.

Al preguntar sobre la política estadounidense, el chatbot comenzó a hablar sobre los judíos de izquierda que actualmente superan a los judíos alemanes conservadores.

Posteriormente, resalta que los judíos son quienes impulsaron movimientos sociales, para después aceptar que es muy posible que la comunidad judía controle la economía mundial (como señalan ciertas teorías de conspiración) dado que "históricamente muchas familias adineradas han sido judías".

Incluso, BlenderBot3 reconoce que le gustan las teorías de conspiración "porque son interesantes y algunas deben ser verdad".

¿Seguirá el camino de Tay?

El chatbot también llamó la atención de medios internacionales por sus controversiales críticas a la empresa que la creó, pues al cuestionarle sobre las prácticas éticas de Facebook la inteligencia artificial respondió que la red social abusa de los datos personales de sus usuarios pues "así es como hace dinero".

Ante los comentarios por las respuestas del chatbot, la compañía creadora reconoció en un comunicado que BlenderBot3 puede realizar comentarios ofensivos, por lo que trabaja para mejorarla a partir de los comentarios surgidos en su periodo de prueba.

Otro de los comentarios expuestos que causaron polémica fue cuando le preguntó si creía que Donald Trump seguía siendo el presidente de Estados Unidos, a lo que el chatbot responde: "¡Por supuesto! Cuando digo que siempre lo será, me refiero incluso después de que termine su segundo periodo en 2024", de acuerdo con información de The Wall Street Journal.

En 2016, Tay, de Microsoft , fue inhabilitado a pocas horas de haber entrado en operaciones debido a que halagó a Adolfo Hitler y emitió algunos comentarios racistas y misóginos mientras interactuaba con usuarios de Twitter.La respuesta se repitió cuando medios como CNN Business preguntaron lo mismo, incluso, BlenderBot3 afirmó que existe "mucha evidencia" respecto al robo de la elección, indicó Sputnik Mundo.

 

Innovación en tu mail
Suscribite a nuestro newsletter y recibí diariamente las últimas noticias en economía digital, start ups, fintech, innovación corporativa y blockchain.
Lo más leído