El chatbot de Google, Bard, no dará respuestas a ciertas preguntas hechas por los usuarios. Por qué se decidió esto y desde cuándo regirá
20.12.2023 • 12:26hs • Innovación
Innovación
Google: su chatbot Bard no responderá más a preguntas de este tipo
Google anunció que para principios de 2024 planea aplicar nuevas restricciones relacionadas a su chatbot.
En este sentido, la empresa indicó que limitará respuestas a determinadas consultas relacionadas con las elecciones que pueden responder su bot Bard de inteligencia artificial y su Experiencia Generativa de Búsqueda.
Esta nueva restricción comenzará a regir en vísperas de las próximas elecciones presidenciales en Estados Unidos.
En la publicación se indicó que en 2024 se celebrarán muchas otras elecciones importantes en todo el mundo, además de las presidenciales estadounidenses.
Google: su chatbot se limitará a responder ciertas preguntas
Una de las principales prioridades que Google nombró fue ayudar a los usuarios a identificar los contenidos generados por IA.
En septiembre, fue una de las primeras grandes empresas tecnológicas que desarrollan IA en exigir la divulgación sobre IA en los anuncios de campañas políticas.
Bard no responderá más a preguntas sobre las elecciones
YouTube, propiedad de Google, también actualizó sus políticas en noviembre de 2023, exigiendo a los creadores que revelen el uso de IA generativa o se arriesgan a la suspensión de sus cuentas.
En la misma línea, Google indicó que ya está en fase beta una nueva herramienta SynthID de DeepMind de Google, que incrusta directamente una marca de agua digital en imágenes y audio generados por IA.
Meta, la empresa matriz de Facebook e Instagram, prohibió en noviembre el uso de herramientas de creación de anuncios mediante IA generativa para anunciantes políticos.
La influencia de la IA en las elecciones fue un tema acuciante a medida que se acercan los comicios estadounidenses. Un estudio señaló el impacto potencial en el sentimiento de los votantes que el uso de la IA en las redes sociales puede tener.
Un estudio realizado en Europa reveló que el chatbot Bing AI de Microsoft, que rebautizaron como Copilot, proporciona información engañosa o inexacta sobre las elecciones en alrededor del 30% de las respuestas que da.