Bard, el ChatGPT de Google: de qué lo acusan
/https://assets.iproup.com/assets/jpg/2023/04/34474.jpg)
Empleados de Google indicaron que el chatbot Bard es un "mentiroso patológico" y que a pesar de la información de "baja calidad" que ofrece y de la falta de ética de la Inteligencia Artificial (IA) que esto implica, Google lo lanzó igualmente para competir contra sus rivales en el sector, ChatGPT y Bing.
El gigante tecnológico presentó Bard, basado en la tecnología de conversación Languaje Model for Dialogue Applications (LaMDA), a principios de febrero. Inicialmente, esta IA se puso a disposición de los probadores de confianza de Google y sus empleados, posteriormente, se amplió el acceso a los Pixel Superfans.
Sin embargo, una serie de trabajadores actuales de la empresa y ex empleados indicaron que la información que utiliza Bard es de "baja calidad" y denunciaron la falta de prioridad que da la compañía a la ética de la IA, según ha publicado Bloomberg.
Con ello, estas fuentes anónimas insistieron en que Google decidió lanzar Bard e ignorar estas deficiencias sólo para asegurarse su competencia en el sector de la IA con sus rivales Open AI con ChatGPT y Microsoft con su motor de búsqueda, Bing, y su navegador, Edge.
En este sentido, los trabajadores tildaron al chatbot de "mentiroso patológico" y "digno de vergüenza". Además, detallaron algunos casos de respuestas peligrosas de la IA, entre las que se encuentran sugerencias sobre cómo aterrizar un avión que provocaría un accidente, entre otras.
El director ejecutivo de Google, Sundar Pichai, expresó a finales del mes de marzo que la IA se trata de un área "demasiado importante para no regularlo bien".
Asimismo, indicó que, por el momento, Bard se trata de una prueba con la que querían ver "qué tipo de consultas obtendrían", y añadió que "claramente" tienen modelos más capaces que implican mejoras en razonamiento y codificación.
"Era importante no poner un modelo más capaz antes de que podamos asegurarnos de que podemos manejarlo bien", añadió el directivo, al tiempo que abogó por la cautela: "No quiero que sea solo quién está allí primero, pero hacerlo bien es muy importante para nosotros", destacó.
Sin embargo, la voluntad de invertir más recursos en la evaluación de los daños potenciales de la tecnología de la IA no juega a favor de Google, que buscaría liderar el sector a pesar de los proyectos en los que ya se encuentran otras compañías como Microsoft.
Según apuntaron los trabajadores, el grupo que trabaja en ética de la IA de Google está "desempoderado y desmoralizado", ya que se les indicó que no se interpongan en el camino de los planes de la empresa y que "no eliminen ninguna de las herramientas de IA generativas en desarrollo".