Son cada vez más científicos,catedráticos, legisladores, y CEOs de empresas que piden que se apliquen normativas para el uso de la inteligencia artificial, y que aparte de los beneficios que conlleva, no se salga de control y sea utilizado para fines no éticos.

Precisamente para que esto último no ocurra, Sundar Pichai, CEO de Alphabet, matriz de Google, solicita una mayor regulación en dicho ámbito, alegando que "debemos tener los ojos bien abiertos ante lo que podría salir mal".

"Existen preocupaciones reales sobre las posibles consecuencias negativas de la inteligencia artificial, desde falsificaciones "profundas" hasta usos nefastos del reconocimiento facial. Si bien ya se está trabajando para abordar estos peligros, inevitablemente nos esperan nuevos desafíos, a los que ninguna empresa o industria podrá hacer frente por sí sola".

Pichai asegura, además, aboga por un entendimiento entre diferentes órganos reguladores alrededor del globo para que una regulación sea posible de manera independiente al territorio en el que se aplique. "La UE y los Estados Unidos ya están comenzando a desarrollar algunas propuestas de regulación y la coordinación a nivel internacional será fundamental para que las normas sean efectivas en todo el mundo", ha expresado. "Las empresas como la nuestra no pueden simplemente diseñar nuevas tecnologías prometedoras y dejar que las fuerzas del mercado decidan cómo utilizarlas. Es también tarea nuestra asegurarnos de que las tecnologías se aprovechen para bien y estén disponibles para todos".

Regular no es sencillo

La regulación dentro de este ámbito es un aspecto que lleva tiempo escuchándose y que, de hecho, ha sido uno de los aspectos que más importancia tuvo dentro de la empresa en 2018. Fue entonces cuando la misma se vio involucrada en diversas acusaciones por parte de empleados y otros organismos en relación al Proyecto Maven, que Alphabet desarrollaba junto al Pentágono.

Este, que tenía como eje principal la inteligencia artificial y el reconocimiento facial, fue puesto en tela de juicio por los posibles usos armamentísticos –y potencialmente fatídicos– que podría dársele. Tanto fue así, que la tecnológica terminó desligándose del programa, rechazando otro (que habría supuesto cuantiosos ingresos) y publicando su propia guía ética sobre el uso de la inteligencia artificial.

No es la única empresa que se ha visto en esta tesitura, con Amazon o Facebook, por ejemplo, habiendo sufrido también el escrutinio público. Y no es para menos, pues como bien expresa Pichai "La inteligencia artificial tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser que no lo haga".

Hacer esto una realidad no es tan sencillo, sin embargo. En un marco que permanece apenas explorado en relación a sus posibilidades y poco contextualizado en términos de aplicaciones, poner coto a su desarrollo e implementación se antoja una materia compleja. El propio CEO hace el mejor resumen posible: "En este momento no tengo la menor duda de que la inteligencia artificial necesita ser regulada. Es algo demasiado importante para no intervenir. La única pregunta es cómo hacerlo", indicó Hipertextual.

Te puede interesar