Italia decidió el bloqueo "con efecto inmediato" de ChatGPT, la nueva herramienta con inteligencia artificial, de la tecnológica estadounidense OpenAI, y la acusó de no respetar la ley de protección de datos de los consumidores.
A través de un comunicado el garante italiano para la Protección de Datos Personales informó que abrió una investigación y que, mientras tanto, la restricción se mantendrá hasta que ChatGPT "no respete la disciplina de la privacidad".
Italia le dijo basta al ChatGPT
Además, el organismo italiano indicó que este chat, capaz de simular conversaciones humanas, padeció una pérdida, durante el 20 de marzo, de datos sobre sus usuarios y los datos pagos de sus abonados.
Con respecto a esto, el gerente italiano resaltó "la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI" pero "sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales".
A su vez, alegó, que las informaciones creadas por ChatGPT "no siempre corresponden" a la realidad, y lamentó "la ausencia de todo tipo de filtro" en la verificación de la edad de sus usuarios, aunque el servicio esté destinado a mayores de 13 años.
El uso de la inteligencia artificial comenzó a aumentar en frecuencia e importancia, por lo que la UNESCO instó a los países a aplicar "sin demora" el Marco Ético Mundial sobre esta tecnología, que fue adoptado por unanimidad por los 193 Estados miembros en 2021.
:quality(70)/https://assets.iproup.com/assets/jpg/2022/12/32507.jpg)
Italia prohibió el ChatGPT.
Líderes tecnológicos piden pausar la inteligencia artificial
El avance de la inteligencia artificial (IA) y los usos avanzados que ofrece ChatGTP pusieron en alerta a las principales mentes de la tecnología global.
De hecho, el cofundador de Apple, Steve Wozniak; el cocreador de Skype; y el CEO de Tesla y SpaceX, Elon Musk, firmaron una solicitada con el fin de "poner en pausa" temporalmente los grandes experimentos con IA por los riesgos que conlleva contra la sociedad.
Lo curioso es que Musk fue el fundador de OpenAI, la firma detrás de ChatGPT, la aplicación que puso en agenda el potencial tanto para los buenos negocios (Microsoft invirtió u$s10.000 millones) como para afectar el desarrollo de la humanidad.
El documento fue firmado por más de 1.100 personas que busca que los laboratorios de IA detengan "de inmediato y durante al menos durante seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4".
La solicitud encierra la preocupación sobre el desarrollo de sistemas de IA con inteligencia humana-competitiva, principalmente por los riesgos que pueden suponer para la sociedad y la humanidad, ya que consideran que "su desarrollo no se está realizando con planificación ni gestión", según revela EuropaPress.
Precisamente, solicitan que dicha paralización de los entrenamientos se aproveche para "desarrollar e implementar un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA", que sean auditados y supervisados por expertos externos independientes.
:quality(70)/https://assets.iproup.com/assets/jpg/2022/12/32784.jpg)
A pesar de invertir en OpenAi, Musk teme por los "efectos adversos" de la inteligencia artificial
"Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes", matizan en la misiva, publicada en el Future of Life Institute.
También destacan la necesidad de trabajar de forma conjunta con los legisladores, para avanzar en el desarrollo de sistemas sólidos de gobierno de IA, que además de garantizar un desarrollo seguro de esta tecnología, permita su auditoría y supervisión y el seguimiento de los responsables en caso de fugas o daños, para que puedan responder por ellos.
La carta abierta cuenta con el apoyo de líderes tecnológicos como el cofundador de Apple, Steve Wozniak; el director ejecutivo de Tesla y SpaceX y Twitter, Elon Musk; el cofundador de Skype, Jaan Tallinn; y el director ejecutivo de Stability AI, Emad Mostaque.
ChatGPT: el temor de sus creadores
Sam Altman, actual CEO de la empresa OpenAI, remarcó que tanto reguladores como la sociedad deben involucrarse con la tecnología para protegerse contra posibles consecuencias negativas para la humanidad. "Tenemos que tener cuidado aquí. Creo que la gente debería estar feliz de que estemos un poco asustados por esto", subrayó.
"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que mejoran en la escritura de código de computadora, podrían usarse para ataques cibernéticos ofensivos", declaró en diálogo con ABC News.
Y añadió: "Esta es una herramienta que está en gran medida bajo el control humano". En este sentido, marcó que GPT-4 "espera a que alguien le dé una entrada", y lo preocupante es, en realidad, es "quién tenga el control de esas entradas".
:quality(70)/https://assets.iproup.com/assets/jpg/2023/02/33702.jpg)
La IA podría quitar puestos de trabajo
Elon Musk, uno de los primeros inversores de OpenAI, advirtió tiempo atrás que la IA es "uno de los mayores riesgos para el futuro de la civilización".
"Necesitamos regular la seguridad de la IA. Son un riesgo mayor para la sociedad que los automóviles, los aviones o los medicamentos", declaró Musk, dueño de Twitter y CEO de Tesla.
"Habrá otras personas que no pongan algunos de los límites de seguridad que ponemos nosotros", consideró por su parte Altman.
"La sociedad tiene una cantidad limitada de tiempo para descubrir cómo reaccionar ante eso, cómo regularlo, cómo manejarlo", concluyó.