Así ayudará OpenAI a los usuarios demandados por copyright
/https://assets.iproup.com/assets/jpg/2023/03/33797.jpg)
La reconocida empresa fundada por Elon Musk y Sam Altman, OpenAI, aseguró que cubrirá los costos legales para los usuarios de ChatGPT de nivel empresarial que se encuentren en problemas por infracción de derechos de autor.
En este sentido, a los usuarios de las versiones gratuitas y Plus de ChatGPT no los cubrirá.
Este 6 de noviembre, en la primera conferencia de desarrolladores de la empresa, DevDay, Altman, expresó: "Intervendremos para defender a nuestros clientes y pagar los costos incurridos si enfrentan reclamaciones legales por infracción de derechos de autor, y esto se aplica tanto a ChatGPT Enterprise como a la API".
De esta forma, OpenAI se une a las empresas tecnológicas Microsoft, Amazon y Google al ofrecer respaldo legal a los usuarios acusados de infracción de derechos de autor.
Adobe y Shutterstock, proveedores de imágenes de archivo con ofertas de IA generativa, también hicieron la misma promesa.
OpenAI enfrenta una serie de demandas alegando que utilizó material con derechos de autor para entrenar sus modelos de IA.
La comediante y autora Sarah Silverman, junto con otras dos personas, demandó a OpenAI en julio, alegando que los datos de entrenamiento de ChatGPT incluyen su trabajo con derechos de autor al que se accedió en bibliotecas en línea ilegales.
OpenAI recibió al menos dos demandas más en septiembre:
Una demanda colectiva alegó que OpenAI y Microsoft utilizaron información privada robada para entrenar modelos, mientras que el Gremio de Autores demandó a OpenAI por "robo sistemático" de material protegido por derechos de autor.
El avance constante en el desarrollo de sistemas de inteligencia artificial trae consigo preocupaciones sobre posibles futuros distópicos.
En respuesta a estas inquietudes, OpenAI tomó medidas proactivas para abordar los desafíos emergentes en el campo de la IA. La organización anunció la formación de un equipo especializado conocido como "Preparedness".
Este equipo llevará a cabo un análisis exhaustivo de los modelos de inteligencia artificial existentes y emergentes. Su objetivo principal es evaluar y anticiparse a lo que OpenAI considera "riesgos catastróficos".
"Preparedness", bajo la dirección de Aleksander Madry, un destacado experto en aprendizaje automático del MIT que se unió a la organización en mayo, emprendió un ambicioso proyecto.
Su objetivo es claro: rastrear, evaluar, pronosticar y proteger contra lo que identificaron como "riesgos catastróficos" relacionados con la inteligencia artificial.
Estos riesgos, según los expertos de OpenAI, abarcan diversas categorías críticas, que incluyen:
La preocupación por los peligros potenciales derivados del desarrollo de sistemas de IA fue ampliamente compartida por expertos y figuras influyentes.