OpenAI lanzó nuevos modelos, incluido un avance del modelo GPT-4 Turbo actualizado, y redujo el precio para el acceso a la interfaz de programación de aplicaciones (API) de GPT-3.5 Turbo.

La empresa también introdujo nuevas formas para que los desarrolladores gestionen claves de API y comprendan el uso de la API.

En una publicación de blog, OpenAI detalló que el GPT-4 Turbo actualizado "completa tareas como la generación de código de manera más exhaustiva que el modelo previo de vista previa y está destinado a reducir los casos de 'pereza' donde el modelo no completa una tarea".

OpenAI: nuevos modelos y precios 50% más bajos

OpenAI también dijo que está introduciendo un nuevo modelo GPT-3.5 Turbo, gpt-3.5-turbo-0125, y por tercera vez en el último año, reducirá los precios de GPT-3.5 Turbo para ayudar a sus clientes a escalar.

Los precios de entrada para el nuevo modelo se reducen en un 50% a u$s0.0005 por mil tokens, y los precios de salida se reducen en un 25% a u$s0.0015 por mil tokens, señaló Cointelegraph.

Las quejas surgieron entre los usuarios de ChatGPT en diciembre de 2023 sobre el chatbot que a menudo rechazaba tareas, culpando a la falta de actualizaciones de GPT-4.

Los usuarios de ChatGPT se quejaban de que el chatbot rechazaba tareas

Mientras que los usuarios de GPT-4, que utilizan datos disponibles antes de septiembre de 2021, aún pueden experimentar los mismos problemas de pereza, GPT-4 Turbo fue entrenado con información tan reciente como abril de 2023.

OpenAI introdujo modelos de IA más pequeños conocidos como embeddings. OpenAI define los embeddings como secuencias de números que representan conceptos en contenido como lenguaje o código.

Los embeddings son una especie de herramienta de IA que ayuda a las computadoras a comprender y utilizar texto escrito de manera más efectiva. Lo hacen convirtiendo palabras y oraciones en un formato que las computadoras pueden procesar. Imagina los embeddings como un traductor que convierte el lenguaje humano en un código especial que las computadoras pueden entender y manipular.

La generación aumentada por recuperación es un tipo de IA que, en lugar de crear respuestas desde cero, proporciona respuestas más precisas y relevantes. Es como tener una IA que busca rápidamente en un libro de referencia en lugar de adivinar una respuesta y te dice lo que encuentra.

Actualmente están disponibles dos nuevos modelos que utilizan estos embeddings:

Los términos "small" y "large" se refieren a la capacidad de estos modelos.

Sam Altman, CEO de OpenAI, está nuevamente al frente de la firma que acaba de lanzar nuevos modelos de ChatGPT más potentes y baratos

El modelo grande es como un traductor más completo: puede comprender y convertir texto de manera más sofisticada que el "small". Estos modelos ahora están disponibles para su uso en aplicaciones que necesitan recuperar y utilizar información de manera eficiente.

En términos más simples, estas nuevas herramientas son como traductores de computadora más inteligentes y eficientes, que ayudan a comprender mejor el lenguaje humano y encontrar rápidamente la información que necesitan en bases de datos grandes. Esto conduce a respuestas más precisas y útiles al interactuar con sistemas de IA.

El GPT-4 de OpenAI tiene competencia de otros modelos de inteligencia artificial (IA) como Gemini de Google. Gemini superó a GPT-4 en su capacidad para realizar cálculos avanzados y codificación especializada.

Sin embargo, algunos han argumentado que las puntuaciones podrían ser diferentes si el modelo avanzado de Gemini se probara contra el GPT-4 Turbo.

OpenAI también planea introducir una forma para que los creadores de GPT monetizen sus sistemas de IA personalizados. Los constructores de EE. UU. serán remunerados en función de la participación del usuario con sus GPT como primer paso.

Sin embargo, la tienda GPT se implementará primero para los usuarios de planes de ChatGPT pagados.

Te puede interesar