OpenAI present贸 su modelo GPT-4, que acepta entradas de im谩genes y texto

OpenAI present贸 su modelo GPT-4, que acepta entradas de im谩genes y texto

Noticias IBL | Nueva York

OpenAI comenz贸 a implementar, a trav茅s de una lista de espera, para los usuarios de API su modelo GPT-4 m谩s avanzado.

La empresa describi贸 GPT-4 como “un gran modelo multimodal (que acepta entradas de im谩genes y texto, y emite salidas de texto) que, si bien es menos capaz que los humanos en muchos escenarios del mundo real, exhibe un desempe帽o a nivel humano en varios puntos de referencia acad茅micos y profesionales”.

Greg Brockman, presidente y cofundador de OpenAI, mostr贸 GPT-4 y algunas de sus capacidades/limitaciones a trav茅s de una transmisi贸n en vivo de 24 minutos en YouTube (video a continuaci贸n). Adem谩s, una publicaci贸n de blog detalla las capacidades y limitaciones del modelo, incluidos los resultados de la evaluaci贸n.

“GPT-4 puede resolver problemas dif铆ciles con mayor precisi贸n, gracias a su conocimiento general m谩s amplio y capacidades de razonamiento avanzadas”, dijo la empresa.

“Puede generar, editar e iterar con los usuarios en tareas de escritura t茅cnica y creativa, como componer canciones, escribir guiones o aprender el estilo de escritura de un usuario”.

OpenAI abri贸 una Lista de espera de API para obtener acceso a la API de GPT-4. Otorg贸 acceso prioritario a los desarrolladores que contribuyen a las evaluaciones de modelos para OpenAI Evals.

A los usuarios pagos de ChatGPT Plus se les ofreci贸 acceso GPT-4 en chat.openai.com con un l铆mite de uso.

El precio de la API fue el siguiente:

鈥 gpt-4 con una ventana de contexto de 8K (alrededor de 13 p谩ginas de texto) costar谩 0,03 USD por cada 1K tokens de solicitud y 0,06 USD por cada 1K tokens de finalizaci贸n.

鈥 gpt-4-32k con una ventana de contexto de 32聽000 (alrededor de 52 p谩ginas de texto) costar谩 0,06聽$ por cada 1聽000 tokens de solicitud y 0,12聽USD por cada 1聽K de tokens de finalizaci贸n.