Yes oficial: AbiertoAI recién revelado GPT-4o, su nuevo modelo de inteligencia artificial que servirá como emblema de la empresa creada por Sam Altman. Esta nueva presentación de IA generativa busca generar una interacción persona-computadora mucho más naturall, aunque promete revolucionar lo que ofrecía su modelo anterior, GPT-4 Turbo.
Las capacidades del GPT-4o prometen mayor velocidad y eficiencia
Los dirigentes de la empresa anunciaron la noticia a través del Evento de primavera de OpenAI, una iniciativa que surge con el principal objetivo de compartir las innovaciones de la compañía. El principal fue la introducción de este nuevo modelo de IA generativa, que mejorará la experiencia ChatGPT haciendo la interacción más fluida y económica, ya que es dos veces más rápido que la versión Turbo y más accesible ya que cuesta la mitad de precio.
«Con GPT-4o, entrenamos un nuevo modelo único de extremo a extremo que incluye texto, visión y audio, lo que significa que todas las entradas y salidas son procesadas por la misma red neuronal. Dado que GPT-4o es el primer modelo que combina todas estas modalidades, solo estamos rascando la superficie para explorar lo que el modelo puede hacer y sus limitaciones.«, señala la empresa a través de su blog oficial.
Cabe destacar que la “o” de su nombre hace referencia a la palabra “omni”, claro indicador del potencial que ofrecerá a los usuarios.
El nuevo modelo opera en tiempo real
Además de buscar ser más accesible y amigable en su interacción con los humanos, el reciente modelo OpenAI opera completamente en tiempo real; Esto significa que al interactuar con la IA será posible interrumpirlo mientras genera una respuesta, e incluso puede detectar emociones en las voces de los usuarios, generando salidas con diferentes estilos emocionales.
Asimismo, GPT-4o optimizará las capacidades de visión de ChatGPT, permitiéndole dar responder a preguntas relacionadas con imágenes. Por ejemplo, si compartimos con la IA una captura de pantalla de un código y buscamos saber qué está mal, la IA podrá identificar dónde está el error y así ayudarnos a corregirlo; o si queremos encontrar un elemento concreto dentro de una fotografía, el modelo lo señalará en cuestión de segundos.
Mejoras y optimización en otros idiomas.
Más allá de hacer que la experiencia sea más fluida, los líderes de IA anunciaron que también implementaron mejoras en el rendimiento de la IA en más de 50 idiomasademás de que pronto lanzarán la versión de ChatGPT para escritorio y están trabajando en actualiza tu interfaz de usuario (Interfaz de usuario).
Las capacidades de GPT-4o estarán disponibles de forma iterativa en los próximos días, aunque nuevas características en El texto y la imagen ya han comenzado a mostrarse. a partir de hoy en ChatGPT para el rango gratuito. Para el plan de pago Plus, los expertos están trabajando en una nueva versión de Voice Mode que estará disponible en las próximas semanas, mientras que los desarrolladores ahora podrán acceder al nuevo modelo desde su API.
Finalmente, las funciones en El audio y el vídeo serán accesibles para un grupo pequeño. de socios en las próximas semanas.