ChatGPT ya podía escuchar y hablar, pero no como ahora. OpenAI ha revelado su nuevo modelo de inteligencia artificial, GPT-4o, que destaca no solo por ser más potente, sino también por sus capacidades para tener conversaciones en tiempo real, con todo y entonaciones de voz, prácticamente de la misma forma que lo haría un humano.
Capacidades multimodales y naturales
Durante una actualización de primavera, OpenAI mostró qué es capaz de realizar este nuevo modelo de IA, resolver ecuaciones en tiempo real, analizar código, pero también contar historias en tiempo real (cambiando de entonación a gusto del usuario), servir como traductor instantáneo, y hasta siendo capaz de analizar el rostro de una persona.
Explicando el modelo
De acuerdo con OpenAI, GPT-4o es un nuevo modelo multimodal capaz de utilizar de forma nativa diferentes entradas de contenido, audio, visión, y texto en tiempo real, lo que vuelve la interacción “mucho más natural”, siendo también más rápido en sus respuestas. Esto se debe a una nueva forma de entrenamiento, de extremo a extremo, donde la IA procesa en la misma red neuronal todas las entradas y salidas de texto, visión y audio.
Mejoras significativas
De forma simple, este cambio altera la manera en que analizaba el contenido. Hasta ahora, la IA debía realizar tres pasos: transcribir una entrada de audio a texto, generar el texto de la respuesta y convertirla en audio nuevamente para compartirla con el usuario. Este proceso hacía que ChatGPT perdiera información al no poder analizar detalles como tonos, o si había múltiples participantes, pero también limitándose en su capacidad para emitir risas, cantar o expresar emociones.
Demostraciones de GPT-4o
En la presentación se mostraron algunos de estos detalles, pues al solicitarle contar una historia, distintos usuarios podían pedir cambios en la manera de contarla, pronunciarla de forma “más emotiva” o hasta cambiar la narración por una voz robótica. El nuevo modelo también se probó en otros entornos, ayudando a los presentadores a resolver una ecuación lineal, paso a paso en tiempo real mientras apuntaban la cámara de su smartphone al problema, y para hacer traducciones entre dos personas, de italiano a inglés, de forma prácticamente instantánea.
Disponibilidad de GPT-4o
Uno de los elementos más destacados de este nuevo modelo es que estará disponible prácticamente para todos los usuarios, es decir, llegará tanto de forma gratuita, aunque con limitaciones, como para aquellos que estén suscritos en algunos de sus planes. Según OpenAI, desde el miércoles 13 de mayo se estarán implementando en ChatGPT las capacidades de texto e imagen del modelo de forma gratuita, y para los usuarios Plus habrá límites de mensajes hasta cinco veces mayores.
Futuro brillante
Por otro lado, el nuevo modo de voz, una de las funciones estrella del modelo, llegará únicamente para los suscriptores en versión alfa en las próximas semanas. Para los desarrolladores que usan la API de la IA también hay beneficios, pues GPT-4o es un modelo, dice OpenAI, dos veces más rápido, a mitad de precio y con límites de velocidad más altos en comparación con GPT-4 Turbo.
Además de GPT-4o, la compañía también mostró una nueva aplicación de escritorio, que tendrá un comando específico para hacer consultas sobre algún contenido de forma instantánea, ya sea seleccionado texto o tomando capturas de pantalla. De momento esta función será exclusiva para macOS y para usuarios Plus, pero la compañía tiene contemplado lanzar una versión para Windows a finales de 2024.
Más noticias:
Conquito: Crianza de gallinas de postura, un curso integral