Clases particulares, traducción simultánea... todo lo que ofrece GPT-4o, la nueva Siri de OpenAI
OpenAI anunció este lunes un nuevo nivel de ChatGPT. Ahora será un poco más inteligente, capaz de funcionar por primera vez con capacidad nativa para ver, hablar y escuchar. Contará con un sistema multimodal, lo que permitirá a los usuarios utilizarlo como asistente virtual. Sí, será será un Siri dopado con inteligencia artificial (IA). Esta nueva versión se llamará GPT-4o (la 'o' viene de omnimodal) y será gratuita para todos los usuarios de la aplicación, tanto en la web como en la aplicación de móvil. De hecho, algunos usuarios, en su mayoría premium, ya cuentan con la nueva actualización. Durante el evento del anuncio, la directora de tecnología de OpenAI, Mira Murati, mostró varias de las funcionalidades y novedades que tiene este nuevo modelo de IA. Se mejora su capacidades de texto, audio e imagen, y lleva a otro nivel la forma en la que se comunica con los humanos, con conversaciones más naturales y fluidas. Noticias Relacionadas estandar No La IA marca un antes y un después en las estrategias SEO Iciar Miner estandar No «Maestra del juego sucio»: la IA ya es capaz de engañar y manipular a los humanos Javier Palomo Por ejemplo, ahora puede responder a entradas de audio en apenas 232 milisegundos, similar al tiempo de respuesta humano en una conversación. Antes, el modo de voz de GPT-3,5 ofrecía respuestas con una latencia media de 2,8 segundos y en GPT-4 de 5,4 segundos. Un salto bastante grande. La nueva versión consigue esta rapidez gracias a que ha sido entrenado de extremo a extremo en texto, imagen y audio, lo que significa que todas las entradas y salidas son procesadas por la misma red neuronal. Esto permite, si lo desea el usuario, hacerle una pregunta a la IA e interrumpirla mientras responde. El modelo ofrece una capacidad de respuesta en «tiempo real», como si fuera una persona a la que estás hablando, e incluso puede captar matices en la voz de un usuario, generando en respuesta voces con una tonalidad similar y «una variedad de estilos emotivos diferentes». Traducción en tiempo real Otra novedad que ha sorprendido a los usuarios por redes sociales es su nueva capacidad de traducción en tiempo real. Murati lo ha demostrado mediante una conversación que ha mantenido ella en italiano y su compañero en inglés. La IA ha sido capaz de entender y traducir en milisegundos los idiomas, lo que ha sido muy aplaudido durante la presentación y después de esta. Código Desktop OpenAI has just demonstrated its new GPT-4o model doing real-time translations ???? pic.twitter.com/Cl0gp9v3kN— Tom Warren (@tomwarren)
May 13, 2024
Imagen para móvil, amp y app Código móvil OpenAI has just demonstrated its new GPT-4o model doing real-time translations ???? pic.twitter.com/Cl0gp9v3kN— Tom Warren (@tomwarren)
May 13, 2024
Código AMP OpenAI has just demonstrated its new GPT-4o model doing real-time translations ???? pic.twitter.com/Cl0gp9v3kN— Tom Warren (@tomwarren)
May 13, 2024
Código APP OpenAI has just demonstrated its new GPT-4o model doing real-time translations ???? pic.twitter.com/Cl0gp9v3kN— Tom Warren (@tomwarren)
May 13, 2024
Además, el modelo no solo responde al instante, sino que también brinda respuestas en diferentes tonos de voz e incluso puede reír, cantar o tener diferentes estados de ánimo. Clases particulares También es capaz, como si se tratase de una profesora particular, de ayudar en tiempo real a resolver problemas matemáticos. En la presentación se ha puesto de ejemplo a un estudiante que compartía su pantalla del iPad a la IA, para que pudiera ver el ejercicio. Código Desktop This demo is insane.
A student shares their iPad screen with the new ChatGPT + GPT-4o, and the AI speaks with them and helps them learn in *realtime*.
Imagine giving this to every student in the world.
The future is so, so bright. pic.twitter.com/t14M4fDjwV— Mckay Wrigley (@mckaywrigley)
May 13, 2024
Imagen para móvil, amp y app Código móvil This demo is insane.
A student shares their iPad screen with the new ChatGPT + GPT-4o, and the AI speaks with them and helps them learn in *realtime*.
Imagine giving this to every student in the world.
The future is so, so bright. pic.twitter.com/t14M4fDjwV— Mckay Wrigley (@mckaywrigley)
May 13, 2024
Código AMP This demo is insane.
A student shares their iPad screen with the new ChatGPT + GPT-4o, and the AI speaks with them and helps them learn in *realtime*.
Imagine giving this to every student in the world.
The future is so, so bright. pic.twitter.com/t14M4fDjwV— Mckay Wrigley (@mckaywrigley)
May 13, 2024
Código APP This demo is insane.
A student shares their iPad screen with the new ChatGPT + GPT-4o, and the AI speaks with them and helps them learn in *realtime*.
Imagine giving this to every student in the world.
The future is so, so bright. pic.twitter.com/t14M4fDjwV— Mckay Wrigley (@mckaywrigley)
May 13, 2024
Tras observar el problema, ChatGPT iba haciéndole preguntas y consejos al joven, y resolviendo cuestiones nuevas que el chico se planteaba mientras descifraba el problema. Con infinita paciencia, y a coste cero. Como decimos, este nuevo modelo también mejora en sus capacidades de visión. En este sentido, podremos darle una foto o una captura de pantalla para que la analice y nos brinde información al respecto. Desde qué modelo es tal coche hasta si tiene errores el código de un lenguaje de programación. Ahora tendrá memoria Otra novedad importante es que el nuevo ChatGPT contará con una función llamada 'Memory'. Permitirá que la IA pueda recordar el contenido con el que ha interactuado el usuario —siempre que se lo indique—. Es decir, será capaz de acordarse de todo lo que ha estado aprendiendo con nosotros, naturalizando las conversaciones y facilitando las próximas peticiones. Esta funcionalidad ya estaba disponible para los usuarios que pagaran por la versión plus de ChatGPT.