OpenAI presenta el nuevo ChatGPT que escucha, mira y habla

Mientras Apple y Google convierten sus asistentes de voz en chatbots, OpenAI está convirtiendo su chatbot en un asistente de voz.

La startup de inteligencia artificial de San Francisco presentó el lunes una nueva versión de su chatbot ChatGPT que puede recibir y responder a comandos de voz, imágenes y vídeos.

La compañía dijo que la nueva aplicación, basada en un sistema de inteligencia artificial llamado GPT-4o, maneja audio, imágenes y video significativamente más rápido que la versión anterior de la tecnología. La aplicación estará disponible a partir del lunes, de forma gratuita, tanto para teléfonos inteligentes como para ordenadores de sobremesa.

«Estamos mirando el futuro de la interacción entre nosotros y las máquinas», dijo Mira Murati, directora de tecnología de la empresa.

La nueva aplicación es parte de un esfuerzo mayor para combinar chatbots conversacionales como ChatGPT con asistentes de voz como Google Assistant y Siri de Apple. Mientras Google combina su chatbot Gemini con Google Assistant, Apple prepara una nueva versión de Siri más conversacional.

OpenAI dijo que compartirá gradualmente la tecnología con los usuarios «durante las próximas semanas». Esta es la primera vez que se ofrece ChatGPT como aplicación de escritorio.

La empresa ofrecía anteriormente tecnologías similares en varios productos gratuitos y de pago. Ahora los ha reunido en un único sistema disponible para todos sus productos.

Durante un evento transmitido por Internet, Murati y sus colegas demostraron la nueva aplicación mientras respondía a comandos de voz conversacionales, usaban una transmisión de video en vivo para analizar problemas matemáticos escritos en una hoja de papel y leían en voz alta historias, chistes que él había escrito. la mosca

La nueva aplicación no puede generar videos. Pero puede generar imágenes fijas que representan fotogramas de un vídeo.

Con el debut de ChatGPT a finales de 2022, OpenAI ha demostrado que las máquinas pueden manejar solicitudes más como las personas. En respuesta a indicaciones de conversaciones textuales, podía responder preguntas, escribir trabajos finales e incluso generar códigos de computadora.

ChatGPT no se guiaba por un conjunto de reglas. Aprendió sus habilidades analizando grandes cantidades de texto recopilado de Internet, incluidos artículos, libros y registros de chat de Wikipedia. Los expertos han elogiado la tecnología como una posible alternativa a motores de búsqueda como Google y asistentes de voz como Siri.

Las versiones más nuevas de la tecnología también han aprendido de sonidos, imágenes y vídeos. Los investigadores llaman a esto “IA multimodal”. Básicamente, empresas como OpenAI han comenzado a combinar chatbots con generadores de imágenes, audio y video de IA.

(El New York Times demandó a OpenAI y su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido de noticias relacionado con sistemas de inteligencia artificial).

A medida que las empresas combinan chatbots con asistentes de voz, persisten muchos obstáculos. Debido a que los chatbots aprenden sus habilidades a partir de datos de Internet, son propensos a cometer errores. A veces inventan información por completo, un fenómeno que los investigadores de IA llaman «alucinación». Estas fallas están migrando a los asistentes de voz.

Si bien los chatbots pueden generar un lenguaje convincente, son menos hábiles a la hora de realizar acciones como programar una reunión o reservar un vuelo aéreo. Pero empresas como OpenAI están trabajando para convertirlos en “agentes de IA” que puedan realizar tales tareas de manera confiable.

OpenAI ofrecía anteriormente una versión de ChatGPT que podía aceptar comandos de voz y responder con voz. Pero era un mosaico de tres tecnologías de IA diferentes: una que convertía la voz en texto, otra que generaba una respuesta de texto y otra que convertía este texto en una voz sintética.

La nueva aplicación se basa en una tecnología de inteligencia artificial única, GPT-4o, capaz de aceptar y generar texto, sonidos e imágenes. Esto significa que la tecnología es más eficiente y la empresa puede darse el lujo de ofrecerla a los usuarios de forma gratuita, afirmó Murati.

«Antes existía toda esta latencia que era el resultado de tres modelos trabajando juntos», dijo Murati en una entrevista con el Times. «Quieres tener la experiencia que estamos teniendo, donde podamos tener este diálogo muy natural».