El nuevo sistema de OpenAI, GPT-4o, puede escuchar, hablar y observar

OpenAI presentó su última innovación: el sistema GPT-4o, que dota al chatbot ChatGPT de capacidades mejoradas para interactuar con comandos de voz, imágenes y videos.

Esta actualización supone un avance significativo en la eficiencia del sistema, ya que ahora puede manejar múltiples tipos de datos de manera más rápida y efectiva.

Integración de tecnologías

La nueva aplicación es el resultado de un esfuerzo por integrar tecnologías conversacionales y asistentes de voz, siguiendo el ejemplo de empresas como Apple y Google. OpenAI ha combinado su chatbot ChatGPT con capacidades de voz, lo que representa un paso adelante en la convergencia de diferentes modalidades de interacción con la inteligencia artificial.

Beneficios y disponibilidad

Con la nueva versión, los usuarios podrán disfrutar de una experiencia más fluida y natural al interactuar con el chatbot, que ahora puede recibir comandos de voz conversacionales, analizar imágenes y videos, y generar respuestas en tiempo real. La aplicación estará disponible de forma gratuita para dispositivos móviles y de escritorio a partir del lunes.

Desafíos y avances

Aunque la integración de capacidades multimodales presenta desafíos técnicos, como la corrección de errores y la mejora de la fiabilidad en la ejecución de tareas específicas, OpenAI está comprometida en superar estos obstáculos para ofrecer una experiencia de usuario óptima.

Futuro de la interacción humano-máquina

La directora de tecnología de OpenAI, Mira Murati, expresó su visión de futuro, destacando la importancia de una interacción más natural entre humanos y máquinas. La nueva aplicación representa un paso hacia adelante en este sentido, permitiendo una comunicación más intuitiva y eficiente.

Compartir: