OpenAI ha presentado nuevos modelos de voz que mejoran la conversión de texto a voz y viceversa, basados en GPT-4o y GPT-4o-mini. Estos avances, disponibles a través de la API, permitirán a los desarrolladores crear agentes de voz mucho más precisos y personalizados. A diferencia de las versiones anteriores, los nuevos modelos no solo ofrecen mayor rendimiento, sino que también pueden modular su tono para sonar de manera empática, como un agente de atención al cliente.
La compañía de Sam Altman destaca que los desarrolladores ahora podrán ajustar tanto el contenido como el tono de las interacciones, lo que abre la puerta a experiencias más ricas en diversos ámbitos, desde el servicio al cliente hasta la narración creativa. Este avance marca un paso más hacia la creación de interacciones conversacionales naturales y fluidas.
Con este lanzamiento, OpenAI apunta a transformar los call centers, ofreciendo conversaciones mucho más cercanas a las humanas, superando los asistentes automatizados tradicionales. Aunque inicialmente las interacciones podrían ser limitadas, se espera que, con el tiempo, la diferencia entre hablar con una persona y con una IA sea casi imperceptible.