OpenAI ha extendido el acceso a su modo de voz avanzado, mejorando la interacción con ChatGPT al permitir interrupciones a mitad de frase y ajustando respuestas según el tono emocional del usuario. Aunque actualmente solo está disponible para usuarios premium, se prevé su expansión gradual.
OpenAI ha decidido ampliar el acceso a su nuevo «modo de voz avanzado», una versión mejorada de ChatGPT diseñada para facilitar una interacción más natural y rápida. Con esta función, los usuarios pueden interrumpir las respuestas del modelo en cualquier momento sin tener que tocar la pantalla, lo que mejora significativamente la fluidez de la conversación. Además, la IA puede percibir las emociones en el tono de voz del usuario y ajustar sus respuestas de manera acorde, lo que la convierte en una herramienta más personalizable y receptiva.
Desde que fue anunciado junto con el lanzamiento del modelo GPT-4o, el modo de voz ha sido probado por un grupo reducido de usuarios. Sin embargo, las críticas iniciales, tanto positivas como negativas, reflejan una mezcla de admiración por su capacidad técnica y frustración por su limitada disponibilidad. Entre las mejoras incluidas en esta actualización, destacan la introducción de cinco nuevas voces, desarrolladas con la colaboración de actores de diferentes partes del mundo. Estas nuevas voces han sido creadas para ser cálidas, atractivas y capaces de mantener largas conversaciones sin cansar al oyente.
Hasta el momento, solo los usuarios de los planes Plus y Team tienen acceso a esta nueva función. A partir de las próximas semanas, se espera que OpenAI extienda su uso a las empresas y centros educativos, aunque los usuarios gratuitos no podrán disfrutar de este modo avanzado. La funcionalidad todavía no está disponible en la Unión Europea ni en algunos países europeos, como Reino Unido y Suiza, lo que plantea ciertas limitaciones geográficas.
A pesar de los avances, persisten interrogantes sobre la seguridad del modo de voz, especialmente en lo que respecta a la generación de contenido problemático o la imitación de voces sin permiso. Si bien OpenAI ha sometido a su IA a pruebas rigurosas, su enfoque de código cerrado impide una evaluación más exhaustiva por parte de investigadores externos. Con el creciente interés en este tipo de tecnología, la cuestión sobre cómo garantizar su seguridad y transparencia será clave en los próximos meses.
¿Hasta qué punto logrará OpenAI equilibrar la expansión global de su modo de voz avanzado con las preocupaciones de seguridad y las crecientes demandas regulatorias en Europa y más allá?
·····················
Este texto es un resumen comentado basado en la noticia original de James O’Donnell publicada en MIT Technology Review el 26 de septiembre de 2024. Puedes leer el artículo completo aquí: https://www.technologyreview.es/s/16711/la-voz-avanzada-de-openai-llega-mas-usuarios-con-el-objetivo-de-ser-un-asistente-natural
·····················