Google anunció la función de traducción en tiempo real de Gemini, que se expande de la plataforma Android a iOS, lanzándose simultáneamente en varios mercados como el Reino Unido, Japón, Taiwán y Alemania. Esta actualización tiene como objetivo ofrecer un servicio de traducción de voz en tiempo real con una mayor comprensión contextual y entonación natural a través de dispositivos móviles y wearables, siendo el mayor atractivo que la aplicación puede funcionar con auriculares Bluetooth de cualquier marca, sin limitarse a las especificaciones de Apple.
La APP de traducción en tiempo real de iOS puede funcionar con auriculares Bluetooth de cualquier marca.
Anteriormente, las funciones de traducción en tiempo real de marcas específicas a menudo estaban limitadas a hardware exclusivo. La función de “traducción en tiempo real con auriculares” que Google lanzó esta vez adopta una arquitectura abierta, permitiendo a los usuarios simplemente descargar la aplicación de Google Translate en su iPhone o iPad para utilizarla con cualquier auricular Bluetooth inalámbrico. La nueva función puede usarse en diferentes dispositivos de hardware, permitiendo a los usuarios de iOS obtener información en tiempo real mientras están en movimiento. La tecnología subyacente es impulsada por el modelo Gemini 3.1 Flash Live, que enfatiza el procesamiento de audio de baja latencia y actualmente admite más de 70 idiomas, mejorando significativamente el valor práctico de esta herramienta en contextos de negocios internacionales y viajes personales.
Inteligencia artificial que optimiza la naturalidad de la traducción de voz.
En comparación con la traducción palabra por palabra tradicional, la herramienta de traducción que incorpora la tecnología Gemini se centra más en el análisis semántico y la preservación de la emoción. El sistema, al procesar la voz, no solo traduce el texto, sino que también intenta simular el tono, acento y ritmo del hablante original, reduciendo la sensación de alienación que puede causar una voz mecánica. Al manejar modismos o jerga, la inteligencia artificial puede proporcionar sugerencias de traducción más precisas basadas en el contexto, traduciendo expresiones idiomáticas inglesas a vocabulario que tenga significado cultural local.
Actualización sincronizada de la traducción de voz en Google Meet.
La función de traducción de voz se ha lanzado oficialmente para los usuarios de Google Workspace y las cuentas personales del programa Google AI. Esta función añade una voz en off al sonido del hablante en tiempo real. De esta manera, los participantes pueden escuchar la traducción en su idioma nativo y entender el contexto emocional del hablante. Actualmente, admite traducción bidireccional entre inglés y varios otros idiomas, incluidos español, francés, alemán, portugués e italiano.
Funciones multimodales que apoyan la percepción del entorno.
Además de la comunicación por voz, Google también ha fortalecido el ámbito de aplicación de la inteligencia artificial multimodal. A través de la función de “búsqueda en tiempo real” y la cámara Google Lens, los usuarios pueden apuntar directamente a señales, menús o manuales para realizar traducciones en tiempo real y tener conversaciones detalladas con Gemini. En el ámbito del aprendizaje de idiomas, la aplicación de Google Translate ha expandido su función de práctica oral, lanzando un mecanismo de retroalimentación mejorado en Taiwán, Suecia, India y otros 20 países. Este sistema puede proporcionar sugerencias específicas sobre la pronunciación oral del usuario y ayudar a alcanzar objetivos de dominio del idioma mediante el seguimiento del progreso de aprendizaje (como los días de práctica continua), mejorando así la experiencia de aprendizaje personalizada.
Presentación de gafas inteligentes con inteligencia artificial en la segunda mitad del año.
Google colaborará con fabricantes como Samsung y Warby Parker, con la expectativa de presentar gafas inteligentes con funciones de inteligencia artificial a más tardar en la segunda mitad de 2026. Una de las aplicaciones centrales del producto será la tecnología de visualización integrada en las lentes, que podrá proporcionar “subtítulos en tiempo real” dentro del rango de visión del usuario, proyectando texto traducido directamente en el escenario real. El desarrollo de estos dispositivos portátiles simboliza cómo la tecnología de traducción está evolucionando de simples pantallas a un servicio de percepción ambiental que integra visual y auditivamente. Actualmente, esta serie de funciones se encuentra en fase de prueba y promoción gradual, y se optimizarán los modelos según la retroalimentación de los usuarios en cada país.
Este artículo Google anunció la función de traducción en tiempo real de Gemini se publicó por primera vez en Chain News ABMedia.