Gemini 2.0, Google apuesta por una IA que entiende acentos

Google no se quiere quedar atrás en la carrera de la innovación. Es por ello que anunció el lanzamiento de Gemini 2.0 , un modelo de Inteligencia Artificial generativa más ágil especialmente enfocado en la construcción de agentes inteligentes, es decir, herramientas de productividad capaces de comprender contextos, anticiparse y actuar en nombre del usuario bajo su supervisión. Entre sus características destaca la multimodalidad, la cual le permite procesar y generar imágenes videos o incluso audios, para convertirse en un asistente digital más apto para las necesidades específicas de cada usuario, incluso hasta el nivel de comprender acentos o expresiones idiomáticas de una región. La tendencia de los agentes autónomos comienza a tomar fuerza en el mundo de la Inteligencia Artificial. Incluso son vistos como la evolución tecnológica de los chatbots, debido a que pueden fungir como un trabajador virtual a quien se le pueden delegar tareas y las hace como si se tratase del colaborador.

Proyecto Astra, el futuro de la Inteligencia Artificial

La empresa también dio a conocer que como parte de este lanzamiento se incluye Gemini 2.0 Flash, un modelo optimizado para dar respuestas más rápidas y eficientes en contextos de tiempo real, lo cual la convierte en una herramienta más atractiva para los usuarios. De acuerdo con Tulsee Doshi, directora y gerente de producto de Google DeepMind, este sistema también agrega las funciones multimodales. Anteriormente, Flash ha sido utilizado para la programación de herramientas conversacionales, como asistentes digitales, debido a su velocidad para contestar. A partir de hoy, los usuarios de Gemini pueden acceder a un chat optimizado con la versión experimental 2.0 Flash tanto en la versión de escritorio como en la móvil. Respecto a la aplicación de Gemini, Google dijo que la función estará disponible “pronto”, además de que a inicios de 2025 se extenderá a más productos. “En el último año”, comentó Sundar Pichai, CEO de Google, “hemos invertido en el desarrollo de agentes, lo que significa que pueden entender más sobre el mundo que le rodea, anticiparse múltiples pasos y tomar acción en su nombre bajo supervisión”. En este sentido, la firma también dio a conocer el proyecto Mariner, un prototipo en etapa inicial de desarrollo aplicado a tareas referentes con el navegador, pues es capaz de entender y razones entre la información que se ve en la pantalla para solicitar tareas específicas de esa página. Google también dio a conocer los primeros vistazos de Jules, un agente autónomo centrado en desarrolladores, pues se trata de una plataforma capaz de generar líneas de código e integrarlas directamente a los flujos de trabajo en GitHub. Aunque ya se había mostrado por primera vez previo al evento anual I/O, Google dio nuevas pistas sobre su ambicioso proyecto Astra, en el cual se combinan una gran parte de las herramientas de IA que ha ido desarrollando hasta ahora para generar una tecnología conversacional en tiempo real que funciona en diferentes tipos de dispositivos. Con Astra es posible tener un asistente digital que responde casi a la velocidad de un humano -como si se tratara de película de ciencia ficción-, habla diferentes idiomas y, según las novedades que presentó Google, ahora está conectado a las plataformas Search, Maps y Lens para ser más útil. Bibo Xu, gerente de producto en Google DeepMind y líder del proyecto, explicó que tras las pruebas que han hecho de Astra, ahora tiene la habilidad de combinar idiomas dentro de una misma conversación, además de entender acentos de diferentes regiones. También tiene una memoria mejorada de 10 minutos durante una sesión e incluso recuerda elementos de conversaciones pasadas, algo que lo convierte en una herramienta personalizada para cada usuario. “Estamos trabajando para traer este tipo de capacidades a los productos de Google, como la app de Gemini, nuestro asistente de IA y otros dispositivos, como gafas”, comentó Xu, quien también anticipó que en el futuro habrá noticias sobre este dispositivo. Cabe recordar que los lentes inteligentes Google Glass se lanzaron en 2012, pero nunca lograron salir a flote en el mercado y se descontinuaron en marzo del año pasado. Durante ese periodo, ni siquiera la versión para empresas logró funcionar, pero ahora, en combinación con la IA, podrían tener un regreso.

]]>

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *