El pasado 14 de mayo se llevó a cabo el Google I/O 2024, el evento más importante de la firma en el que anuncian cuáles son los proyectos más importantes en los que trabajan. Para esta edición, el gigante de Mountain View centró sus novedades en el desarrollo actual de sus propuestas que se basan en la inteligencia artificial, con Gemini como eje central. ¿Qué se sabe sobre los denominados Agentes con IA? Te contamos todos los detalles a los que tuvimos acceso anticipado.
Google reveló a través de un trailer las mejoras que ofrecen sus denominados Agentes, que son capaces de planificar y ejecutar acciones en respuesta a comentarios específicos que emita el usuario. Como tal, es un tipo de asistente que destaca por interactuar con características notablemente 'humanizadas' e incluso puedes interrumpir la conversación para cambiar de tema y la cámara de tu dispositivo es el medio por el cual dicha tecnología puede describir lo que ve y resolver todo tipo de consultas.
PUEDES VER: Google I/O 2024: las mejoras en Gemini, los agentes con IA y todos los anuncios presentados
Por ejemplo, serás capa de explicar para qué funciona un código de programación específico que aparece en una pantalla que enfocas, qué sabe del lugar que ves frente a ti (un parque, establecimiento y más) e incluso recordarte dónde dejaste objetos desde que empezó la conversación.
La próxima llegada de los agentes desarrollados por Google, forman parte del proyecto de inteligencia artificial denominado como Astra. De forma puntual, se sabe que dicho sistema automatizado e interactivo se basa en el modelo Gemini y otros específicos de tarea, que pueden procesar mucha información con rapidez, desde la codificación continua de imágenes y la mezcla de voz y video en una sola línea temporal de acontecimientos. Dicha propuesta entiende las indicaciones y el contexto, para emitir respuestas con entonaciones muy naturales que se adaptan al escenario.
PUEDES VER: ¿Qué son las llaves de acceso de Google y cómo te ayudan a ‘recordar’ muchas contraseñas a la vez?
“Gemini puede mantener una conversación personalizada e interactiva, mezclando y combinando entradas y salidas. Son sistemas inteligentes que muestran razonamiento, planificación y memoria. Son capaces de pensar varios pasos por delante y trabajar en todos los programas y sistemas o de hacer algo en nombre del usuario y, lo que es más importante, con su supervisión", explica el CEO de Google, Sundar Pichai, a raíz de la humanización en la interacción que busca emular una relación cada vez más orgánica.
“Siempre quisimos construir un agente universal que fuera útil en la vida cotidiana. Por eso hicimos que Gemini fuera multimodal desde el inicio. Ahora estamos procesando un flujo de información sensorial diferente. Estos agentes pueden ver y escuchar mejor lo que hacemos, entienden el contexto y responden rápidamente en la conversación, por lo que el ritmo y la calidad de la interacción es más natural”, precisa Demis Hassabis, director de DeepMid en el evento.
PUEDES VER: ¿Cómo usar la app de Gemini en tu teléfono y qué funciones de IA en español puedes aprovechar?
La herramienta estará disponible próximamente en la app Live para suscriptores del plan Advanced, a través de la grabación que realices en tiempo real. Se utiliza la cámara de tu teléfono para captar todos los detalles del contexto en el que se sumerge el usuario, para que uno emita preguntas en base a lo que se ve y señala. El sistema revisa en las imágenes y responde exactamente lo que se solicita.
“Gemini es mucho más que un robot de chat, se ha diseñado para ser su asistente personal y más que eso. Las respuestas son personalizadas, se puede elegir entre 10 voces y el sistema se ajusta al patrón de habla del usuario para mantener una conversación real de ida y vuelta con el modelo”, comenta Sissie Hsiao, vicepresidenta de Google y directora general de Gemini.
PUEDES VER: Google I/O 2024: las mejoras en Gemini, los agentes con IA y todos los anuncios presentados