Google lanza “Búsqueda en Vivo” con voz: así funciona la nueva forma conversacional de encontrar información

Google lanzó oficialmente “Búsqueda en Vivo”, una nueva función dentro de su aplicación para Android e iOS que permite interactuar con su buscador por medio de la voz, en conversaciones fluidas y en tiempo real.

Por ahora, esta función está disponible únicamente para usuarios en Estados Unidos que se hayan inscrito en el experimento del Modo IA de Google Labs. El objetivo es transformar la forma tradicional de buscar por texto en algo más natural, cercano al lenguaje cotidiano y mucho más interactivo.

Con solo tocar el nuevo ícono de “En directo” dentro de la app de Google, los usuarios pueden hacer preguntas habladas y recibir respuestas generadas por inteligencia artificial con voz. Lo novedoso es que la conversación no se interrumpe: se puede seguir preguntando como si se hablara con una persona, sin necesidad de repetir la consulta completa.

Por ejemplo, si alguien dice “¿Cómo evito que un vestido de lino se arrugue en la maleta?”, Google ofrece una respuesta hablada útil, y si se sigue con “¿Y si ya está arrugado?”, entiende el contexto y da otra respuesta pertinente.

Además del audio, los resultados incluyen enlaces web accesibles en pantalla, permitiendo ampliar la consulta con fuentes verificables. También es posible activar la transcripción de las respuestas para leerlas más adelante o retomarlas desde el historial del Modo IA.

Te puede interesar: “La inteligencia artificial está despegando más rápido en Colombia que en el resto de la región”, según Google Cloud

Ahora bien, la herramienta está diseñada pensando en quienes necesitan buscar mientras hacen otras actividades: empacar una maleta, cocinar o incluso moverse por la ciudad. Al funcionar en segundo plano, “Búsqueda en Vivo” permite cambiar de app sin perder la continuidad de la conversación.

Esto marca una diferencia frente a asistentes virtuales tradicionales como Siri o Alexa, que suelen ofrecer respuestas breves y limitadas. En este caso, la conversación se nutre del poder de Gemini, el modelo de IA de Google, adaptado con funciones avanzadas de voz y respaldado por el sistema de clasificación de información de Google Search.

El uso de la técnica de “abanico de consultas” permite que los resultados incluyan una mayor diversidad de fuentes y ángulos. Así, el usuario no solo recibe una respuesta directa, sino que puede explorar más posibilidades e ideas relacionadas con lo que busca.

Lo que viene: cámara y visión en tiempo real

Google adelantó que esta función será apenas el comienzo. En los próximos meses planea incluir la posibilidad de activar la cámara mientras se habla, para que el buscador pueda interpretar visualmente lo que el usuario está viendo. Esto abriría la puerta a escenarios como mostrar un objeto, un lugar o incluso una prenda de ropa para obtener recomendaciones, soluciones o contexto en tiempo real.

Con esta apuesta, Google sigue perfilando el rumbo de las búsquedas en la era de la inteligencia artificial: más personalizadas, conversacionales y multimodales. Aunque por ahora esté en fase experimental y solo disponible en inglés en EE. UU., se espera que pronto se expanda a más regiones e idiomas.

Queda por ver cómo responderán los usuarios a este cambio de paradigma y cómo se adaptarán las estrategias de contenido para SEO, en un entorno donde las búsquedas ya no se escriben, sino que se hablan.

Imagen: Google

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos