Google amplió Search Live a más de 200 países y territorios y lo integró con Gemini 3.1 Flash Live, su nuevo modelo de audio para conversaciones en tiempo real. La función permite hablar con el buscador, hacer preguntas de seguimiento y usar la cámara del teléfono para mostrar lo que se tiene delante, todo dentro de AI Mode en la app de Google para Android y iPhone.

La novedad no es menor. Search Live deja de ser una experiencia limitada a pocos mercados y pasa a convertirse en una pieza global dentro de la apuesta de Google por una búsqueda más conversacional y multimodal. En vez de escribir una consulta, el usuario puede preguntar en voz alta, recibir una respuesta hablada y seguir la conversación mientras ve enlaces web en pantalla para profundizar.

Google vincula esta expansión con Gemini 3.1 Flash Live, un modelo que, según la empresa, reduce la latencia, mejora la naturalidad de la conversación y funciona de forma nativa en varios idiomas. La compañía también lo presenta como la base técnica para experiencias de voz tanto para usuarios comunes como para desarrolladores y clientes empresariales.

Search Live sale de su fase limitada y gana una capa más útil para el buscador

Search Live está pensado para situaciones en las que escribir resulta incómodo o lento. Google pone como ejemplo pedir ayuda para instalar un mueble, pero la lógica va más allá: sirve para resolver dudas mientras se cocina, reparar algo en casa, entender un objeto con la cámara o seguir una conversación manos libres con el buscador. La función también se puede activar desde Google Lens, lo que suma el contexto visual a la consulta.

La clave del anuncio es que Google no solo abrió más países. También reforzó la experiencia con un modelo de voz nuevo. En su explicación sobre Gemini 3.1 Flash Live, la empresa asegura que la herramienta mejora la precisión en audio, responde más rápido y sostiene conversaciones más fluidas. En Gemini Live, por ejemplo, Google afirma que el modelo puede seguir el hilo de la charla durante más tiempo que la versión anterior. En Search Live, ese salto se traduce en una interacción más cercana a una conversación continua y menos a una secuencia rígida de preguntas aisladas.

Otro detalle importante es el idioma. Google dice que Gemini 3.1 Flash Live es inherentemente multilingüe, y esa capacidad es la que habilita la expansión global de Search Live. En la práctica, eso significa que la empresa quiere que la búsqueda hablada con IA deje de depender tanto del inglés y se vuelva más natural para usuarios de muchos mercados al mismo tiempo.

El anuncio además conecta el producto para consumidores con la oferta para terceros. Google lanzó Gemini 3.1 Flash Live en vista previa para desarrolladores a través de Gemini Live API en Google AI Studio y también lo ofrece para empresas en Gemini Enterprise for Customer Experience. Eso le da al movimiento una lectura doble: no es solo una mejora en la app de Google, sino también una pieza de infraestructura para asistentes de voz, soporte automatizado y agentes conversacionales.

La jugada refuerza la pelea por llevar la IA a tareas cotidianas

El valor de Search Live está en que Google acerca la IA a un hábito que ya existe: buscar cosas. En lugar de pedirle al usuario que abra un chatbot aparte, cambie de contexto y formule un prompt largo, la empresa inserta la conversación dentro de su producto de búsqueda y la combina con enlaces de la web. Esa mezcla es relevante porque mantiene a Search cerca de su función original, pero la hace más flexible para consultas abiertas, visuales o con varias repreguntas.

También hay una lectura competitiva. Mientras otras compañías empujan asistentes de voz y herramientas conversacionales, Google intenta aprovechar una ventaja evidente: su distribución global en búsqueda, Lens y la app de Google. Si la experiencia funciona bien, Search Live puede convertirse en una puerta de entrada más masiva para la IA multimodal que muchas demos llamativas, pero menos integradas a productos de uso diario.

Para quienes siguen lanzamientos de IA, este movimiento muestra otra tendencia: la batalla ya no pasa solo por modelos más potentes, sino por dónde se integran y cómo se usan. Google está usando Gemini 3.1 Flash Live para unir modelo, producto y ecosistema. El mismo anuncio menciona mejoras para usuarios finales, APIs para desarrolladores y una oferta específica para atención al cliente en empresas. Eso da una señal clara sobre la dirección del mercado: voz en tiempo real, soporte multilingüe y experiencias que combinan texto, audio, cámara y navegación web en un solo flujo.

Conviene, eso sí, mantener una precisión importante. Google no dice que Search Live esté disponible en cualquier lugar sin condiciones, sino en todos los idiomas y ubicaciones donde AI Mode ya está disponible. Es una diferencia pequeña en apariencia, pero importante para entender el alcance real del lanzamiento.

Con esta expansión, Google no presentó un chatbot nuevo ni un modelo aislado para laboratorio. Presentó una forma más práctica de usar su buscador con IA en el mundo real, con voz, cámara y seguimiento conversacional. Si la ejecución acompaña, Search Live puede convertirse en una de las señales más claras de cómo la IA empieza a mezclarse con productos cotidianos sin pedirle al usuario que aprenda un flujo completamente nuevo.

Fuentes

Recommended Posts
0
sesgos-de-la-ia-2openai-agrega-plugins-a-codex