Multisearch Google
Google ha decidido salir de la caja (literalmente salir de su caja de Búsqueda). Hoy, en el evento Google en París, presentamos, entre otras cosas, una nueva forma de explorar el mundo desde el Buscador a través de texto e imágenes al mismo tiempo por medio de inteligencia artificial (IA), con Multisearch.
A partir de ahora, aunque no encuentres las palabras para describir lo que estás buscando, puedes simplemente mostrarle al buscador de Google lo que quieres encontrar, para inmediatamente tener opciones sobre dónde encontrarlo, cómo comprarlo o incluso cómo convertir esa misma idea en una posibilidad distinta.
Desde hace 23 años, Google ha empoderado a las personas dándoles acceso de forma innovadora a la información del mundo. Ahora nos interesa seguir revolucionando qué significa “buscar” y hasta dónde puede llevarnos la tecnología en su infinito universo de posibilidades.
Por ejemplo, imagina poder encontrar los horarios de servicio de una tienda con solo tomarle una foto a la fachada, o poder decirle al buscador “quiero estos tacones, pero en versión flat” o “quiero este vestido rojo, pero en color verde” sin necesidad de tener que encontrar las palabras exactas.
¿Cómo funciona?
Multisearch funciona por medio de Google Lens —disponible en Android y iOS—, herramienta de IA que ya se usa más de 10.000 millones de veces al mes cuando las personas buscan en Google a través de la cámara o imágenes en su celular. Además, en los próximos meses, la multibúsqueda se expandirá a imágenes en la web a nivel mundial en dispositivos móviles. También se habilitará la función de “buscar en tu pantalla”, con la cual puedes buscar lo que ves en fotos o videos en sitios web y aplicaciones, sin tener que abandonar la aplicación o el sitio. Esta función estará en todos los idiomas en los que Lens esté disponible.
Busca de manera más intuitiva
Con esta herramienta puedes hacer preguntas sobre un objeto que tengas enfrente o delimitar mejor la búsqueda en términos de color, formas o atributos visuales que desees especificar, incluso puedes formular preguntas complejas que sin una imagen serían difíciles de explicar:
Otros proyectos que llegarán a nuestra región, impulsados por inteligencia artificial, y que anunciamos en París, este 8 de febrero, nos ayudan reimaginar el futuro con características en Google Maps y otros productos:
Google Maps:
En el evento, también se dieron a conocer algunas novedades que llegarán al Traductor de Google y sobre Google Arts & Culture.
Con el paso de los años, hemos invertido cada vez más en IA para comprender de una mejor manera toda la información que se procesa por medio del Buscador, desde la comprensión del lenguaje, imágenes, videos y ahora del mundo real. Por lo que es más fácil explorar el mundo que nos rodea de forma más natural e intuitiva. Además de esto, estamos explorando maneras en las que esta función pueda estar conectada a MUM (nuestro último modelo de IA en Search) para mejorar los resultados sobre las preguntas que puedan hacerse.
Antes, tuvimos que adaptar nuestra forma de formular preguntas de acuerdo a las posibilidades y restricciones que la tecnología nos ofrecía. En el futuro que tenemos como visión, las personas seremos capaces de expresarnos con libertad y de forma cada vez más natural, para encontrar los resultados que estamos buscando.