Esta semana, Apple presentó su propia versión de Google Lens en forma de Live Text .

En respuesta, Google acaba de responder con una nueva función para su herramienta de búsqueda visual llamada Lugares, una nueva categoría de búsqueda que puede reconocer puntos de referencia y devolver información sobre ellos dentro de la vista de la cámara, que Apple promocionó como una capacidad de Live Text durante su discurso de apertura de la WWDC.

Lugares para Google Lens, que está disponible ahora en todo el mundo, utiliza reconocimiento de imágenes y Activos de mapas 3D de Google Earth para identificar ubicaciones. Una vez que activa el filtro Lugares, Google Lens identifica el punto de referencia y aparece un punto de acceso sobre el sujeto en la vista de la cámara. Para recuperar información relevante de la Búsqueda de Google sobre el punto de referencia, simplemente toque el punto de acceso.

Google amplía el liderazgo de búsqueda de AR Sobre Apple con Landmark Recognition para Google Lens
Google Extiende la ventaja de búsqueda de AR sobre Apple con reconocimiento de puntos de referencia para Google Lens

Imágenes a través de Goog le

“Google Lens ahora se usa más de tres mil millones de veces al mes por personas de todo el mundo”, escribió Lou Wang, gerente de producto de grupo de Google Lens y AR, en un comunicado.”Esperamos que Lens haga que redescubrir y aprender sobre su ciudad sea aún más agradable”.

El lanzamiento de Places es un recordatorio conveniente de Google al mundo tecnológico de que tiene una ventaja considerable sobre Apple no solo en la búsqueda visual, sino también con servicios de posicionamiento visual. Entre las otras nuevas funciones de realidad aumentada de Apple se encuentra un modo de navegación AR para Apple Maps, que se ejecuta en la nueva capacidad Location Anchors para ARKit 5. Ambos llegan este otoño en iOS 15, pero estarán limitados a un puñado de ciudades de EE. UU. más sobre eso más tarde). También necesitarás al menos un iPhone X S , X S Plus o XR para usar estas funciones.

Mientras tanto, Live View, el modo de navegación AR para Google Maps, funciona en iPhones o dispositivos Android que admiten ARKit o ARCore y en cualquier ubicación con suficiente cobertura de Street View. Además, Google está ampliando las capacidades de Live View con un visor de rayos X de RA y navegación interior .

Solo para resumirlo un poco más, Google usó ejemplos de puntos de referencia de Londres para mostrar lugares. Londres también es una de las pocas ubicaciones que admitirán la navegación AR de Apple Maps y los anclajes de ubicación en el lanzamiento. El momento también es particularmente divertido cuando recuerdas que Google I/O fue hace dos semanas, y entonces no se reveló ninguna noticia sobre Google Lens.

Pero ser el primero no lo es todo, y los clientes potenciales pueden estar perdido. Google tenía la aplicación Measure para medir elementos en AR antes de que Apple presentara su propia aplicación con el mismo nombre, pero ahora Google está eliminando su aplicación, mientras que la versión de Apple ha mejorado con la llegada de LiDAR para los modelos iPhone Pro y iPad Pro. En general, lo que todo esto nos dice es que las guerras de mapas de AR están en pleno apogeo y el ganador final será el usuario.

Imagen de portada a través de Google

Categories: IT Info