Hier, Google Presents : Search On 21 a eu lieu-l’événement virtuel de l’entreprise qui présente les nouvelles innovations et avancées en matière de technologie de recherche. Plus tôt cette année, nous avons découvert MUM, ou Multitask Unified Model, qui est un nouvel algorithme révolutionnaire pour comprendre les informations. Il permet à Google de transférer des informations à travers les langues et même les types. Cela signifie qu’il peut prendre une image ou une langue différente, et appliquer la même logique à du texte ou à des produits, par exemple.

Lors de l’événement, nous avons enfin pu voir de quoi il serait capable. Lors de la recherche avec Google Lens, vous pourrez bientôt « Ajouter une question ». Comme vous pouvez le voir ci-dessous, cela aide à se concentrer sur quelque chose de plus spécifique. Il prend le motif de chemise trouvé dans l’exemple et l’applique en face de l’image à un produit sans que ces données soient perdues. Auparavant, vous deviez savoir exactement comment s’appelait le modèle, puis lancer une nouvelle requête de recherche !

Publicités

‘Ajouter une question’pour affiner votre recherche

Vous pouvez taper « chaussettes blanches à fleurs victoriennes », mais il se peut que vous ne trouviez pas le motif exact que vous recherchez. En combinant des images et du texte dans une seule requête, nous facilitons la recherche visuelle et l’expression de vos questions de manière plus naturelle.

The Keyword

Ceci n’est qu’un cas d’utilisation pour cette nouvelle technologie incroyable. Une autre chose impressionnante que vous pouvez faire est de pointer quelque chose comme une chaîne de vélo ou quelque chose d’autre qui peut être cassé et d’ajouter une question comme”comment puis-je résoudre ce problème ?”. Google comprendra l’objet de l’image et appliquera ces données d’image à une recherche de texte avec votre question.

Donc, au lieu de simplement renvoyer plus d’images de chaînes de vélo, il fera”Comment puis-je réparer une chaîne de vélo ? en arrière-plan. Gardez à l’esprit que cela ne nécessite rien de votre part, sauf de prendre une photo de l’article en question, même si vous ne savez pas de quoi il s’agit, et de poser la question-comme vous le feriez dans la vraie vie !

Publicités

Il suffit de pointer, de tirer et de demander !

De plus, MUM va devenir un élément important de la façon dont Google affiche les résultats de recherche. Pour les rendre plus naturels et intuitifs, de nouveaux sujets tels que « Choses à savoir » ou tout ce que les gens recherchent couramment en conjonction avec votre requête apparaîtront de manière préventive afin que vous puissiez chercher plus loin. Supposons que vous recherchiez « Peinture acrylique » : plus de 350 sujets comprenant des didacticiels de peinture étape par étape, des trucs et astuces pour peindre avec des enfants, des techniques, des cours en ligne, l’élimination de la peinture, etc.’via les puces de recherche !

Vous pourrez également « Élargir cette recherche ». Google ajoute cette prochaine partie pour vous aider à vous diversifier à partir de votre requête au lieu d’affiner. Disons que nous nous en tenons à l’exemple de « Peinture acrylique » ci-dessus. Lorsque cela sera déployé, vous pourrez explorer des peintures qui utilisent le style, des peintres célèbres qui ont utilisé l’acrylique, et plus encore ! Le panneau Knowledge Graph le fait déjà, mais pas dans cette mesure.

Affiner ou élargir votre recherche avec MUM

Enfin, et au cours des prochaines semaines, MUM sera directement responsable de l’identification des éléments dans les vidéos pendant que vous effectuez une recherche, même si ces sujets ne sont pas explicitement répertoriés dans la vidéo. De la même manière que Youtube répertorie les chapitres vidéo, MUM extraira des éléments de la vidéo en fonction de son audio et de ses visuels et les affichera sous forme d’horodatage pour que vous puissiez les parcourir.

Publicités

MUM chapitres vidéo

Vous pouvez probablement commencer à voir à quel point c’est utile et incroyable maintenant, n’est-ce pas ? Il ouvre un tout nouveau niveau de compréhension dans le moteur et supprime la barrière de la langue entre les humains et l’IA. Google apprend à parler votre langue, et non l’inverse. J’ai hâte de voir la suite.

La société a déclaré qu’elle ne faisait que «gratter la surface» avec ce qui était possible. En octobre dernier, Lens a commencé à proposer des conseils de style pour tous les vêtements que vous prenez en photo – les choses évoluent vraiment ! Faites-moi part de vos réflexions sur tout cela dans les commentaires ci-dessous. Nous discuterons des autres annonces de Search On’21 plus tard dans la journée.

Partagez ceci :

Categories: IT Info