Wczoraj Google Presents: Search odbyło się 21 – wirtualne wydarzenie firmy, które pokazuje nowe innowacje i postępy w technologii wyszukiwania. Na początku tego roku zapoznaliśmy się z MUM, czyli zunifikowanym modelem wielozadaniowym, który jest nowym przełomowym algorytmem rozumienia informacji. Umożliwia Google przesyłanie informacji między językami, a nawet typami. Oznacza to, że może przyjąć obraz lub inny język i zastosować tę samą logikę na przykład do tekstu lub produktów.
Podczas wydarzenia w końcu sprawdziliśmy, do czego będzie zdolny. Podczas wyszukiwania za pomocą Google Lens wkrótce będzie można dodać „Dodaj pytanie”. Jak widać poniżej, pomaga to udoskonalić coś bardziej konkretnego. Pobiera wzór koszuli znaleziony w przykładzie i stosuje go w poprzek obrazu do produktu bez utraty tych danych. W przeszłości trzeba było dokładnie znać nazwę wzorca, a następnie uruchomić nowe zapytanie!
Reklamy
‘Dodaj pytanie’aby zawęzić wyszukiwanie
Możesz wpisać „białe wiktoriańskie skarpetki w kwiaty”, ale możesz nie znaleźć dokładnego wzoru, którego szukasz. Łącząc obrazy i tekst w jedno zapytanie, ułatwiamy wyszukiwanie wizualne i wyrażanie pytań w bardziej naturalny sposób.
To tylko jeden przypadek użycia tej niesamowitej nowej technologii. Kolejną imponującą rzeczą, jaką możesz zrobić, jest wskazanie czegoś takiego jak łańcuch rowerowy lub coś innego, co może być zerwane i dodanie pytania typu „jak to naprawić?”. Google zrozumie obiekt na obrazie i zastosuje te dane do wyszukiwania tekstowego wraz z Twoim pytaniem.
Zamiast zwracać tylko więcej zdjęć łańcuchów rowerowych, zrobi „Jak to zrobić naprawić łańcuch rowerowy?” w tle. Pamiętaj, że nie wymaga to niczego poza zrobieniem zdjęcia przedmiotowego przedmiotu, nawet jeśli nie wiesz, co to jest, i zadaj pytanie – tak jak w prawdziwym życiu!
Reklamy
Wskaż, strzelaj i pytaj!
Ponadto MUM stanie się dużą częścią tego, jak Google wyświetla wyniki wyszukiwania. Aby uczynić je bardziej naturalnymi i intuicyjnymi, z wyprzedzeniem pojawią się nowe tematy, takie jak „Co warto wiedzieć” lub cokolwiek, czego ludzie często szukają w połączeniu z Twoim zapytaniem, aby umożliwić dalsze wyszukiwanie. Załóżmy, że wyszukujesz hasło „Malarstwo akrylowe” — ponad 350 tematów, w tym samouczki dotyczące malowania krok po kroku, porady i wskazówki dotyczące malowania z dziećmi, techniki, kursy online, usuwanie farby i inne, zostaną inteligentnie zapełnione w polu „Zawęź to wyszukiwanie”.’za pomocą chipów wyszukiwania!
Będziesz również mógł „Poszerzyć to wyszukiwanie”. Google dodaje tę następną część, aby pomóc Ci rozgałęziać się od zapytania zamiast go szlifować. Załóżmy, że trzymamy się powyższego przykładu „farby akrylowej”. Kiedy to się pojawi, będziesz mógł odkrywać obrazy, które używają tego stylu, słynnych malarzy, którzy używali akrylu i nie tylko! Panel Graf wiedzy już to robi, ale nie w takim stopniu.
Doprecyzuj lub rozszerz wyszukiwanie dzięki MUM
Na koniec, w ciągu najbliższych kilku tygodni MUM będzie bezpośrednio odpowiedzialna za identyfikowanie elementów w filmach podczas wyszukiwania — nawet jeśli te tematy nie są wyraźnie wymienione w filmie. W podobny sposób, w jaki YouTube wyświetla rozdziały wideo, MUM wyodrębni elementy z filmu na podstawie jego dźwięku i obrazu i wyświetli je jako znaczniki czasu, między którymi możesz przeskakiwać.
Reklamy
MUM rozdziały wideo
Prawdopodobnie możesz zacząć dostrzegać, jak przydatne i niesamowite jest to teraz, prawda? Otwiera zupełnie nowy poziom zrozumienia w silniku i usuwa barierę językową między ludźmi a sztuczną inteligencją. Google uczy się mówić w Twoim języku – nie na odwrót. Nie mogę się doczekać, aby zobaczyć, co dalej.
Firma stwierdziła, że to tylko „drapanie powierzchni” tym, co jest możliwe. W październiku ubiegłego roku Lens zaczął oferować porady dotyczące stylizacji każdego ubrania, które robisz zdjęcie – rzeczy naprawdę ewoluują! Daj mi znać swoje przemyślenia na ten temat w komentarzach poniżej. Inne ogłoszenia z Search On 21 omówimy jeszcze dzisiaj.