Google od dłuższego czasu stawia swoje cele na zwiększenie użyteczności oraz komfortu używania wyszukiwarki, dlatego rozwija technologię multiwyszukiwania, która to umożliwia. W dniu dzisiejszym odbyło się wydarzenie o nazwie “Search outside the box”, na którym zaprezentowano nowości i rozwiązania technologiczne czekające na nas w przyszłości od Google, a także postęp sztucznej inteligencji, która prężnie wspomaga algorytmy wyszukiwania.
Jedną z kluczowych, nowych funkcjonalności jest możliwość wyszukiwania informacji przy pomocy obrazu i tekstu w tym samym czasie. To rozwiązanie znajdzie swoje zastosowanie, gdy chcemy znaleźć coś czego nie pamiętamy nazwy. Obecnie funkcja jest dostępna tylko po angielsku, lecz Google planuje dodać w kolejnych miesiącach ponad 70 języków.
W analogiczny sposób działać będzie multiwyszukiwanie "w mojej okolicy", przy pomocy którego będziemy mogli zrobić zdjęcie produktowi i dowiedzieć się gdzie możemy go znaleźć w pobliżu naszej lokalizacji. Obecnie funkcjonalność działa tylko w Stanach Zjednoczonych przy pomocy użycia wyrażenia "near me".
Dzięki nowej aktualizacji tłumaczenia AR Lens będziesz mógł jeszcze bardziej skutecznie przełamywać swoje bariery językowe. Wraz z rozwojem sztucznej inteligencji w AR Lens postawiono na tłumaczenie obrazów, zamiast tekstów. Już ponad miliard razy w miesiącu ludzie używają Google do tłumaczenia tekstu na obrazach na ponad 100 języków - dzięki czemu można w czasie rzeczywistym czytać witryny sklepowe, ulotki, menu i nie tylko.
Dzięki technologii uczenia maszynowego o nazwie Generative Adversarial Networks (GAN) udało się połączyć przetłumaczony tekst z obrazem tła. Jeśli więc na przykład skierujesz aparat na menu restauracji w innym języku, zobaczysz teraz realistycznie przetłumaczony tekst nałożony na zdjęcia w tle.
Immersyjny widok przy pomocy modelowania predykcyjnego automatycznie uczy się trendów historycznych dla danego miejsca, aby określić, jak będzie wyglądała lokalizacja jutro, w przyszłym tygodniu, a nawet w przyszłym miesiącu. Więc jeśli chcesz odwiedzić restauracje w Los Angeles, będziesz mógł mieć wszystkie potrzebne Ci informacje takie jak: gdzie znajdują się parkingi, wejścia oraz czy w danym dniu będzie chłodno, więc możesz zabrać ze sobą kurtkę. Dodatkowo będziesz miał możliwość zejścia na poziom ulicy, zajrzenia do środka restauracji i sprawdzenia, jak duży będzie ruch o interesującej Cię porze dnia. Funkcjonalność ta pojawi się w nadchodzących miesiącach póki co tylko w następujących miastach: Nowy Jork, San Francisco, Los Angeles, Londyn i Tokio, zarówno na Androidzie i systemie iOS.
Nowe filtry zakupów w wyszukiwarce są od teraz w pełni dynamiczne i dostosowują się w oparciu o trendy wyszukiwania w czasie rzeczywistym. Jeśli więc na czasie będą spodnie typu bojówki to będziesz mógł taki filtr zobaczyć w swojej wyszukiwarce. Obecnie filtry dynamiczne są obecnie dostępne w Stanach Zjednoczonych, Indiach i Japonii. Dzięki nowym funkcjom zakupy w Google stają się o wiele łatwiejsze, bardziej intuicyjne, a take wygodniejsze.