Auf dem Search On 22-Turnier in diesem Moment kündigte Google eine Auflösung der neuesten Komponenten in einer unbestimmten Zeit in der Zukunft von Google Search, Google News, Google Wanting und Vergangenheit an. Lassen Sie uns über eine der kritischsten Komponenten kämpfen, über die Google in diesem Moment gesprochen hat.
Eines zu verbergen: Nicht mehr wie die Search On-Events, die wir in der Vergangenheit hatten, schien es, als ob dieses Turnier zentrierter war über möglicherweise kleinere Komponenten im Vergleich zu Google, das einen großen Durchbruch bei der Suche verkündet. Äquivalent zu den früheren Ankündigungen mit BERT, MUM und völlig anderen KI-im Wesentlichen basierenden, größtenteils vollständig verbesserten Fortschritten in der Google-Suche.
1. Multisearch expandiert
Google weitet Multisearch in den Ankunftsmonaten auf 70 neue Sprachen aus. Google startete Multisearch in den letzten 300 und 65 Tagen für Englisch und US-basierende Suchanfragen.
Was ist Google Multisearch.
Google Multisearch ermöglicht es Ihnen, das Handy Ihrer Kamera zu verwenden, um nach einer Aufzeichnung zu suchen, die von Google Lens unterstützt wird, und dann eine weitere Textnachricht über die Bildsuche hinzuzufügen. Google verwendet dann sowohl das Bild als auch den Text, um die für Sie sichtbaren Suchergebnisse zu verbergen.
So funktioniert die Google-Mehrfachsuche. Öffnen Sie die Google-App auf Android oder iOS, klicken Sie auf das Google Lens-Digicam-Symbol auf der hübschen Seite des Suchfelds. Dann richten Sie die Kamera auf etwas in der Nähe oder verwenden Sie eine Aufnahme in Ihrer Kamera und machen Sie sogar eine Aufnahme von einer Sache in Ihrem Versteck. Dann wischen Sie auf jeden Fall auf den Ergebnissen nach oben, um sie aufzurufen, und tippen Sie auf die Schaltfläche „+ Zu Ihrer Suche hinzufügen“. In diesem Feld können Sie Textanweisungen zu Ihrer Anfrage hinzufügen.
Dass Sie hier mehr über diese Option erfahren können.
2. Multisearch endet für mich bald
Nach 300 und 65 Tagen endet Google Multisearch für mich bei Google I/O. Intelligenterweise wird Google diese Funktion in den englischen und US-amerikanischen Suchergebnissen in den Ankunftsmonaten einführen. Google sagte technisch, dass dies voraussichtlich im Spätherbst 2022 möglich sein wird.
Was für mich Multisearch ist Mit der Funktion zum Beenden von mir können Sie diese Bild- und Textanfragen vergrößern, indem Sie Produkte oder etwas anderes mit Ihrer Kamera kaufen, aber auch native Ergebnisse retten. Wenn Sie es also bewundern, ein Restaurant mit einem Zuggericht retten zu wollen, könnten Sie es erfinden.
3. Google Lens übersetzte Textanweisungen jetzt sauberer
Google Lens macht so viel Spaß und ermöglicht es Ihnen, Ihre Kamera in nahezu jeder Umgebung auf Textanweisungen zu richten, um diese Textanweisungen zu übersetzen. Jetzt wird Google Lens beweisen, dass übersetzte Textanweisungen in einer saubereren und gemischteren Form vorliegen. Here’s launch später in diesen 300 und 65 Tagen.
Google nutzt Generative Adversarial Networks, auch GAN-Gadgets genannt, um die übersetzten Textanweisungen besser zu beweisen. Die identische Technologie, die Google in den Pixel-Gadgets wie die „Magix Eraser“-Funktion für Bilder verwendet, ist weit entfernt.
Hier ist ein Beispiel, das zeigt, wie Google Lens die Interpretation auf viel weniger komplizierte Weise abdeckt Ansatz für Suchende zu verstehen: