Nach einem langsamen Vormarsch unter Android, kommt Googles AI-basierte visuelle Suche auf iOS. Besitzer von Apple-Geräten sollten in der nächsten Woche eine Vorschau von Google Lens in der neuesten Version ihrer Google Photos App sehen. Falls ihr vergessen haben solltet, wie es funktioniert, dann hier nochmal Die Idee: Ihr benutzt eure Kamera, um Elemente im Bild zuerkennen und mithilfe des Google Assistant weitere Funktionen aufzurufen, bzw. Maßnahmen auszuführen.
Starting today and rolling out over the next week, those of you on iOS can try the preview of Google Lens to quickly take action from a photo or discover more about the world around you. Make sure you have the latest version (3.15) of the app.https://t.co/Ni6MwEh1bu pic.twitter.com/UyIkwAP3i9
— Google Photos (@googlephotos) March 15, 2018
Via: Engadget
Ist die Google Photos-App unter IOS mit einer eigenen Kamera-Funktion ausgestattet ?
Unter Android funktioniert die Lens-Funktion nämlich ein bisschen anders.
Da kann die Lens-Funktion nur solche Bilder analysieren, die bereits vorhanden sind.
Dazu wählt man in der Photos-App in der Einzelbildanzeige ein existierendes Bild
aus und lässt es sich „Fullscreen“ anzeigen….und dann erst erscheint der „Lens“-Button
und das ausgewählte und angezeigte Bild kann analysiert werden.
Aber dass man quasi in Echtzeit und direkt ein Bild von/in der Kamera von Lens
analysieren lassen kann Das würde mich jetzt wundern, wenn das unter IOS so ginge.