Google hat Lens, Apple hat Visual Intelligence. Die mit dem iPhone 16 eingeführte Funktion, mit der man KI-unterstützt Informationen über die Umgebung abfragen kann, gibt es mit iOS 18.4 nun auch für die iPhones 15 Pro und Pro Max. Damit lassen sich zum Beispiel:
- Fragen zu einem fotografierten Objekt per Chat GPT beantworten.
- Pflanzen oder Tiere erkennen.
- Text erfassen und übersetzen.
- Shopping-Angebote zu einem fotografierten Objekt anzeigen.
Und wie startet man Visual Intelligence? In der Kamera-App auf jeden Fall schon einmal nicht. Vier Möglichkeiten gibt es, hier ist eine Anleitung.
1. Die Aktionstaste für Visual Intelligence nutzen
Ab dem iPhone 15 gibt es statt des Ein-/Ausschalters für den Klingelton an der linken Seite des iPhones die Aktionstaste. Sie kann mit einigen Funktionen belegt werden.
- Das geht in den Einstellungen unter „Aktionstaste“.
- Hier bei den Optionen so lange nach links streichen, bis die gelb hinterlegte Einstellung für Visual Intelligence erscheint.
- Das Menü über die „Einstellungen“-Schaltfläche oben links verlassen. Fertig.
- Nun startet Visual Intelligence nach einem Druck auf die Aktionstaste.
Achtung: Das funktioniert nur bei den iPhones 15 Pro, 15 Pro Max und allen iPhones 16. Das iPhone 15 unterstützt kein Apple Intelligence und damit auch kein Visual Intelligence.
2. Visual Intelligence auf den Sperrbildschirm des iPhones legen
Links Taschenlampe, rechts Kamera. So sieht der Sperrbildschirm bei den meisten iPhones aus. Das lässt sich aber einfach ändern.
- Hierzu lange mit dem Finger auf den Sperrbildschirm tippen und „Anpassen“, dann „Sperrbildschirm“ wählen.
- Nun wählt man eine der Schaltflächen unten rechts oder unten links aus und tippt sie an.
- Im folgenden Menü kann man nun die gewünschte neue Funktion auswählen. Visual Intelligence findet sich in der dritten Rubrik „Apple Intelligence & Siri“.
- Anschließend erscheint die neue Schaltfläche auf dem Sperrbildschirm.
3. Visual Intelligence aus dem Kontrollzentrum starten
- Den einfachsten Weg hat Apple einfach schon selbst gelegt. Mit iOS 18.4 steckt der Startknopf für Visual Intelligence nun im Kontrollzentrum.
- Dazu einfach von der oberen rechten Bildschirmecke nach unten streichen.
- Im folgenden Menü findet sich die Schaltfläche recht weit unten - ein blumenartiges Apple-Intelligence-Symbol umschlossen von vier Winkeln.
- Drücken und fertig.
4. Die Kamerasteuerung für Visual Intelligence nutzen
Am iPhone 16, 16 Plus, 16 Pro und 16 Pro Max gibt es an der rechten Gehäuseseite die Kamerasteuerungstaste. Wer sie etwas länger gedrückt hält, startet Visual Intelligence.
Systemintegration lässt noch Wünsche offen
Während die Funktionalität von Visual Intelligence schon im erwartbaren Rahmen funktioniert, wirkt die Integration ins iPhone noch etwas unfertig. Auch dadurch, dass sich noch keine vorhandenen Bilder im Fotoalbum überprüfen lassen. Sie müssen direkt über die Funktion aufgenommen werden. Weitere Punkte:
- Weder gibt es, wie erwähnt, ein App-Icon, noch lässt sich Visual Intelligence etwa über die Spotlight-Suche finden und starten.
- Und allzu lange Pausen sollte man bei der Nutzung auch nicht einlegen. Wenn der Bildschirm einmal in den Energiesparmodus geht, sind sowohl Foto als auch Suchergebnisse im Anschluss verschwunden.
- Ebenso wenig kann man während der Nutzung von Visual Intelligence zwischen Apps wechseln; Hat man die Funktion einmal verlassen, sind alle erfassten und ausgegebenen Daten weg.
Andernorts ist Visual Intelligence offenbar ein wenig weiter. Wie das Fachportal „heise online“ berichtet, lassen sich damit in den USA etwa Restaurants reservieren oder Bestellungen bei Lieferdiensten aufgeben. Weitere Features könnten folgen.
© dpa-infocom, dpa:250408-930-427078/1