Tra le novità di iOS 26 – presentato in anteprima nell’ambito della WWDC25 (conferenza sviluppatori) -una funzionalità riguarda “Visual Intelligence“, l’intelligenza visiva che su iPhone permette di scoprire rapidamente di più su luoghi e oggetti attorno all’utente (es. cercare dettagli su un ristorante o su un’attività, tradurre, riassumere o leggere un testo, identificare piante e animali e altro ancora).
Visual Intelligence finora funzionava solo tenendo premuto il controllo fotocamera ma ora è in grado di analizzare il contenuto dello schermo; l’utente può fare a ChatGPT domande su quello che sta guardando e la funzione sfrutta Google, Etsy e altri servizi per proporre simili oggetti o altri prodotti che appaiano sullo schermo in quel momento (es. una lampada che ci incuriosice che appare in un sito web, un giubbotto indossato da qualcun in una fotoo, ecc.).
L’utente richiama la scorciatoia che usa normalmente per catturare le schermate, e può salvare lo screenshot, condividerlo o approfondire quello che sta guardando con la Visual Intelligence. Si tratta in pratica di una funzione di ricerca inversa, utile per individuare un’opera d’arte, un oggetto, un capo di abbigliamento e molto altro, sfruttando come partenza una immagine al posto di una query di ricerca testuale.
La Mela riferisce che la funzione in questione sfrutta Apple Intelligence e funziona “on device” (direttamente sul dispositivo), con vantaggi in termini di privacy e offrendo allo stesso tempo assistenza contestuale tenendo conto di app dedicate.