Puntos clave
- Apple ha revelado que la «Inteligencia Visual» llegará al iPhone 16 a finales de este año.
- Es la respuesta de Apple a Google Lens y puede proporcionar detalles sobre lo que ves.
Funciona con aplicaciones de terceros y llegará a finales de año. - La Inteligencia Visual de Apple llegará al iPhone 16 y 16 Pro a finales de año.
Es la versión de Apple de Google Lens y permite a los usuarios apuntar con la cámara del iPhone 16 a casi cualquier cosa y recibir información. El nuevo botón táctil del lado derecho del dispositivo, Control de Cámara, se utiliza para activar la función.
Visual Intelligence kinda sold me. I'd use it all the time. pic.twitter.com/MsuJ9eqbLZ
— Jared Davidson (@Archetapp) September 9, 2024
Por ejemplo, puedes apuntarlo a un restaurante para recibir el horario de apertura y el menú, a un coche para identificar la marca y el modelo, o a un perro para saber de qué raza es. Puedes apuntar a un folleto para añadir los detalles del evento a tu calendario. O señala y pulsa una bicicleta para buscarla y comprarla en línea.
Incluso puedes utilizarlo para obtener ayuda con los deberes a través de ChatGPT. La Inteligencia Visual también funcionará con aplicaciones de terceros.
Apple’s new visual intelligence feature on the iPhone 16 pic.twitter.com/9tMyZWJCrC
— highsnobiety (@highsnobiety) September 9, 2024
Apple dice que la Inteligencia Visual es privada, por lo que la empresa no sabe lo que has pulsado.
La función no estará disponible hasta finales de este año. Sin embargo, promete mejorar significativamente la funcionalidad de IA integrada del iPhone 16 y modelos posteriores: no necesitarás la aplicación de Google u otro software de terceros para identificar lo que tienes delante.