La Inteligencia Visual de Apple para el iPhone 16 explica lo que ves

Fiabilidad

Puntos clave

  • Apple ha revelado que la «Inteligencia Visual» llegará al iPhone 16 a finales de este año.
  • Es la respuesta de Apple a Google Lens y puede proporcionar detalles sobre lo que ves.
    Funciona con aplicaciones de terceros y llegará a finales de año.
  • La Inteligencia Visual de Apple llegará al iPhone 16 y 16 Pro a finales de año.

Es la versión de Apple de Google Lens y permite a los usuarios apuntar con la cámara del iPhone 16 a casi cualquier cosa y recibir información. El nuevo botón táctil del lado derecho del dispositivo, Control de Cámara, se utiliza para activar la función.

Por ejemplo, puedes apuntarlo a un restaurante para recibir el horario de apertura y el menú, a un coche para identificar la marca y el modelo, o a un perro para saber de qué raza es. Puedes apuntar a un folleto para añadir los detalles del evento a tu calendario. O señala y pulsa una bicicleta para buscarla y comprarla en línea.

Incluso puedes utilizarlo para obtener ayuda con los deberes a través de ChatGPT. La Inteligencia Visual también funcionará con aplicaciones de terceros.

 

Apple dice que la Inteligencia Visual es privada, por lo que la empresa no sabe lo que has pulsado.

La función no estará disponible hasta finales de este año. Sin embargo, promete mejorar significativamente la funcionalidad de IA integrada del iPhone 16 y modelos posteriores: no necesitarás la aplicación de Google u otro software de terceros para identificar lo que tienes delante.

Temas relacionados

Artículos relacionados

Pavel Khrulev
Solutions Architect
Pavel Khrulev
Solutions Architect

Pavel Khrulev is a solutions architect at DataArt specializing in cloud architecture. Has about 13 years of experience in IT. Khrulev began at DataArt as a developer but fell in love with architecture and cloud and became a solutions architect. He has both GCP Data Engineer and AWS Solutions Architect certificates.