Los AirPods Pro 3 de Apple se perfilan como una solución auditiva para la traducción instantánea. Aunque los detalles específicos no han sido revelados, se espera que los audífonos utilicen inteligencia artificial para procesar conversaciones y entregar la traducción directamente en el oído del usuario.

Esta aproximación se centraría en la discreción y la naturalidad de una conversación, permitiendo una interacción sin la necesidad de mirar una pantalla o un dispositivo intermediario. Por otro lado, las Ray-Ban Display de Meta apuestan por una solución visual. Estas gafas inteligentes proyectarían las traducciones en forma de subtítulos directamente en el campo de visión del usuario, similar a la tecnología de realidad aumentada.

Este método podría ser especialmente útil en entornos ruidosos o para personas con dificultades auditivas.

La competencia entre el enfoque auditivo de Apple y el visual de Meta definirá el futuro de las herramientas de comunicación personal, donde la inteligencia artificial se convierte en un traductor personal e invisible. La elección entre ambos dependerá de las preferencias del usuario y del contexto de uso, marcando un nuevo capítulo en la forma en que interactuamos en un mundo globalizado.