junio 3, 2025

Meta Ray Ban Wayfarer: gafas inteligentes con el asistente de IA de Meta

En Adealóxica nos hemos hecho con un par de las Meta Ray Ban Wayfarer, para trastear y analizar un poco las posibilidades reales de este tipo de tecnología actualmente.

Se trata de unas gafas inteligentes, de Ray Ban, con una cámara, dos altavoces en los laterales y 5 micrófonos integrados  en las patillas. En nuestro caso es un modelo de Wayfarer de gafas de sol, aunque se pueden comprar con lentes graduadas, e incluso la opción de lentes que cambian con presionar un botón, en el caso del modelo Meta Skyler.

Cómo funcionan las gafas de Meta

Es necesario descargar la aplicación Meta AI –y conectarse por Bluetooth– para usar todas las funciones. Aunque para hacer fotos y vídeos funcionan por sí solas, se necesita la app para poder importar el contenido. No es necesario tener una cuenta de Meta como tal, pero hay que usar algún correo electrónico para darse de alta, de manera que cada par de gafas queda registrado a una sola cuenta.

Las mismas gafas no pueden vincularse a distintas cuentas, pero se puede descargar la aplicación en varios dispositivos con las mismas credenciales. La galería de imágenes y vídeos es independiente en cada dispositivo. Ahora bien, el historial de los prompts es compartido entre todos, y cómo veremos más adelante, en este se guardan capturas cada vez que se da la orden de “mira” o “qué estoy viendo”.

Las gafas están pensadas para usarse mediante el habla, al decir “Hey Meta” u “Ok Meta” se pueden dar distintas órdenes, pero también cuentan con un botón para las fotografías y vídeos y sensores en los laterales para que active el micrófono. 

Por defecto el sistema está en inglés, por lo que a través de la aplicación hay que navegar hasta la configuración para descargar el paquete de español de España. 

En castellano hay menos opciones de voces –aguda, media o baja– y cada una parece tener un acento distinto. En nuestro caso estamos usando la voz aguda, femenina y con acento gallego un tanto exagerado, sólo queremos dejar claro que los gallegos no hablamos así.

Qué funciones concretas tiene (y cuáles no)

No se puede decir que sean unas gafas de realidad aumentada per se, más bien una pieza de hardware que facilita el uso “manos libres” del software con IA de Meta. El asistente de la empresa estadounidense se basa en Llama 2, similar a ChatGPT, aunque en este caso está capado, por razones técnicas y de experiencia de usuario.

Fotos y vídeo

Con un simple comando de voz, o pulsando el botón superior de la patilla derecha, las gafas pueden realizar fotos y vídeos. Los 12 megapíxeles son más que bienvenidos y dan resultados sorprendentes para un sensor tan pequeño, que cabe en la patilla de unas gafas, bastante ligeras en general.

Aunque parezca que hay dos cámaras, lo cierto es que sólo la de la izquierda es real. La del otro lado no es más que una luz que se activa cuando se acciona la cámara, se ven iguales sólo por pura estética. Esto es algo a tener en cuenta para entender que los vídeos e imágenes que se capturan varían con respecto a la perspectiva del usuario, siempre estarán un poco más a la izquierda que nuestros ojos. 

Sin embargo sigue dando resultados muy buenos, dado el amplio campo de visión y la alta resolución con la que captura, con distorsión de la imagen en los bordes. Las fotografías son de 3024 x 4032 píxeles; los vídeos, en nuestro caso, han sido desde 1376 x 1824 hasta 1552 x 2064 píxeles. En los vídeos el sistema de estabilización de la imagen hace que baje la resolución si hay mucho movimiento, así elimina los píxeles más periféricos y borrosos. Eso sí, los vídeos son de máximo 3 minutos.

En cuanto al almacenamiento, todo el contenido debe importarse de las gafas al teléfono a través de la aplicación, pero no siempre funciona bien. Hemos experimentado casos en los que varios vídeos no llegaron a importarse y luego desaparecieron, así que es algo a tener en cuenta.

Meta AI

Reproducir música

En este respecto se puede interactuar como uno esperaría, el asistente de IA puede reproducir, pausar, saltar a la siguiente canción o bajar y subir el volumen, todo mediante comandos de voz. Esto sirve con cualquier contenido multimedia que se reproduzca en el smartphone, independientemente de la aplicación. 

Aún así la app de Meta permite vincularse con otras, entre ellas Amazon Music y Spotify. Si bien esto es de manera limitada, es decir, que no se puede pedir que reproduzca una lista o canción específica, sólo reproduce temas en base al historial de escuchas del usuario. Desde Meta ponen énfasis en que no recogen los datos de estas aplicaciones vinculadas.

En cuanto a la calidad del audio podemos decir que es similar a la de las imágenes. Los altavoces laterales a pesar de ser pequeños dan un sonido nítido y claro. Además el diseño está pensado para ser poco intrusivo, los oídos no se obstruyen de ninguna manera, lo que permite tener más atención sobre lo que pasa alrededor. En el caso de subir el volumen al máximo es cierto que otras personas cerca pueden escuchar, aunque por lo general no es un sonido muy perceptible.

Llamadas, mensajes y redes sociales

Como con los reproductores multimedia, las Wayfarer permiten vincular distintos servicios de mensajería y llamadas, desde los propios del dispositivo hasta las redes sociales de Meta (WhatsApp, Messenger, Facebook e Instagram). 

Es bastante intuitivo para las llamadas, aunque cabe destacar que toma los nombres de nuestra lista de contactos, o los de la cuenta de la red social. En otras palabras, nos hemos encontrado con el asistente teniendo que preguntarnos si queremos llamar a “Mama” o “Manu”, por lo que la pronunciación y la lista de contactos influyen en la utilidad de esta función.

En cuanto a las utilidades para el contenido de redes, posiblemente sea una de las mayores fortalezas. Es simple y directo, los vídeos e imágenes son de calidad y está ideado para el formato vertical, además permite con facilidad empezar a retransmitir en directo. En el caso del streaming todo depende de la calidad de la conexión para tener una experiencia fluida.

Descripciones de IA

Otra de las funciones más llamativas es la de la visión con IA. Al pedir al asistente que mire o que describa algo este hará una foto (que no se importa a la galería del móvil) y analizará lo que hay en la imagen. Es importante tener en cuenta esto, se activa la cámara para capturar la imagen por lo que lo más recomendable es no moverse. 

En cuanto a la calidad de estas descripciones es evidente que la IA de Meta (basada en Llama 2) está limitada, por lo que las descripciones y respuestas son concisas y directas. Así se economizan los recursos para garantizar una respuesta rápida y una experiencia más cómoda. Esto tiene sentido para un sistema en el que la prioridad del usuario no es la información extensa, sino las consultas sencillas y directas.

Descripción de un perro por las gafas de Meta Ray Ban

Hay que tener en cuenta que la información que ofrece se basa en lo que conoce de internet, es decir, tiene acceso a la información general de la web, pero no puede interactuar con ningún sitio web en específico.

A menudo el asistente preguntará por un poco más de contexto, suele pedir permiso para activar la cámara si no se le ha ordenado explícitamente. Aunque a veces es confuso, por ejemplo, al decirle “Lee este texto” directamente respondió que aún no podía hacer eso (aludiendo a posibles mejoras en el futuro), pero básicamente había que especificar con un “Mira y lee este texto”.

Así que la capacidad para dictar un texto en voz alta está ahí, solo que no es en tiempo real, sino que hace una captura como cualquier consulta de “mirar”. En general lee bien, aunque es un poco impreciso cuando el texto es amplio y se le pide leer un párrafo concreto.

Traducción en tiempo real

En cuánto a las traducciones es necesario especificar que las Wayfarer actualmente sólo traducen textos a partir de una imagen estática. Pero en cuanto al audio, pueden traducir en tiempo real, eso sí, dependiendo de la aplicación en todo el proceso.

Para traducir en tiempo real es obligatorio usar la app en paralelo, pulsando la opción de “Translate” en la pantalla de inicio. Ahí hay que escoger distintas opciones, el idioma que habla la persona de delante y el idioma del usuario, para lo que tiene que descargar unos paquetes específicos. Pasados unos segundos sólo hay que iniciar y dejar que la persona hable.

A medida que escucha a la otra persona va transcribiendo lo que dice y luego traduciendo, así que va con cierto retraso, pero es funcional. Por lo que hemos podido ver la traducción entre inglés y español, y viceversa, es buena; pero otros idiomas –francés e italiano– sólo funcionan bien con el inglés. Aunque viendo que las transcripciones son correctas, es posible que esto sea un problema solucionable en el futuro con actualizaciones.

A este respecto hay que entender el diseño de los micrófonos, que priorizan la voz del usuario, pero también deben poder escuchar a otra persona delante. En muchas reseñas hechas por angloparlantes se puede ver como alaban la calidad de recepción del audio. Por nuestra parte como hispanohablantes no podemos decir lo mismo, especialmente cuando estamos entre un grupo de personas hablando el volumen de la conversación interfiere bastante.

Indicaciones para llegar a una ubicación

La aplicación pide múltiples permisos al iniciarse por primera vez, y el de la ubicación (con permiso siempre) es una obligación si queremos que el asistente nos dé indicaciones para ir a cualquier parte. No hace falta vincular una aplicación concreta de mapas.

Lo curioso es cómo la ubicación también es de mucha ayuda para el contexto de las consultas con IA. Por ejemplo, una imagen de un monumento concreto recibe una descripción genérica por defecto, pero gracias a la ubicación el asistente puede inferir qué monumento estamos viendo concretamente.

El futuro de esta tecnología

Este año puede que sea el de las nuevas apuestas para avanzar en estas tecnologías. Un añadido al smartphone discreto, pero con potencial e innovaciones que hasta hace unos años aún eran irreales. 

Ya vimos el pasado 2024 cómo Apple irrumpía con sus Vision Pro, y ahora más recientemente Google ya ha dado a probar a las sucesoras de las Google Glass, impulsadas con Gemini, su modelo de IA. Por supuesto los grandes modelos de lenguaje y asistentes como agentes (que puedan interactuar con aplicaciones como una persona) son el elemento clave para la popularización de este tipo de hardware.

Por ahora se están dando los primeros pasos, con casos como las Meta Ray Ban hay que entender que aún hay ciertos límites. Ofrecen una amplia gama de funcionalidades innovadoras y útiles, pero aún queda mucho por explorar en cuanto a la manera en que la realidad aumentada o virtual afectará a nuestra relación con la tecnología en el día a día.

Compártelo:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *

Publicar comentario