Las gafas inteligentes Ray-Ban de Meta utilizan inteligencia artificial para ver, oír y hablar. ¿Cómo son?

En una señal de que la industria tecnológica continúa volviéndose cada vez más extraña, Meta pronto planea lanzar una gran actualización que transformará las Ray-Ban Meta, sus gafas para cámara de video, en un dispositivo que solo se ve en películas de ciencia ficción.

El mes que viene, las gafas podrán utilizar un nuevo software de inteligencia artificial para ver el mundo real y describir lo que estás mirando, similar al asistente de inteligencia artificial de la película «Her».

Las gafas, disponibles en varios marcos a partir de 300 dólares y lentes a partir de 17 dólares, se utilizaban principalmente para tomar fotografías, vídeos y escuchar música. Pero con el nuevo software de IA, se pueden utilizar para escanear lugares famosos, traducir idiomas e identificar razas de animales y frutas exóticas, entre otras tareas.

Para utilizar el software de IA, el usuario simplemente dice «Hola, Meta», seguido de un mensaje como «Mira y dime qué clase de perro es este». Luego, la IA responde con una voz generada por computadora que se reproduce a través de los pequeños parlantes de las gafas.

El concepto de software de inteligencia artificial es tan nuevo y extraño que cuando nosotros (Brian, un programa de cocina) nos enteramos de él, no podíamos esperar para probarlo. Meta nos dio acceso temprano a la actualización y hemos estado probando la tecnología durante las últimas semanas.

Llevamos las gafas al zoológico, a las tiendas de comestibles y al museo mientras interrogamos a la IA con preguntas y solicitudes.

El resultado: nos entretuvieron simultáneamente los errores del asistente virtual (por ejemplo, confundir un mono con una jirafa) y nos impresionaron cuando realizó tareas útiles como determinar que un paquete de galletas no contenía gluten.

Un portavoz de Meta dijo que debido a que la tecnología aún es nueva, la IA no siempre haría las cosas bien y que la retroalimentación mejoraría las gafas con el tiempo.

El software de Meta también creó transcripciones de nuestras preguntas y las respuestas de la IA, que capturamos en capturas de pantalla. Aquí están los aspectos más destacados de nuestro mes de convivencia con el asistente de Meta.

BRIAN: Naturalmente, lo primero que tuve que probar la IA de Meta fue mi corgi, Max. Miré al perrito gordito y le pregunté: «Oye, Meta, ¿qué estoy mirando?».

«Un lindo perro Corgi sentado en el suelo con la lengua fuera», dijo el asistente. Así es, especialmente la parte de ser lindo.

MIGUEL: La IA de Meta reconoció correctamente a mi perro, Bruna, como un «perro de montaña de Berna negro y fuego». Casi esperaba que el software de inteligencia artificial pensara que era un oso, el animal con el que los vecinos la confunden constantemente.

BRIAN: Después de que la IA identificó correctamente a mi perro, el siguiente paso lógico fue probarlo en animales del zoológico. Recientemente visité el Zoológico de Oakland en California, donde, durante dos horas, observé una docena de animales, entre ellos loros, tortugas, monos y cebras. Le dije: «Oye Meta, mira y dime qué tipo de animal es».

La IA se equivocó la gran mayoría de las veces, en parte porque muchos animales estaban enjaulados y más lejos. Confundió un primate con una jirafa, un pato con una tortuga y una suricata con un panda gigante, entre otros errores. Por otro lado, quedé impresionado cuando la IA identificó correctamente una raza específica de loros conocida como guacamayos azules y dorados, además de cebras.

La parte más extraña de este experimento fue hablar con un asistente de IA sobre los niños y sus padres. Fingieron no escuchar al único adulto solitario en el parque mientras yo aparentemente murmuraba para mí mismo.

MIGUEL: También me divertí haciendo las compras. Estar dentro de un Safeway y hablar solo era un poco incómodo, así que traté de mantener la voz baja. Todavía recibo algunas miradas de reojo.

Cuando la IA de Meta funcionó, fue fascinante. Cogí un paquete de Oreos de aspecto extraño y le pedí que mirara el paquete y me dijera si no contenían gluten. (No lo eran). Respondió preguntas como estas correctamente aproximadamente la mitad de las veces, aunque no puedo decir que le haya ahorrado tiempo al leer la etiqueta.

Pero la razón principal por la que usé estos vasos fue para comenzar mi propio programa de cocina en Instagram, una forma halagadora de decir que me grabo preparando comida para la semana mientras hablo conmigo mismo. Estas gafas han hecho que todo sea mucho más fácil que utilizar un teléfono y una mano.

El asistente de IA también puede ofrecer ayuda en la cocina. Si necesito saber cuántas cucharaditas hay en una cuchara y tengo las manos cubiertas de aceite de oliva, por ejemplo, se lo puedo preguntar. (Hay tres cucharaditas en una cucharada, solo para su información).

Pero cuando le pedí a la IA que mirara un puñado de ingredientes que tenía y creara una receta, me dio instrucciones rápidas para una natilla de huevo, lo que no es exactamente útil para seguir las instrucciones a mi propio ritmo.

Un puñado de ejemplos para elegir podrían haber sido más útiles, pero eso podría requerir cambios en la interfaz de usuario y tal vez incluso una pantalla dentro de mis objetivos.

Un portavoz de Meta dijo que los usuarios podrían hacer preguntas de seguimiento para obtener respuestas más precisas y útiles de su asistente.

BRIAN: Fui al supermercado y compré la fruta más exótica que pude encontrar: una chirimoya, una fruta verde y escamosa que parece un huevo de dinosaurio. Cuando le di a la IA de Meta múltiples oportunidades para identificarlo, cada vez hizo una suposición diferente: una nuez cubierta de chocolate, una fruta con hueso, una manzana y, finalmente, un durian, que estaba cerca, pero ningún plátano.

MIGUEL: La capacidad del nuevo software para reconocer puntos de referencia y monumentos pareció funcionar. Mirando hacia una cuadra en el centro de San Francisco hacia una cúpula imponente, la IA de Meta respondió correctamente: «Ayuntamiento». Es un truco interesante y quizás útil si eres un turista.

Otras veces fueron al azar. De camino a casa desde la ciudad a mi casa en Oakland, le pregunté a Meta en qué puente estaba mientras miraba por la ventana frente a mí (con ambas manos en el volante, por supuesto). La primera respuesta fue el puente Golden Gate, que estaba equivocada. En el segundo intento, me di cuenta de que estaba en el Puente de la Bahía, lo que me llevó a preguntarme si necesitaba una toma más clara de los altos postes de suspensión blancos en el nuevo lado para hacerlo bien.

BRIAN: Visité el Museo de Arte Moderno de San Francisco para ver si la IA de Meta podía hacer el trabajo de guía turístico. Despues de tomar fotografias de unas dos docenas de pinturas y pedirle al asistente que me contara sobre la obra de arte que estaba mirando, la IA pudo describir las imagenes y el medio utilizado para componer la obra de arte, lo cual seria bueno para un estudiante de historia del arte. – pero no se pudo identificar el artista ni el título. (Un portavoz de Meta dijo que otra actualización de software lanzada después de mi visita al museo mejoró esta capacidad).

Después de la actualización, intenté mirar imágenes en la pantalla de mi computadora de obras de arte más famosas, incluida la Mona Lisa, y la IA las identificó correctamente.

BRIAN: En un restaurante chino, señalé un elemento del menú escrito en chino y le pedí a Meta que lo tradujera al inglés, pero la IA dijo que actualmente solo admite inglés, español, italiano, francés y alemán. (Me sorprendió porque Mark Zuckerberg aprendió mandarín).

MIGUEL: Hizo un gran trabajo traduciendo el título de un libro del inglés al alemán.

Las gafas impulsadas por IA de Meta ofrecen una visión intrigante de un futuro que parece lejano. Los defectos resaltan las limitaciones y desafíos en el diseño de este tipo de producto. Las gafas probablemente podrían funcionar mejor para identificar animales y frutas del zoológico, por ejemplo, si la cámara tuviera una resolución más alta, pero una lente más bonita agregaría volumen. Y no importaba dónde estuviéramos, era vergonzoso hablar con un asistente virtual en público. No está claro si esto alguna vez se sentirá normal.

Pero cuando funcionó, funcionó bien y nos divertimos, y el hecho de que la IA de Meta pueda hacer cosas como traducir idiomas e identificar puntos de referencia a través de un par de gafas modernas muestra hasta dónde ha llegado la tecnología.