Início Tecnologia AI em óculos inteligentes está perdendo o foco

AI em óculos inteligentes está perdendo o foco

15
0

Eu usei muito o Ray-Ban Meta Gen 1 e Gen 2 nos últimos anos. Uma das minhas coisas favoritas é o áudio de ouvido aberto, que muda o jogo para chamadas em viva-voz e para ouvir música enquanto você anda de bicicleta. E você sabe o que? As câmeras também estão bem, se você não estiver procurando por algo de tremendous alta resolução. É uma coisa boa! Na verdade, é o oposto de um dos recursos supostamente manchetes incluídos na descrição do dispositivo pelo Meta – IA.

Infelizmente, a IA titular nos auto-descritos óculos de IA do Meta ainda é a pior parte de usá-los. Por mais útil que eu ache a capacidade de ligar e enviar mensagens com as mãos livres (ou em óculos, navegação e notificações), nada disso se relaciona com a única coisa que Meta parece pensar ser a característica definidora desses dispositivos. Claro, os assistentes de voz usam IA, e eles podem ser incrivelmente úteis (se não críticos) em um par de óculos inteligentes – especialmente aqueles sem tela – mas ainda há muitos erros nisso também.

Os assistentes de voz, caso você não os tenha verificado recentemente, são quase os mesmos em termos de utilidade de há 10 anos, ou seja, moderadamente úteis. Google Assistant, Alexa e Siri têm lutado muito para melhorar ao longo dos anos e, embora dois desses três atualmente tenham assistentes de voz de última geração, pelo menos semi-disponíveis para o público, já se sabe se eles são realmente mais úteis além de acender e apagar as luzes ou lançar música. Meta AI, o assistente de voz dentro dos óculos inteligentes Ray-Ban da Meta, também não está imune a essas lutas. Às vezes acerta as coisas, outras vezes… nem tanto.

© Raymond Wong/Gizmodo

E a pior parte é que as dificuldades da Meta AI no departamento de assistente de voz são insignificantes em comparação com o lado da visão computacional. Se você não está familiarizado com óculos inteligentes, deixe-me voltar um pouco; no Ray-Ban Meta Gen 1 e 2, você pode usar a câmera dos seus óculos inteligentes para perguntar ao Meta AI sobre o que está ao seu redor. Isso pode ser útil para coisas como tradução ou para pessoas com visão subnormal que precisam de ajuda para ler coisas… se funcionar corretamente. Para todos os outros e para a maioria dos outros cenários, o recurso pode parecer um pouco óbvio.

Quando estou testando o Meta AI e suas habilidades de visão computacional, muitas vezes tenho dificuldade em encontrar coisas para usar nele. Às vezes olho para um objeto e pergunto: “Ei, Meta… o que é isso?…” Ah, é uma scooter, graças a Deus! Você me salvou, Meta. Indiscutivelmente pior é quando você realmente pensa em usar Meta AI e ele não dá conta do recado, como naquela vez em que ele me disse que cada concha que peguei na praia period um dente de tubarão.

Estou destacando o Meta aqui (em minha defesa, eles colocaram IA no nome dos óculos inteligentes), mas eles não estão sozinhos na ênfase na IA. Os protótipos de futuros óculos inteligentes exibidos pelo Google também se baseiam fortemente na visão computacional e até sugerem um mundo onde a câmera deles fica ligada literalmente o tempo todo, observando tudo o que você faz. Isso parece o pior futuro possível dos óculos inteligentes do ponto de vista da privacidade. E com base em Apresentação recente do Magic Leapparece que outras empresas no jogo dos óculos inteligentes não estão muito atrás.

Não estou escrevendo tudo isso apenas para criticar a IA. Acho que os óculos inteligentes podem ser úteis, divertidos e talvez até aumentativos, mas vão exigir atenção aos detalhes e focar na direção certa. E claro, talvez a IA possa fazer parte disso, mas ainda não há evidências que sugiram que deveria ser o principal parte, mesmo que as convenções de nomenclatura do Meta sugiram o contrário.

avots