Três anos após o conceito ter sido apresentado ao público pela divisão de Projectos e Tecnologia Avançados (ATAP) da Google, o Project Soli foi aprovado pelo regulador norte-americano, a Comissão Federal de Comunicações (FCC), para operar com um frequência entre os 57 e os 64 GHz. O projecto vai finalmente sair do papel.
Em traços gerais, o Soli consiste num radar do tamanho de um chip que torna responsivos aos gestos da tua mão dispositivos como smartphones e wearables mas também computadores, carros e muitos outros equipamentos ligados à rede pela chamada Internet das Coisas.

Isto quer dizer que, um dia, poderás aumentar o volume da música no teu leitor de multimédia ou navegar pelo ecrã do teu telemóvel sem lhe tocar, mas essa deverá ser só a primeira fase – segundo a tecnológica norte-americana – de um “futuro onde a mão humana se torna um dispositivo de input universal para interagir com a tecnologia”.
Como, perguntas tu?
Para Ivan Poupyrev, líder do projecto, é uma pergunta relativamente simples que está na base do desenvolvimento do Soli: “Como podemos pegar nesta incrível capacidade, na delicadeza das acções humanas e na subtileza com que usamos as nossas mãos, mas aplicá-la ao mundo virtual?”
Daí à utilização do espectro de frequência rádio em que consiste o radar (que emite ondas contra um objecto e faz a leitura das ondas reflectidas de volta) para monitorizar micro-movimentos da mão e utilizar esses movimentos para interagir com os mais diversos dispositivos foi um pequeno passo.

Esses micro-movimentos, contudo, não serão aleatórios. A equipa tem vindo a desenvolver um conjunto limitado destes, chamado Gestos Ferramenta Virtuais (ou Virtual Tool Gestures), que permitem ao radar ler as intenções do utilizador e facilitar uma utilização generalizada, simulando gestos já conhecidos na operação de ferramentas reais. Exemplos destes são o acto de pressionar o indicador contra o polegar simulando o apertar de um botão imaginário ou deslizar do polegar sobre o indicador como se o indicador fosse o ecrã-táctil de um dispositivo.
São gestos como estes que vão permitir ao radar interpretar o sinal com dados como a energia, o intervalo de tempo e as alterações na frequência, dando ao dispositivo informações como o tamanho, a forma, a orientação, a distância e a velocidade a que a resposta deve ser dada ao utilizador do próprio dispositivo.
Esta tecnologia permite um grande avanço relativamente uma câmara, por exemplo, desde a capacidade de fazer leituras de gestos com uma precisão que vai dos 100 aos 10 mil frames por segundo até à capacidade de fazer essa leitura através de materiais atrás dos quais esteja incorporado.
Para Poupyrev, o mais excitante desta nova tecnologia é o facto de o radar poder ser encolhido à escala de um pequeno chip. “Não há nada que se parta, não há partes móveis, não há lentes, não há nada. Apenas um pedaço de areia na placa [do dispositivo].”
Texto de Nuno Ramalho
You must be logged in to post a comment.