Ontem, a Build 2016, a Microsoft mostrou um aplicativo desenvolvido por Saqib Shaikh chamado de “The Seeing AI” (algo como “inteligência artificial-guia”, ou “inteligência artificial que enxerga”), que tem como objetivo ajudar pessoas cegas a navegar pela vida cotidiana.
O aplicativo funciona tanto em smartphones quanto em óculos inteligentes. No caso dos dispositivos vestíveis, com um simples gesto, o aplicativo consegue capturar uma imagem e interpretá-la para o usuário. Por exemplo, se a câmera do óculos captar uma pessoa carregando uma mala, o aparelho descreverá essa cena para o usuário.
Também é possível usar o aplicativo para ler textos. Usando a câmera do celular, o usuário pode tirar uma foto do texto (o aplicativo orienta o usuário sobre como posicionar a câmera). Em seguida, o app é capaz de ler em voz alta o que está escrito na imagem. Com esse recurso, pessoas cegas conseguem ler cardápios, manuais e outros textos, mesmo que eles não estejam em Braille.
Outro recurso do aplicativo se baseia na tecnologia de reconhecimento facial da Microsoft. Com base em uma fotografia tirada na hora, o app consegue informar ao seu usuário o gênero, a idade aproximada e o humor das pessoas que aparecem na imagem. Esse recurso, segundo Shaikh, é útil para que cegos possam avaliar o impacto que sua fala está tendo em seus interlocutores.
Shaikh é um engenheiro de software da Microsoft que perdeu a visão aos sete anos de idade, e diz ter usado as APIs de inteligência da empresa para criar o aplicativo. O vídeo foi mostrado no final da conferência Build da empresa ontem, como ilustração para uma fala na qual o CEO da empresa, Satya Nadella, enfatizava o objetivo da Microsoft de usar a tecnologia para melhorar as maneiras como as pessoas se comunicam.