Apple conta com recurso que permite controlar iPhone e iPad com os olhos

A empresa anunciou uma série de recursos de acessibilidade que serão liberados nos próximos meses, como o rastreamento ocular

Pessoa com deficiência na cadeira de rodas segurando um tablet.
Compartilhe:

Apple anunciou uma série de recursos de acessibilidade que serão liberados nos próximos meses para iPhone e iPad. Um dos destaques foi o novo rastreamento ocular, que, segundo a empresa, usa inteligência artificial (IA) para permitir que pessoas com deficiência naveguem pelo iOS e iPadOS com mais facilidade.

Como funciona o rastreamento ocular da Apple

O recurso de rastreamento ocular usa a câmera frontal dos aparelhos e aprendizado de máquina. Todos os dados usados ​​para configurar e controlar a nova função são mantidos com segurança no dispositivo e não serão compartilhados com a Apple.

A empresa afirma que a novidade pode funcionar em aplicativos para iPhone e iPad sem necessidade de acessórios ou hardware extra.

O vídeo abaixo mostra como a tecnologia funciona na prática:

Descrição do vídeo: Mulher paraplégica navega, com os olhos, pela tela de um iPad que está sobre a mesa. Ela sorri. No final do vídeo, a mensagem, em inglês, “Because we believe the best technology works for everyone”, em tradução livre “Porque acreditamos que a melhor tecnologia funciona para todas as pessoas”.

Mais novidades em acessibilidade anunciadas pela Apple

Uma nova opção tátil musical também usará o sistema de vibração do iPhone para reproduzir toques, texturas e vibrações refinadas no áudio da música em faixas no Apple Music. A sensação ao toque da música permitirá que pessoas com deficiência auditiva “experimentem música no iPhone”, produzindo uma variedade de vibrações, toques e outros efeitos”. A Apple diz que desenvolvedores também poderão adicionar o mesmo recurso aos seus próprios aplicativos por meio de uma nova API.

Também foi anunciado uma função para reduzir o enjoo ao usar um iPhone ou iPad em um veículo em movimento. O recurso usa sensores dos dispositivos e poderá ser ativado ou desativado na central de controle.

Outros recursos de acessibilidade incluem: atalhos vocais, que permitirão a qualquer pessoa atribuir expressões personalizadas que a Siri possa entender para iniciar atalhos e concluir tarefas”. Um novo recurso, “Ouvir fala atípica”, usa aprendizado de inteligência artificial para reconhecer padrões de fala em pessoas usuárias com doenças que afetam a fala, como paralisia cerebral, esclerose lateral amiotrófica (ELA) ou acidente vascular cerebral.

Quando os novos recursos serão lançados?

A empresa anunciou as novas funções de acessibilidade um dia antes do Dia Global de Conscientização sobre Acessibilidade, que aconteceu em 16 de maio. Todas as novidades serão lançadas provavelmente no o iOS e iPadOS 18.

Mais detalhes foram disponibilizados na conferência WWDC (Apple Worldwide Developers Conference), que aconteceu em 10 de junho.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *