quinta-feira, novembro 21

A versão original de essa história apareceu em Revista Quanta.

Carros sem motorista e os aviões não são mais o material do futuro. Só na cidade de São Francisco, duas empresas de táxi registaram colectivamente 13 milhões de quilómetros de condução autónoma até Agosto de 2023. E mais de 850.000 veículos aéreos autónomos, ou drones, estão registados nos Estados Unidos – sem contar os pertencentes aos militares.

Mas existem preocupações legítimas sobre segurança. Por exemplo, num período de 10 meses que terminou em Maio de 2022, a Administração Nacional de Segurança do Tráfego Rodoviário relatou quase 400 acidentes envolvendo automóveis utilizando alguma forma de controlo autónomo. Seis pessoas morreram em consequência destes acidentes e cinco ficaram gravemente feridas.

A maneira usual de resolver esse problema – às vezes chamada de “teste por exaustão” – envolve testar esses sistemas até que você esteja satisfeito com a segurança deles. Mas você nunca pode ter certeza de que esse processo revelará todas as falhas potenciais. “As pessoas realizam testes até esgotarem seus recursos e paciência”, disse Sayan Mitra, cientista da computação da Universidade de Illinois, Urbana-Champaign. Contudo, os testes por si só não podem fornecer garantias.

Mitra e seus colegas podem. Sua equipe conseguiu provar a segurança das capacidades de rastreamento de pista para carros e sistemas de pouso para aeronaves autônomas. Sua estratégia agora está sendo usada para ajudar a pousar drones em porta-aviões, e a Boeing planeja testá-la em uma aeronave experimental este ano. “Seu método de fornecer garantias de segurança de ponta a ponta é muito importante”, disse Corina Pasareanu, cientista pesquisadora da Universidade Carnegie Mellon e do Centro de Pesquisa Ames da NASA.

Seu trabalho envolve garantir os resultados dos algoritmos de aprendizado de máquina usados ​​para informar veículos autônomos. Em alto nível, muitos veículos autônomos têm dois componentes: um sistema perceptual e um sistema de controle. O sistema de percepção informa, por exemplo, a que distância o seu carro está do centro da pista, ou em que direção um avião está se dirigindo e qual é o seu ângulo em relação ao horizonte. O sistema opera alimentando dados brutos de câmeras e outras ferramentas sensoriais para algoritmos de aprendizado de máquina baseados em redes neurais, que recriam o ambiente fora do veículo.

Estas avaliações são então enviadas para um sistema separado, o módulo de controle, que decide o que fazer. Se houver um obstáculo próximo, por exemplo, ele decide se deve acionar os freios ou contorná-lo. De acordo com Luca Carlone, professor associado do Instituto de Tecnologia de Massachusetts, embora o módulo de controle dependa de tecnologia bem estabelecida, “ele toma decisões com base nos resultados da percepção e não há garantia de que esses resultados estejam corretos”.

Para garantir a segurança, a equipe da Mitra trabalhou para garantir a confiabilidade do sistema de percepção do veículo. Eles primeiro assumiram que é possível garantir a segurança quando uma representação perfeita do mundo exterior está disponível. Eles então determinaram quanto erro o sistema de percepção introduz na recriação do ambiente do veículo.

A chave para esta estratégia é quantificar as incertezas envolvidas, conhecidas como banda de erro – ou as “incógnitas conhecidas”, como diz Mitra. Esse cálculo vem do que ele e sua equipe chamam de contrato de percepção. Na engenharia de software, um contrato é um compromisso de que, para uma determinada entrada de um programa de computador, a saída ficará dentro de um intervalo especificado. Descobrir esse intervalo não é fácil. Quão precisos são os sensores do carro? Quanta neblina, chuva ou brilho solar um drone pode tolerar? Mas se você conseguir manter o veículo dentro de uma faixa especificada de incerteza, e se a determinação dessa faixa for suficientemente precisa, a equipe da Mitra provou que você pode garantir sua segurança.

Compartilhe:

Comentários estão fechados.