A versão original de essa história apareceu em Revista Quanta.
Carros sem motorista e os aviões não são mais o material do futuro. Só na cidade de São Francisco, duas empresas de táxi registaram colectivamente 13 milhões de quilómetros de condução autónoma até Agosto de 2023. E mais de 850.000 veículos aéreos autónomos, ou drones, estão registados nos Estados Unidos – sem contar os pertencentes aos militares.
Mas existem preocupações legítimas sobre segurança. Por exemplo, num período de 10 meses que terminou em Maio de 2022, a Administração Nacional de Segurança do Tráfego Rodoviário relatou quase 400 acidentes envolvendo automóveis utilizando alguma forma de controlo autónomo. Seis pessoas morreram em consequência destes acidentes e cinco ficaram gravemente feridas.
A maneira usual de resolver esse problema – às vezes chamada de “teste por exaustão” – envolve testar esses sistemas até que você esteja satisfeito com a segurança deles. Mas você nunca pode ter certeza de que esse processo revelará todas as falhas potenciais. “As pessoas realizam testes até esgotarem seus recursos e paciência”, disse Sayan Mitra, cientista da computação da Universidade de Illinois, Urbana-Champaign. Contudo, os testes por si só não podem fornecer garantias.
Mitra e seus colegas podem. Sua equipe conseguiu provar a segurança das capacidades de rastreamento de pista para carros e sistemas de pouso para aeronaves autônomas. Sua estratégia agora está sendo usada para ajudar a pousar drones em porta-aviões, e a Boeing planeja testá-la em uma aeronave experimental este ano. “Seu método de fornecer garantias de segurança de ponta a ponta é muito importante”, disse Corina Pasareanu, cientista pesquisadora da Universidade Carnegie Mellon e do Centro de Pesquisa Ames da NASA.
Seu trabalho envolve garantir os resultados dos algoritmos de aprendizado de máquina usados para informar veículos autônomos. Em alto nível, muitos veículos autônomos têm dois componentes: um sistema perceptual e um sistema de controle. O sistema de percepção informa, por exemplo, a que distância o seu carro está do centro da pista, ou em que direção um avião está se dirigindo e qual é o seu ângulo em relação ao horizonte. O sistema opera alimentando dados brutos de câmeras e outras ferramentas sensoriais para algoritmos de aprendizado de máquina baseados em redes neurais, que recriam o ambiente fora do veículo.
Estas avaliações são então enviadas para um sistema separado, o módulo de controle, que decide o que fazer. Se houver um obstáculo próximo, por exemplo, ele decide se deve acionar os freios ou contorná-lo. De acordo com Luca Carlone, professor associado do Instituto de Tecnologia de Massachusetts, embora o módulo de controle dependa de tecnologia bem estabelecida, “ele toma decisões com base nos resultados da percepção e não há garantia de que esses resultados estejam corretos”.
Para garantir a segurança, a equipe da Mitra trabalhou para garantir a confiabilidade do sistema de percepção do veículo. Eles primeiro assumiram que é possível garantir a segurança quando uma representação perfeita do mundo exterior está disponível. Eles então determinaram quanto erro o sistema de percepção introduz na recriação do ambiente do veículo.
A chave para esta estratégia é quantificar as incertezas envolvidas, conhecidas como banda de erro – ou as “incógnitas conhecidas”, como diz Mitra. Esse cálculo vem do que ele e sua equipe chamam de contrato de percepção. Na engenharia de software, um contrato é um compromisso de que, para uma determinada entrada de um programa de computador, a saída ficará dentro de um intervalo especificado. Descobrir esse intervalo não é fácil. Quão precisos são os sensores do carro? Quanta neblina, chuva ou brilho solar um drone pode tolerar? Mas se você conseguir manter o veículo dentro de uma faixa especificada de incerteza, e se a determinação dessa faixa for suficientemente precisa, a equipe da Mitra provou que você pode garantir sua segurança.