Uma noite de março de 2018 em Tempe, Arizona, entrou para a história pelos motivos errados. Um carro autônomo em teste pela Uber avançava por uma via escura e, sem desviar ou frear, atropelou fatalmente uma mulher que atravessava a estrada empurrando sua bicicleta. Era a primeira vez que um veículo sem motorista causava uma morte, levando à prática um dilema até então teórico: de quem seria a culpa de um atropelamento causado por um carro que se dirige sozinho? A investigação revelou que o software da Uber simplesmente não reconheceu a pedestre a tempo - um erro técnico grosseiro. Reguladores nos EUA interromperam programas de teste e políticos pediram cautela. "Esse trágico acidente evidencia por que precisamos ser excepcionalmente cuidadosos ao testar veículos autônomos em vias públicas", declarou um senador americano dias depois. Desde então, apurou o UOL Carros, montadoras e startups vêm, sob forte sigilo, buscando a resposta mais adequada para questões sensíveis. "O software de condução autônoma deve sacrificar os próprios passageiros para salvar mais vidas fora do carro? Ou o contrário?", disse Marco (nome fictício por questões de sigilo), pessoa envolvida em tais discussões na Europa. Silenciosamente, cada empresa vem formulando sua resposta - ou evitando-a. A Mercedes-Benz foi uma das que divulgou seu ponto de vista: "se você só consegue salvar uma pessoa, salve-a", disse o executivo Christoph von Hugo em 2016, discutindo carros autônomos de nível 4 e 5 (ainda inéditos). Em outras palavras, explicou von Hugo, se o carro tiver que optar entre atropelar um pedestre ou se jogar de um penhasco (arriscando a vida do cliente), ele atropelará o pedestre. A declaração, obviamente, rendeu críticas pela aparente frieza. Mas a Mercedes justificou-se dizendo que essas situações extremas seriam raríssimas e que, de qualquer forma, carros autônomos reagiriam melhor que humanos, evitando a maioria dos acidentes. Do outro lado do Atlântico, a Tesla adotou um silêncio estratégico: famosa por promover ao máximo sua automação veicular, a empresa de Elon Musk evita falar em dilemas morais. O bilionário, inclusive, já classificou tal questão como irrelevante, argumentando que o importante é a inteligência artificial reduzir acidentes globalmente, não filosofar sobre colisões inevitáveis. Documentos judiciais aos quais a reportagem teve acesso mostram que, se confrontado com um cenário em que alguma morte é inevitável, um carro da Tesla provavelmente não tomaria uma manobra radical para salvar uns em detrimento de outros. O sistema, pelo contrário, tenderia a frear ao máximo e manter a trajetória do carro, deixando o desfecho ao acaso ou às leis da física. Essa filosofia ecoa um princípio jurídico defendido pela marca perante a Justiça: é menos grave deixar de salvar do que matar ativamente, mesmo que o saldo de vidas seja pior. Enquanto isso, engenheiros da Waymo (startup de carros autônomos da Alphabet, dona do Google) investem em uma abordagem diferente: matemática de minimização de riscos. Em vez de pré-programar quem sacrificar, os algoritmos analisam em tempo real dezenas de variáveis - velocidade, ângulo, tamanho dos objetos - e calculam qual ação minimizaria o dano total esperado. Conforme patentes registradas pela empresa, o carro deve tentar prever o futuro próximo e tomar a decisão que cause menor probabilidade de mortes ou ferimentos graves. Em alguns casos, o carro poderia até arriscar seu ocupante se os números mostrarem que isso salvaria mais vidas no conjunto. Mas fato é que nenhuma montadora quer ficar conhecida como aquela cujo carro escolhe quem vai morrer. "Na verdade, elas morrem de medo disso. É um terreno muito sensível", diz Marco, que contribui em pesquisas de sistemas autônomos no Brasil e na Alemanha. Eu primeiroEm 2018, pesquisadores do MIT criaram um jogo online chamado Moral Machine. Nele, milhões de pessoas foram apresentadas a situações em que é necessário escolher como agir em diferentes dilemas, como atropelar crianças para poupar um idoso ou vice-versa. Após mais de 40 milhões de respostas, surgiram resultados interessantes e marcados por padrões culturais: povos ocidentais tendiam a poupar mais os jovens; asiáticos, por outro lado, valorizavam mais seguir as leis de trânsito (mesmo que significasse atropelar um pedestre imprudente). Mas um achado foi universal: as pessoas esperam que os carros autônomos minimizem o número total de mortes, desde que elas mesmas não estejam dentro do veículo. Em outras palavras, muitos dizem aprovar um carro que se sacrifique com seu motorista para salvar mais pessoas, porém não comprariam esse carro para si. "Segundo nossos resultados, as pessoas preferem viajar num carro que as salve a qualquer custo, embora essa não seja sua preferência moral", explicou à imprensa Jean-François Bonnefon, um dos autores do estudo. Esse impasse, destacou o MIT, resume o desafio: a solução ética pode ser o fracasso comercial, e vice-versa. Primeiras leis já existemDiante da hesitação da indústria em tocar publicamente no assunto, autoridades governamentais passaram a agir. A Alemanha foi pioneira ao estabelecer princípios: vida humana em primeiro lugar sempre - e nada de algoritmos decidindo quem vive com base em idade, gênero ou qualquer critério. Se um acidente for inevitável, o carro autônomo alemão deve apenas frear e não desviar calculando "preferências", pois todos valem igual. Por outro lado, a lei de 2017 diz que é permitido destruir qualquer patrimônio — público ou privado — em nome da preservação das pessoas. Também é preferível que animais sejam mortos se isso poupar vidas humanas. Além disso, todos os carros autônomos de nível 4 e 5 devem ter uma espécie de caixa-preta que permita às autoridades analisar como o algoritmo chegou à decisão derradeira. O que diz a lei alemã quando um acidente com carro autônomo for inevitável? Nenhuma pessoa deve ser priorizada em detrimento de outra(s) Pode-se destruir bens públicos e particulares se necessário para a preservação de vidas Pode-se atropelar animais pelo mesmo motivo Todos os carros autônomos deverão ter uma caixa-preta para análise posterior dos acidentes As diretrizes alemãs, inspiradas no humanismo kantiano, tornaram-se a primeira referência ética do mundo. Entre os motivos para isso está a iniciativa de Mercedes, Audi e BMW, que criaram grupos reunindo juristas, filósofos e engenheiros para debater a questão. Na China, onde os carros autônomos também ganham as ruas rapidamente, o governo tomou um caminho pragmático. Em Shenzhen — primeira cidade chinesa a regular detalhadamente a matéria — a lei municipal foca em atribuir responsabilidade. Se um carro sem motorista machucar alguém, a empresa dona do carro ou o fabricante pagarão a conta, diz o texto. Mas é um postulado vago, e a Suprema Procuradoria Popular (SPP) — órgão máximo do Ministério Público chinês — vem trabalhando para que o procedimento seja melhor detalhado. A regra implícita aqui é que o usuário comum não pode ficar desamparado - nem a vítima na rua, nem o passageiro do robô-táxi. Embora a legislação chinesa ainda não dite escolhas morais específicas ao software, ao menos ela garante que, se a tecnologia falhar de modo desastroso, alguém será responsabilizado e punido (e não será um "motorista fantasma"). Enquanto isso, o Brasil engatinha na questão, e não há qualquer adaptação normativa para os carros autônomos. O projeto de lei 1317/23, do deputado federal Alberto Fraga (PL-DF), entretanto, tramita no Congresso a fim de mudar isso. A proposta prevê alterações no Código de Trânsito Brasileiro para autorizar níveis elevados de automação veicular, vedando, por exemplo, o seu uso em ambulâncias. Além disso, será obrigatório que ao menos um ocupante seja habilitado e que todos os veículos do tipo tenham seguro contra acidentes, incluindo proteção a terceiros. Mas o projeto de lei não define a culpa de um acidente do tipo, e a responsabilidade seria apurada conforme cada caso. Havendo falha na programação do software, a culpa recairia sobre o fabricante. Já em caso de o veículo exigir grau mínimo de vigilância e esta não ter ocorrido, a conta seria do condutor. Em outros casos, também haveria responsabilidade solidária entre diferentes partes. No fim das contas, conclui a imensa maioria dos pesquisadores, o tema ainda carece de debate amplo. O que pouco se contesta, entretanto, é que os carros autônomos eventualmente prevalecerão, ainda que com certo controle humano. |