No mês passado, a General Motors adicionou seu nome a uma lista crescente de fabricantes de automóveis que buscam um novo tipo de tecnologia parcialmente automatizada chamada “direção sem olhos”. Mas o que eles não fizeram foi fornecer uma explicação completa de como seriam responsabilizados se algo desse errado.
Isso não deve ser confundido com o tipo de distração ao dirigir que muitos motoristas apresentam. Praticando hoje em diaO sistema da GM seria um passo em direção ao objetivo final da montadora de vender carros de propriedade privada e totalmente autônomos. Alguns carros produzidos pela GM já contam com o sistema Super Cruise da empresa. O sistema permite que os motoristas tirem as mãos do volante, mas usa tecnologia de rastreamento ocular para manter os olhos na estrada. O novo sistema Nível 3 da escala de autonomia de 6 níveisPermite que o motorista tire as mãos do volante. e Em algumas rodovias da América, é ofuscante.
A GM afirma que pretende lançar sistemas Nível 3 no mercado até 2028, começando com o Cadillac Escalade IQ. A partir daí, a tecnologia provavelmente se espalhará para outras marcas da montadora, como Chevy, Buick e GMC. Em breve, os motoristas poderão olhar para seus telefones sem vergonha ou risco de infração de trânsito. Em alguns casos, os motoristas são incentivados a jogar videogame ou assistir ao YouTube enquanto o veículo dirige.
Mas só às vezes. Crucialmente, mesmo em sistemas de Nível 3, o motorista deve estar pronto para assumir o controle do veículo quando solicitado. E se você não fizer isso rapidamente, poderá ser responsabilizado se algo der errado. E quando você dirige no mundo de hoje, algo sempre dá errado.
“Quando você usa automação condicional, automação de nível 3, as coisas ficam mais complicadas”, disse Alexandra Mueller, Ph.D., pesquisadora sênior do Insurance Institute for Highway Safety. “E acho que muitas das preocupações estão surgindo porque há muito que não sabemos sobre a automação de direção de nível 3.”
Observar a lista de fabricantes de automóveis que buscam ativamente essa tecnologia torna a incerteza ainda mais preocupante. Além da GM, a Ford, a Stellantis, controladora da Jeep, e a Honda adotaram o Nível 3. A Mercedes-Benz já tem um sistema de Nível 3 que eles chamam de Drive Pilot, mas seu uso só é legal em certas rodovias na Califórnia e em Nevada.
E esse é o problema. A indústria está a planear ativamente o lançamento de novas tecnologias que ainda são amplamente proibidas na maioria das regiões. A Alemanha e o Japão têm subsídios temporários para BMW e Honda, respectivamente. Mas até agora, o Nível 3 é muito limitado e provavelmente continuará assim até que os legisladores o resolvam.
Esta é uma questão muito complicada para muitos reguladores. Como você distribui responsabilidades em um sistema que oscila entre sistemas de direção autônoma e motoristas humanos? Quanto ao Drive Pilot, a Mercedes afirma que assumirá a responsabilidade por quaisquer acidentes causados por sua tecnologia enquanto o sistema estiver ativo. No entanto, isto é de natureza condicional e o condutor continua a ser responsável se não assumir o controlo quando solicitado ou utilizar indevidamente o sistema.
A Tesla já está a tirar partido desta ambiguidade com os seus sistemas de Nível 2, Autopilot e Full Self-Driving. Uma investigação sobre dezenas de acidentes envolvendo Teslas descobriu que o piloto automático foi desativado “menos de um segundo” antes do acidente. Os investigadores não encontraram nenhuma evidência Foi sugerido que Tesla está tentando fugir da responsabilidade, mas isso certamente não parece bom para a empresa.
Sensores que orientam esses sistemas, como câmeras, rastreadores infravermelhos e sensores de torque, também podem ser usados pelas empresas para fornecer evidências de quem estava no controle e quando ocorreu uma colisão. Num evento de anúncio do novo sistema de “olhos desligados”, a CEO da GM, Mary Barra, apontou para o número crescente de sensores que poderiam potencialmente desculpar a empresa em tais casos. Sobre a questão da responsabilidade pela automação de Nível 3, ela disse: “Teremos muito mais capacidades de detecção, então saberemos exatamente o que aconteceu”. “E acho que vimos a General Motors sempre nos responsabilizar pelo que precisamos fazer.”
A própria definição de nível 3 é contraditória. Isso significa que os motoristas devem ter a capacidade de parar de dirigir, mas ainda assim poder voltar a se engajar rapidamente. Se as transições forem planejadas, como quando os motoristas entram ou saem de uma área mapeada, as transferências devem ser contínuas. No entanto, eventos inesperados, como mudanças repentinas no clima ou nas estradas, podem tornar esses sistemas instáveis. A pesquisa mostrou que os humanos geralmente têm dificuldade em se recuperar desse tipo de tarefa “fora do circuito”.
A pesquisa mostrou que os humanos geralmente têm dificuldade em se recuperar desse tipo de tarefa “fora do circuito”.
Se as pessoas tiverem estado afastadas da condução durante um longo período de tempo, poderão reagir de forma exagerada quando subitamente forem obrigadas a assumir o controlo numa situação de emergência. Você pode não ser capaz de reagir corretamente corrigindo demais a direção, freando com muita força ou não prestando atenção. E essas ações podem desencadear um efeito dominó que pode ser perigoso ou até fatal.
“O cenário de frota mista, que provavelmente existirá para além das nossas vidas, apresenta um ambiente altamente descontrolado no qual muitos sistemas altamente automatizados e mesmo sistemas parcial ou condicionalmente automatizados terão dificuldades”, disse Mueller. “Francamente, eles vão lutar indefinidamente porque vivemos num ambiente muito caótico e dinâmico que está em constante mudança.”
Já estamos a começar a assistir ao surgimento de jurisprudência que atribui a responsabilidade aos condutores humanos e não aos sistemas automatizados.
No Arizona, o motorista de segurança de um robotáxi Uber confessou-se culpado de homicídio por negligência num acidente fatal em 2017 que ocorreu enquanto o sistema autónomo estava a funcionar. Antes disso, o motorista do Tesla não contestou o homicídio culposo em duas mortes resultantes de um acidente ocorrido quando o sistema de piloto automático da empresa estava em uso. Em ambos os casos, os procuradores apresentaram acusações criminais contra a pessoa ao volante, com base na teoria de que, apesar da presença de sistemas automatizados, o condutor era o responsável final pelo veículo.
As montadoras ficarão muito satisfeitas com os resultados desses cases. No entanto, houve momentos em que as montadoras puderam compartilhar a responsabilidade quando algo deu errado. Por exemplo, um veredicto recente do júri na Flórida considerou Tesla parcialmente responsável por um acidente que matou duas pessoas. Neste caso, o proprietário do Model S que usava o Autopilot também foi considerado responsável, mas foi a empresa de Elon Musk que foi condenada a pagar 243 milhões de dólares às famílias das vítimas.
Mike Nelson, advogado especializado em mobilidade, salienta que o precedente jurídico para conflitos relacionados com a automação ainda está na sua infância. Os casos no sistema de Nível 2 são usados para informar decisões no Nível 3 e acima. Mas os juízes, advogados e júris tendem a carecer de conhecimentos técnicos, criando um futuro em grande parte determinado pela imprevisibilidade.
À medida que entramos num meio de ano caótico, onde os condutores humanos partilharão cada vez mais as estradas com robôs, os fabricantes de automóveis precisam de ser tão transparentes quanto possível, disse Nelson. Por que? Os jurados tendem a gostar quando as empresas não tentam encobrir seus erros.
“Não estou feliz com a confusão, mas não é inesperado”, disse Nelson. “Isso aconteceu sempre que houve uma revolução industrial.”


