terça-feira, 30 de abril de 2024

Somos todos ratos de laboratório involuntários no inseguro projeto de Elon Musk

Parece que não há fim para manchetes desfavoráveis para a empresa de carros de Elon Musk, a Tesla. Em junho de 2023, o Washington Post determinou que o Autopilot da Tesla, o nome que a empresa dá ao seu programa de assistência ao motorista operado por inteligência artificial, esteve envolvido em 736 acidentes desde 2019 – mais de quatrocentos acima do que se sabia anteriormente. Quase dois terços dos acidentes aconteceram no último ano, um aumento que coincidiu com o lançamento do Full Self-Driving (FSD), software de direção autônoma da empresa, que tem um nome enganoso.

Esse relatório veio quatro meses depois que os reguladores obrigaram a empresa a recolher quase 363.000 carros equipados com FSD e interromper qualquer nova instalação do software, com a Administração Nacional de Segurança do Tráfego Rodoviário (NHTSA) considerando-o um “risco de acidente”. Tudo isso enquanto relatos de Teslas colidindo com objetos parados ou parando abruptamente na estrada ganhavam manchetes no último ano.

Isso tudo levanta a questão: se os carros “autônomos” da Tesla são tão inseguros, por que eles puderam ser comprados e usados em massa na estrada antes de serem testados?

A resposta: eles estão sendo testados, nas estradas dos EUA, pelos homens e mulheres comuns que os compram e dirigem para fora da concessionária. E tudo isso é por causa da abordagem notavelmente laxa que os Estados Unidos adotam em relação à regulamentação.

O próprio Musk provavelmente colocou isso da melhor maneira: “Nos EUA, as coisas são legais por padrão”, disse aos investidores no ano passado. “Na Europa, são ilegais por padrão. Então, temos que obter aprovação antecipadamente. Enquanto nos EUA, você pode meio que fazer por sua própria conta, mais ou menos.”

O que Musk está falando? Na UE e em países como Austrália, onde os governos tendem a dar mais importância à proteção do cliente regulamentando a indústria, levou anos para o FSD da Tesla obter aprovação. Mesmo ao finalmente obtê-la, a aprovação veio com condições rigorosas, incluindo permitir apenas que testadores profissionais os conduzam nas estradas e disponibilizar apenas um número limitado de carros equipados com FSD.

As coisas são muito diferentes do outro lado do Atlântico. Como a NHTSA explicou uma vez a uma empresa coreana que buscava permissão do governo para vender airbags nos Estados Unidos, “nenhuma permissão desse tipo é necessária”, já que a agência “não aprova veículos automotores ou equipamentos de veículos automotores, nem… conduz testes pré-venda de quaisquer produtos comerciais.” Em vez disso, a lei permite que as montadoras “auto-certifiquem” que seus produtos são seguros nos Estados Unidos, embora a NHTSA às vezes possa revisar uma auto-certificação para garantir que esteja acima da mesa ou se uma investigação revelar algo errado.

<><><> “Em outras palavras, a segurança dos veículos nos EUA funciona com algo alguns graus abaixo do sistema de honra.“

Isso significa que a NHTSA é mais reativa do que proativa, mais propensa a intervir uma vez que os problemas começam a surgir — ou, no caso dos vários produtos da Tesla envolvidos em escândalos, uma vez que dezenas de acidentes e lesões chamam a atenção pública. Isso mesmo que a Tesla tenha alertado na mesma semana em que lançou o software que o FSD “pode fazer a coisa errada no pior momento, então você sempre deve manter suas mãos no volante e prestar atenção extra à estrada. Não fique complacente.”

Como o The Verge apontou, isso contrasta starkmente com a maneira como o governo federal trata a segurança da aviação, onde, como o bom senso indicaria, os fabricantes de aviões precisam obter aprovação da Administração Federal de Aviação para seus aviões e componentes antes que os pilotos comecem a voar com eles (mesmo que esse processo tenha sido tragicamente corrompido no passado recente).

Isso também permitiu que a Tesla realizasse testes beta nas mesmas estradas públicas usadas por crianças em idade escolar americanas e outros pedestres, não empregando motoristas especialmente treinados para o trabalho, mas usando proprietários de carros comuns, cujo software FSD então envia dados de volta para a Tesla para refinamento adicional. Por um tempo, a Tesla determinava quais clientes poderiam se qualificar fazendo o software rastrear seu desempenho de direção e emitir uma “pontuação de segurança”, pela qual os aspirantes a testadores beta teriam que alcançar e manter um valor alto o suficiente.

Mas em novembro passado, à medida que ações judiciais, investigações da NHTSA e até uma investigação criminal sobre o FSD se acumulavam, a empresa anunciou que qualquer pessoa que possuísse um carro e desembolsasse os US$ 15.000 pelo software poderia ser um testador, independentemente da pontuação de segurança. Evidentemente, o site da Tesla não menciona mais essa pontuação de segurança como uma condição para os testes beta — mesmo que, segundo uma contagem, o FSD seja dez vezes mais perigoso do que um motorista humano.

•        Renegade na estrada

Não é totalmente preciso dizer que a Tesla está apenas se aproveitando das laxas regulamentações dos EUA. Há evidências de que também está contornando as regulamentações existentes.

No estado de anarquia regulatória criada pela ausência de leis federais nos Estados Unidos sobre veículos autônomos (AVs), algumas das regras mais rígidas estão na Califórnia, que define carros autônomos de acordo com as características estabelecidas nos Níveis 3-5 no padrão J3016 da Society of Automotive Engineers (SAE) International. Entre outras coisas, diz o professor de direito da Universidade de Miami, William Widen, esse padrão exige que motoristas de segurança treinados realizem testes em AVs.

“As empresas que estão testando veículos nos Níveis 3 e 4 têm feito isso principalmente em simulações de computador e em pistas de teste, e têm feito testes limitados em rodovias públicas”, diz Widen. “Mas mesmo quando estão testando em rodovias públicas, dependendo do estado em que estão, eles podem precisar de permissão.”

A Tesla contorna tudo isso afirmando que seus carros são apenas SAE Nível 2, definido como “automação parcial de direção”. Mas Widen e o professor da Universidade Carnegie Mellon, Philip Koopman, argumentaram que mesmo com base na própria descrição da Tesla sobre o FSD, eles deveriam ser classificados em um nível mais alto.

Uma grande parte de como essa classificação é decidida é a “intenção de design”, que se aplica independentemente de o veículo realmente ser capaz de fazer o que foi projetado para fazer. Em outras palavras, o fato de os carros operados pelo FSD da Tesla neste estágio precisarem de supervisão humana constante e terem a tendência de colidir com objetos parados não importa tanto para os reguladores quanto o fato de que os carros são destinados a serem completamente autônomos um dia.

E quando se trata de promover seu produto, a Tesla e Musk deixaram muito claro que é exatamente isso que eles pretendem que os carros façam.

Já em 2016, Musk anunciou que todos os carros da Tesla estavam sendo equipados com hardware que eventualmente permitiria que os carros dirigissem sozinhos e que alcançaria esse ponto por meio de “milhões de milhas de direção no mundo real”. Os advogados da Tesla chamaram isso de “objetivo de longo prazo e aspiracional” em uma ação coletiva por fraude sobre as promessas de Musk ao longo dos anos (e constantemente não cumpridas) de que os carros seriam autônomos em um ano ou dois. No mês passado, ele afirmou que a Tesla estava “muito perto de alcançar a direção totalmente autônoma sem supervisão humana … talvez o que você chamaria de [Nível SAE] quatro ou cinco, eu acho que ainda este ano.”

Ominosamente, porque os “testadores beta” da Tesla também têm essa intenção de design em mente quando estão avaliando as capacidades do carro, isso pode levar a situações perigosas e acidentes nas estradas.

Quando um repórter da CNN testou o software FSD em ruas movimentadas da cidade de Nova York, ele se viu tendo que intervir rapidamente para impedir o carro de repente desviar para o tráfego que vinha na direção oposta ou dirigir em obstáculos. Mas não há garantia de que todos os “testadores beta” cada vez mais indiscriminadamente escolhidos da Tesla mostrarão o mesmo cuidado e atenção — como mostram os relatos de motoristas da Tesla que se envolvem em acidentes fatais enquanto jogam videogame ou, de outra forma, falham em manter as mãos no volante.

Não é totalmente surpreendente que uma empresa de carros sem escrúpulos possa se envolver em enganos e até mesmo colocar em perigo o público para evitar regulamentações governamentais. A grande questão é por que os reguladores da Califórnia estão permitindo que a Tesla se aproveite disso. Para Widen e Koopman, o medo é que “se essa má aplicação da lei e da regulamentação permanecer sem desafios, o risco permanecerá de que outros participantes da indústria de AV, não apenas a Tesla, possam usar essa ‘brecha’ para obter alguma vantagem em detrimento da segurança.”

·        Dirigindo para o abismo

Ainda assim, até a inação regulatória da Califórnia está muito à frente da maior parte do país, com a maioria dos estados não tendo nada nas leis para regular AVs — ou pior.

“Algumas leis estaduais não são projetadas para serem protetoras, mas para dar à empresa o conforto de que podem testar em rodovias públicas no estado”, diz Widen. “Não é realmente amigável ao consumidor ou ao público, mas à empresa.”

O estado de Nevada, por exemplo, há muito tempo tem uma reputação de um cenário regulatório amigável à indústria de AVs, permitindo que veículos em todos os níveis de automação operem em ruas públicas e exigindo que atendam a uma “condição de risco mínimo” — o que significa que se o carro não puder executar uma determinada tarefa de direção, ele deve se colocar em um “estado razoavelmente seguro”, o que pode significar parar.

Lá, os robo-táxis foram implantados no centro de Las Vegas, e a Mercedes-Benz recentemente se tornou a primeira empresa a lançar um veículo no nível 3 nos EUA, o que dá aos motoristas humanos a opção de jogar videogames na tela do computador do carro. (A Califórnia recentemente seguiu o exemplo.)

<><><> “A maioria dos estados não tem nada nas leis para regular veículos autônomos.”

No Arizona, o governador enfraqueceu as regulamentações de AV por ordem executiva em 2018 como um agrado para a indústria de AVs, incluindo o requisito de que tenham um motorista humano atrás do volante. Duas semanas depois, uma mulher de Tempe se tornou a primeira pessoa conhecida a ser morta pela tecnologia, quando um Uber autônomo mostrou-se incapaz de reconhecer pedestres enquanto seu motorista humano assistia ao programa de TV The Voice.

Também há questões sobre onde os veículos autonômos estão sendo testados adequadamente. A ferramenta de rastreamento de testes não abrangente da NHTSA mostra a maioria dos testes em estrada ocorrendo na Califórnia, Arizona e Michigan, e está bem representada na Flórida. De acordo com o Wall Street Journal, centenas de carros autônomos estão sendo implantados não apenas na Califórnia, mas também em Miami, Dallas, Austin e Nashville. Mas, exceto em Michigan, esses locais podem não oferecer aos carros autônomos o mesmo tipo de condições que predominam em outras partes do país, em um momento em que os veículos ainda têm dificuldade em operar sob chuva intensa.

“Eles não funcionam bem na chuva, não funcionam bem à noite e eu não conheço nenhum que funcione na neve”, diz Widen. “Quando as linhas da pista estão cobertas, isso apresenta um problema. Como isso funcionará na prática, eu não sei — não chove ou neva em Vegas.”

Enquanto isso, em alguns casos, os governos estaduais moveram-se para antecipar regulamentações locais mais rigorosas sobre carros autônomos. A Conferência Nacional de Legislaturas Estaduais (NCSL) lista oito dessas leis em vigor, sem incluir uma lei da Pensilvânia permitindo testes de AVs sem motorista assinada no final do mandato do ex-governador Tom Wolf. Esses projetos de lei muitas vezes têm sido muitas vezes apoiados e trabalhados por uma indústria de compartilhamento de carona interessada em economizar custos trabalhistas eliminando completamente o motorista humano da equação.

•        Sem futuro, mas o que fazemos?

Tradicionalmente, a regulamentação de transporte foi dividida entre uma divisão federal-estadual, com a NHTSA regulando os “aspectos de design e desempenho de segurança” de veículos e equipamentos, e os estados regulando operações de veículos e os próprios motoristas. Mas isso pode estar mudando à medida que os carros autônomos borrifam a linha entre equipamento e motorista, com o  Congresso dos EUA e as agências federais mostrando sinais crescentes de que estão prontos para intervir.

A questão é qual forma essa intervenção federal terá. O modelo será estados como Nevada, onde existem regulamentações mais permissivas para apaziguar a indústria? Será a Califórnia, onde teoricamente leis mais rígidas permanecem ociosas graças a reguladores relutantes? Ou será um regime mais próximo ao da Europa, um que permita cuidadosamente e realmente faça cumprir o desenvolvimento dessa tecnologia emocionante, mas perigosa, e garanta que esteja realmente à altura antes de ser implantada em grande escala em estradas públicas?

Isso será uma batalha política por si só. Mas até então, os Elon Musks do mundo estão mais ou menos livres para usar como cobaias o próprio público dos EUA que paga pelas estradas e rodovias que eles usam como laboratório ao ar livre, com resultados mortais.

•        Elon Musk também é ruim na administração da Tesla

Desde que o desastroso reinado do bilionário Elon Musk no Twitter começou no final do ano passado, os analistas tiveram muita dificuldade em apontar as causas da queda do valor das ações da Tesla. Claramente, a fixação e a desastrosa liderança de Musk na plataforma de redes sociais diminuíram a confiança dos investidores na sua outrora triunfante empresa de “carros autónomos”.

Mas não esqueçamos que pode haver outro culpado: a proliferação de mortes e processos judiciais em torno da empresa.

Cerca de 765.000 carros da Tesla estão equipados com os chamados sistemas “Autopilot” e “Full Self-Driving” da empresa enquanto circulam pelas ruas dos EUA, um exemplo chocante de testes com cobaias humanas em massa dos quais todos fazemos parte involuntariamente. Ao longo de 2022, os carros Tesla com software Autopilot estiveram envolvidos em 273 acidentes, de acordo com dados das agências reguladoras, ou 70% dos 392 acidentes que envolveram todos os sistemas avançados de assistência ao condutor. Escandalosamente, as agências reguladoras descobriram que os veículos da Tesla tinham o hábito de desligar cerca de um segundo antes do acidente realmente acontecer, e é por isso que os reguladores ordenaram agora que os fabricantes de automóveis divulguem todos os acidentes em que este tipo de software estava sendo usado dentro de trinta segundos após o impacto para impedi-los de usar isso como uma brecha para subnotificar os acidentes.

A situação ficou tão ruim que a Administração Nacional de Segurança no Trânsito Rodoviário (NHTSA) começou a investigar o software depois que os carros Tesla no piloto automático continuaram batendo em veículos de emergência estacionados, muitas vezes à noite e apesar de luzes piscando, cones e vários outros alertas. Em meados de 2022, 39 dos 48 acidentes que constam na lista de investigações especiais de acidentes da NHTSA envolveram veículos da Tesla, que mataram 19 pessoas, e a agência acelerou sua investigação até a fase final antes de potencialmente emitir um recall. Um desses acidentes viu o Tesla simplesmente colidir com uma motocicleta que estava à sua frente, matando o motorista, um dos muitos casos que têm aumentado os dados sobre acidentes.

Parte do problema é que os carros “autônomos” da Tesla não são realmente autônomos e exigem, como diz o site da empresa, supervisão constante de um motorista “totalmente atento” com as mãos no volante. A outra parte do problema é que você não saberia disso pelos materiais de marketing da empresa ou pelas declarações públicas de seu famoso CEO, que falavam sobre o software permitir que você viaje “sem tocar no volante” e o motorista “sem fazer nada” porque “o carro está dirigindo sozinho” – provavelmente por isso que alguns dos motoristas envolvidos nesses acidentes estavam assistindo a um filme ou jogando videogame em seus telefones.

Não é de surpreender que Musk e a empresa tenham sido levados ao tribunal por causa destes e de outros escândalos. As famílias de 2 das vítimas entraram com ações judiciais alegando que os veículos Tesla estão com defeito, não possuem sistema automático de frenagem de emergência e “aceleraram repentina e involuntariamente a uma velocidade excessiva, insegura e incontrolável”. Uma ação coletiva lançada no ano passado acusou a Tesla de anunciar enganosamente sua tecnologia de “direção autônoma” desde 2016 como totalmente funcional ou próxima disso, enquanto outra levou Musk ao tribunal por alegar que um carro totalmente autônomo estava a apenas um ou dois anos de distância – declarações feitas em 2015. Outras ações judiciais coletivas alegam um problema de carros parando repentinamente devido a obstáculos inexistentes e maçanetas defeituosas que caem depois de alguns anos.

Outros processos judiciais acusam que há mais coisas podres na Tesla do que na linha de produção. A empresa foi alvo de pelo menos 10 processos, incluindo um do Estado da Califórnia, por causa de altos níveis de discriminação racial na sua fábrica em Fremont, Califórnia, incluindo o uso regular de insultos raciais e a segregação de trabalhadores negros em áreas separadas. Um processo diferente alega que Musk tem influência inadequada sobre o conselho de administração da Tesla, que ele usou para obter um pacote salarial indevidamente.

Então, sim, a incompetência de Musk na gestão do Twitter quase certamente prejudicou a empresa que o tornou famoso. Mas esse empreendimento em si está repleto de escândalos e incompetência fatal, lembrando-nos que toda a imagem de Musk, o tal do “CEO genial”, era duvidosa muito antes dele se envolver na área das redes sociais.

 

Fonte: Por Branko Marcetic, com tradução de Sofia Schurig, para Jacobin Brasil

 

Nenhum comentário: