Somos todos ratos de laboratório
involuntários no inseguro projeto de Elon Musk
Parece que não há fim
para manchetes desfavoráveis para a empresa de carros de Elon Musk, a Tesla. Em
junho de 2023, o Washington Post determinou que o Autopilot da Tesla, o nome
que a empresa dá ao seu programa de assistência ao motorista operado por inteligência
artificial, esteve envolvido em 736 acidentes desde 2019 – mais de quatrocentos
acima do que se sabia anteriormente. Quase dois terços dos acidentes
aconteceram no último ano, um aumento que coincidiu com o lançamento do Full
Self-Driving (FSD), software de direção autônoma da empresa, que tem um nome
enganoso.
Esse relatório veio
quatro meses depois que os reguladores obrigaram a empresa a recolher quase
363.000 carros equipados com FSD e interromper qualquer nova instalação do
software, com a Administração Nacional de Segurança do Tráfego Rodoviário
(NHTSA) considerando-o um “risco de acidente”. Tudo isso enquanto relatos de
Teslas colidindo com objetos parados ou parando abruptamente na estrada
ganhavam manchetes no último ano.
Isso tudo levanta a
questão: se os carros “autônomos” da Tesla são tão inseguros, por que eles
puderam ser comprados e usados em massa na estrada antes de serem testados?
A resposta: eles estão
sendo testados, nas estradas dos EUA, pelos homens e mulheres comuns que os
compram e dirigem para fora da concessionária. E tudo isso é por causa da
abordagem notavelmente laxa que os Estados Unidos adotam em relação à
regulamentação.
O próprio Musk
provavelmente colocou isso da melhor maneira: “Nos EUA, as coisas são legais
por padrão”, disse aos investidores no ano passado. “Na Europa, são ilegais por
padrão. Então, temos que obter aprovação antecipadamente. Enquanto nos EUA,
você pode meio que fazer por sua própria conta, mais ou menos.”
O que Musk está
falando? Na UE e em países como Austrália, onde os governos tendem a dar mais
importância à proteção do cliente regulamentando a indústria, levou anos para o
FSD da Tesla obter aprovação. Mesmo ao finalmente obtê-la, a aprovação veio com
condições rigorosas, incluindo permitir apenas que testadores profissionais os
conduzam nas estradas e disponibilizar apenas um número limitado de carros
equipados com FSD.
As coisas são muito
diferentes do outro lado do Atlântico. Como a NHTSA explicou uma vez a uma
empresa coreana que buscava permissão do governo para vender airbags nos
Estados Unidos, “nenhuma permissão desse tipo é necessária”, já que a agência
“não aprova veículos automotores ou equipamentos de veículos automotores, nem…
conduz testes pré-venda de quaisquer produtos comerciais.” Em vez disso, a lei
permite que as montadoras “auto-certifiquem” que seus produtos são seguros nos
Estados Unidos, embora a NHTSA às vezes possa revisar uma auto-certificação
para garantir que esteja acima da mesa ou se uma investigação revelar algo
errado.
<><><>
“Em outras palavras, a segurança dos veículos nos EUA funciona com algo alguns
graus abaixo do sistema de honra.“
Isso significa que a
NHTSA é mais reativa do que proativa, mais propensa a intervir uma vez que os
problemas começam a surgir — ou, no caso dos vários produtos da Tesla
envolvidos em escândalos, uma vez que dezenas de acidentes e lesões chamam a
atenção pública. Isso mesmo que a Tesla tenha alertado na mesma semana em que
lançou o software que o FSD “pode fazer a coisa errada no pior momento, então
você sempre deve manter suas mãos no volante e prestar atenção extra à estrada.
Não fique complacente.”
Como o The Verge
apontou, isso contrasta starkmente com a maneira como o governo federal trata a
segurança da aviação, onde, como o bom senso indicaria, os fabricantes de
aviões precisam obter aprovação da Administração Federal de Aviação para seus
aviões e componentes antes que os pilotos comecem a voar com eles (mesmo que
esse processo tenha sido tragicamente corrompido no passado recente).
Isso também permitiu
que a Tesla realizasse testes beta nas mesmas estradas públicas usadas por
crianças em idade escolar americanas e outros pedestres, não empregando
motoristas especialmente treinados para o trabalho, mas usando proprietários de
carros comuns, cujo software FSD então envia dados de volta para a Tesla para
refinamento adicional. Por um tempo, a Tesla determinava quais clientes
poderiam se qualificar fazendo o software rastrear seu desempenho de direção e
emitir uma “pontuação de segurança”, pela qual os aspirantes a testadores beta
teriam que alcançar e manter um valor alto o suficiente.
Mas em novembro
passado, à medida que ações judiciais, investigações da NHTSA e até uma
investigação criminal sobre o FSD se acumulavam, a empresa anunciou que
qualquer pessoa que possuísse um carro e desembolsasse os US$ 15.000 pelo
software poderia ser um testador, independentemente da pontuação de segurança.
Evidentemente, o site da Tesla não menciona mais essa pontuação de segurança
como uma condição para os testes beta — mesmo que, segundo uma contagem, o FSD
seja dez vezes mais perigoso do que um motorista humano.
• Renegade na estrada
Não é totalmente
preciso dizer que a Tesla está apenas se aproveitando das laxas regulamentações
dos EUA. Há evidências de que também está contornando as regulamentações
existentes.
No estado de anarquia
regulatória criada pela ausência de leis federais nos Estados Unidos sobre
veículos autônomos (AVs), algumas das regras mais rígidas estão na Califórnia,
que define carros autônomos de acordo com as características estabelecidas nos
Níveis 3-5 no padrão J3016 da Society of Automotive Engineers (SAE)
International. Entre outras coisas, diz o professor de direito da Universidade
de Miami, William Widen, esse padrão exige que motoristas de segurança
treinados realizem testes em AVs.
“As empresas que estão
testando veículos nos Níveis 3 e 4 têm feito isso principalmente em simulações
de computador e em pistas de teste, e têm feito testes limitados em rodovias
públicas”, diz Widen. “Mas mesmo quando estão testando em rodovias públicas,
dependendo do estado em que estão, eles podem precisar de permissão.”
A Tesla contorna tudo
isso afirmando que seus carros são apenas SAE Nível 2, definido como “automação
parcial de direção”. Mas Widen e o professor da Universidade Carnegie Mellon,
Philip Koopman, argumentaram que mesmo com base na própria descrição da Tesla
sobre o FSD, eles deveriam ser classificados em um nível mais alto.
Uma grande parte de
como essa classificação é decidida é a “intenção de design”, que se aplica
independentemente de o veículo realmente ser capaz de fazer o que foi projetado
para fazer. Em outras palavras, o fato de os carros operados pelo FSD da Tesla neste
estágio precisarem de supervisão humana constante e terem a tendência de
colidir com objetos parados não importa tanto para os reguladores quanto o fato
de que os carros são destinados a serem completamente autônomos um dia.
E quando se trata de
promover seu produto, a Tesla e Musk deixaram muito claro que é exatamente isso
que eles pretendem que os carros façam.
Já em 2016, Musk
anunciou que todos os carros da Tesla estavam sendo equipados com hardware que
eventualmente permitiria que os carros dirigissem sozinhos e que alcançaria
esse ponto por meio de “milhões de milhas de direção no mundo real”. Os
advogados da Tesla chamaram isso de “objetivo de longo prazo e aspiracional” em
uma ação coletiva por fraude sobre as promessas de Musk ao longo dos anos (e
constantemente não cumpridas) de que os carros seriam autônomos em um ano ou
dois. No mês passado, ele afirmou que a Tesla estava “muito perto de alcançar a
direção totalmente autônoma sem supervisão humana … talvez o que você chamaria
de [Nível SAE] quatro ou cinco, eu acho que ainda este ano.”
Ominosamente, porque
os “testadores beta” da Tesla também têm essa intenção de design em mente
quando estão avaliando as capacidades do carro, isso pode levar a situações
perigosas e acidentes nas estradas.
Quando um repórter da
CNN testou o software FSD em ruas movimentadas da cidade de Nova York, ele se
viu tendo que intervir rapidamente para impedir o carro de repente desviar para
o tráfego que vinha na direção oposta ou dirigir em obstáculos. Mas não há
garantia de que todos os “testadores beta” cada vez mais indiscriminadamente
escolhidos da Tesla mostrarão o mesmo cuidado e atenção — como mostram os
relatos de motoristas da Tesla que se envolvem em acidentes fatais enquanto
jogam videogame ou, de outra forma, falham em manter as mãos no volante.
Não é totalmente
surpreendente que uma empresa de carros sem escrúpulos possa se envolver em
enganos e até mesmo colocar em perigo o público para evitar regulamentações
governamentais. A grande questão é por que os reguladores da Califórnia estão
permitindo que a Tesla se aproveite disso. Para Widen e Koopman, o medo é que
“se essa má aplicação da lei e da regulamentação permanecer sem desafios, o
risco permanecerá de que outros participantes da indústria de AV, não apenas a
Tesla, possam usar essa ‘brecha’ para obter alguma vantagem em detrimento da
segurança.”
·
Dirigindo para o abismo
Ainda assim, até a
inação regulatória da Califórnia está muito à frente da maior parte do país,
com a maioria dos estados não tendo nada nas leis para regular AVs — ou pior.
“Algumas leis
estaduais não são projetadas para serem protetoras, mas para dar à empresa o
conforto de que podem testar em rodovias públicas no estado”, diz Widen. “Não é
realmente amigável ao consumidor ou ao público, mas à empresa.”
O estado de Nevada,
por exemplo, há muito tempo tem uma reputação de um cenário regulatório
amigável à indústria de AVs, permitindo que veículos em todos os níveis de
automação operem em ruas públicas e exigindo que atendam a uma “condição de
risco mínimo” — o que significa que se o carro não puder executar uma
determinada tarefa de direção, ele deve se colocar em um “estado razoavelmente
seguro”, o que pode significar parar.
Lá, os robo-táxis
foram implantados no centro de Las Vegas, e a Mercedes-Benz recentemente se
tornou a primeira empresa a lançar um veículo no nível 3 nos EUA, o que dá aos
motoristas humanos a opção de jogar videogames na tela do computador do carro.
(A Califórnia recentemente seguiu o exemplo.)
<><><>
“A maioria dos estados não tem nada nas leis para regular veículos autônomos.”
No Arizona, o
governador enfraqueceu as regulamentações de AV por ordem executiva em 2018
como um agrado para a indústria de AVs, incluindo o requisito de que tenham um
motorista humano atrás do volante. Duas semanas depois, uma mulher de Tempe se
tornou a primeira pessoa conhecida a ser morta pela tecnologia, quando um Uber
autônomo mostrou-se incapaz de reconhecer pedestres enquanto seu motorista
humano assistia ao programa de TV The Voice.
Também há questões
sobre onde os veículos autonômos estão sendo testados adequadamente. A
ferramenta de rastreamento de testes não abrangente da NHTSA mostra a maioria
dos testes em estrada ocorrendo na Califórnia, Arizona e Michigan, e está bem
representada na Flórida. De acordo com o Wall Street Journal, centenas de
carros autônomos estão sendo implantados não apenas na Califórnia, mas também
em Miami, Dallas, Austin e Nashville. Mas, exceto em Michigan, esses locais
podem não oferecer aos carros autônomos o mesmo tipo de condições que
predominam em outras partes do país, em um momento em que os veículos ainda têm
dificuldade em operar sob chuva intensa.
“Eles não funcionam
bem na chuva, não funcionam bem à noite e eu não conheço nenhum que funcione na
neve”, diz Widen. “Quando as linhas da pista estão cobertas, isso apresenta um
problema. Como isso funcionará na prática, eu não sei — não chove ou neva em
Vegas.”
Enquanto isso, em
alguns casos, os governos estaduais moveram-se para antecipar regulamentações
locais mais rigorosas sobre carros autônomos. A Conferência Nacional de
Legislaturas Estaduais (NCSL) lista oito dessas leis em vigor, sem incluir uma
lei da Pensilvânia permitindo testes de AVs sem motorista assinada no final do
mandato do ex-governador Tom Wolf. Esses projetos de lei muitas vezes têm sido
muitas vezes apoiados e trabalhados por uma indústria de compartilhamento de
carona interessada em economizar custos trabalhistas eliminando completamente o
motorista humano da equação.
• Sem futuro, mas o que fazemos?
Tradicionalmente, a
regulamentação de transporte foi dividida entre uma divisão federal-estadual,
com a NHTSA regulando os “aspectos de design e desempenho de segurança” de
veículos e equipamentos, e os estados regulando operações de veículos e os
próprios motoristas. Mas isso pode estar mudando à medida que os carros
autônomos borrifam a linha entre equipamento e motorista, com o Congresso dos EUA e as agências federais
mostrando sinais crescentes de que estão prontos para intervir.
A questão é qual forma
essa intervenção federal terá. O modelo será estados como Nevada, onde existem
regulamentações mais permissivas para apaziguar a indústria? Será a Califórnia,
onde teoricamente leis mais rígidas permanecem ociosas graças a reguladores
relutantes? Ou será um regime mais próximo ao da Europa, um que permita
cuidadosamente e realmente faça cumprir o desenvolvimento dessa tecnologia
emocionante, mas perigosa, e garanta que esteja realmente à altura antes de ser
implantada em grande escala em estradas públicas?
Isso será uma batalha
política por si só. Mas até então, os Elon Musks do mundo estão mais ou menos
livres para usar como cobaias o próprio público dos EUA que paga pelas estradas
e rodovias que eles usam como laboratório ao ar livre, com resultados mortais.
• Elon Musk também é ruim na administração
da Tesla
Desde que o desastroso
reinado do bilionário Elon Musk no Twitter começou no final do ano passado, os
analistas tiveram muita dificuldade em apontar as causas da queda do valor das
ações da Tesla. Claramente, a fixação e a desastrosa liderança de Musk na
plataforma de redes sociais diminuíram a confiança dos investidores na sua
outrora triunfante empresa de “carros autónomos”.
Mas não esqueçamos que
pode haver outro culpado: a proliferação de mortes e processos judiciais em
torno da empresa.
Cerca de 765.000
carros da Tesla estão equipados com os chamados sistemas “Autopilot” e “Full
Self-Driving” da empresa enquanto circulam pelas ruas dos EUA, um exemplo
chocante de testes com cobaias humanas em massa dos quais todos fazemos parte
involuntariamente. Ao longo de 2022, os carros Tesla com software Autopilot
estiveram envolvidos em 273 acidentes, de acordo com dados das agências
reguladoras, ou 70% dos 392 acidentes que envolveram todos os sistemas
avançados de assistência ao condutor. Escandalosamente, as agências reguladoras
descobriram que os veículos da Tesla tinham o hábito de desligar cerca de um
segundo antes do acidente realmente acontecer, e é por isso que os reguladores
ordenaram agora que os fabricantes de automóveis divulguem todos os acidentes
em que este tipo de software estava sendo usado dentro de trinta segundos após
o impacto para impedi-los de usar isso como uma brecha para subnotificar os
acidentes.
A situação ficou tão
ruim que a Administração Nacional de Segurança no Trânsito Rodoviário (NHTSA)
começou a investigar o software depois que os carros Tesla no piloto automático
continuaram batendo em veículos de emergência estacionados, muitas vezes à noite
e apesar de luzes piscando, cones e vários outros alertas. Em meados de 2022,
39 dos 48 acidentes que constam na lista de investigações especiais de
acidentes da NHTSA envolveram veículos da Tesla, que mataram 19 pessoas, e a
agência acelerou sua investigação até a fase final antes de potencialmente
emitir um recall. Um desses acidentes viu o Tesla simplesmente colidir com uma
motocicleta que estava à sua frente, matando o motorista, um dos muitos casos
que têm aumentado os dados sobre acidentes.
Parte do problema é
que os carros “autônomos” da Tesla não são realmente autônomos e exigem, como
diz o site da empresa, supervisão constante de um motorista “totalmente atento”
com as mãos no volante. A outra parte do problema é que você não saberia disso
pelos materiais de marketing da empresa ou pelas declarações públicas de seu
famoso CEO, que falavam sobre o software permitir que você viaje “sem tocar no
volante” e o motorista “sem fazer nada” porque “o carro está dirigindo sozinho”
– provavelmente por isso que alguns dos motoristas envolvidos nesses acidentes
estavam assistindo a um filme ou jogando videogame em seus telefones.
Não é de surpreender
que Musk e a empresa tenham sido levados ao tribunal por causa destes e de
outros escândalos. As famílias de 2 das vítimas entraram com ações judiciais
alegando que os veículos Tesla estão com defeito, não possuem sistema
automático de frenagem de emergência e “aceleraram repentina e
involuntariamente a uma velocidade excessiva, insegura e incontrolável”. Uma
ação coletiva lançada no ano passado acusou a Tesla de anunciar enganosamente
sua tecnologia de “direção autônoma” desde 2016 como totalmente funcional ou
próxima disso, enquanto outra levou Musk ao tribunal por alegar que um carro
totalmente autônomo estava a apenas um ou dois anos de distância – declarações
feitas em 2015. Outras ações judiciais coletivas alegam um problema de carros
parando repentinamente devido a obstáculos inexistentes e maçanetas defeituosas
que caem depois de alguns anos.
Outros processos
judiciais acusam que há mais coisas podres na Tesla do que na linha de
produção. A empresa foi alvo de pelo menos 10 processos, incluindo um do Estado
da Califórnia, por causa de altos níveis de discriminação racial na sua fábrica
em Fremont, Califórnia, incluindo o uso regular de insultos raciais e a
segregação de trabalhadores negros em áreas separadas. Um processo diferente
alega que Musk tem influência inadequada sobre o conselho de administração da
Tesla, que ele usou para obter um pacote salarial indevidamente.
Então, sim, a
incompetência de Musk na gestão do Twitter quase certamente prejudicou a
empresa que o tornou famoso. Mas esse empreendimento em si está repleto de
escândalos e incompetência fatal, lembrando-nos que toda a imagem de Musk, o
tal do “CEO genial”, era duvidosa muito antes dele se envolver na área das
redes sociais.
Fonte: Por Branko
Marcetic, com tradução de Sofia Schurig, para Jacobin Brasil
Nenhum comentário:
Postar um comentário