A narrativa de ascensão da Tesla sempre esteve atrelada à promessa do Full Self-Driving (FSD), um pacote de software apresentado como prenúncio de uma era sem acidentes. No entanto, uma investigação recente da emissora pública suíça RTS sugere que essa visão pode ter sido sustentada por uma supressão sistemática de falhas. O relatório alega que a Tesla ocultou milhares de incidentes, incluindo acidentes fatais, num esforço para evitar intervenção regulatória e garantir a continuidade dos testes de seus sistemas autônomos em vias públicas.

As implicações de uma lacuna de dados dessa magnitude são profundas. Para que veículos autônomos deixem de ser novidades experimentais e se tornem infraestrutura confiável, o ciclo de retroalimentação entre falha e aprimoramento precisa ser absoluto. Se as alegações forem precisas, a estratégia da Tesla indica que a iteração acelerada foi priorizada em detrimento da transparência exigida pela segurança pública. Ao obscurecer a frequência e a gravidade dos acidentes, a empresa pode ter contornado justamente os mecanismos de controle criados para avaliar se sua IA está de fato preparada para as complexidades do trânsito dominado por humanos.

A controvérsia chega num momento crítico para a indústria, em que a fronteira entre "assistência ao motorista" e "condução autônoma" permanece perigosamente borrada. Para reguladores e para o público, a pergunta já não é apenas quando a tecnologia estará pronta, mas quanto risco está sendo transferido para motoristas desavisados nesse meio-tempo. À medida que cresce a distância entre as promessas corporativas e a realidade das estradas, o custo da inovação passa a ser recalculado em termos cada vez mais humanos.

Com reportagem de RTS.

Source · Hacker News