Os meandros da lógica, a ética e a segurança dos aviões

Reinaldo José Lopes

É com muita alegria que recebo mais um pesquisador brasileiro como colaborador do blog. Desta vez, quem escreve o post é o professor Walter Carnielli, do Centro de Lógica, Epistemologia e História da Ciência e
Departamento de Filosofia do IFCH, na Unicamp. Num trabalho que combina grande erudição e clareza, mesclando temas como psicologia evolutiva, história da filosofia e lógica, o professor Carnielli analisa os acidentes aéreos pelo prisma dessa disciplinas. Vale conferir abaixo.

—————-

Como a falta de lógica pode matar

Na década de 1970, os psicólogos e economistas Daniel Kahneman e Amos Tversky mostraram definitivamente que os humanos não são criaturas muito racionais. Kahneman e Tversky descobriram “vieses cognitivos” bastante frequentes, mostrando que os humanos sistematicamente fazem escolhas que desafiam a lógica, ou pelo menos a lógica tradicional. Kahneman, ganhador do Prêmio Nobel de Economia em 2002, reconheceu, em seu trabalho com Tversky, algo que é muitas vezes negligenciado: que ser irracional pode ser uma coisa boa para nós, humanos. Nem sempre tomamos decisões pesando cuidadosamente os fatos, mas surpreendentemente muitas vezes tomamos as melhores decisões mesmo assim.

Como isso é possível? Primeiro, temos que ter claro que a racionalidade não deixa de ter um forte componente social. O principal papel do raciocínio na tomada de decisão, seja por um gerente, por um governante ou por um matemático, não é chegar à mais perfeita decisão, mas poder apresentar a decisão como algo racional.

Platão e Aristóteles se referiam pejorativamente aos sofistas, alertando para os vícios da filosofia e de certos filósofos: autopromoção através da fala e tentativa de vitória a qualquer custo pelo discurso eloquente. Mas Aristóteles não se referia a sofistas como meros malandros; reconhecia de alguma forma, o poder do seu pensamento. Desde Platão e Aristóteles o esforço para se refinar as ferramentas da razão, livrando-as de falácias, vieses cognitivos e erros de toda espécie tem sido constante e ainda está em curso.

Juízes, magistrados do Supremo Tribunal Federal, cientistas, legisladores e governantes ainda hoje, 20 séculos depois de Platão e Aristóteles, cometem erros sistemáticos — e isso tem que ser avaliado a todo instante. Em um artigo recente a respeito da racionalidade jurídica no acolhimento a vítimas de agressão sexual, “A survivor speaks” (“Uma sobrevivente fala”, Aeon, 07/03/2019), Linda Martin Alcoff, professora de filosofia do Hunter College da Universidade da Cidade de Nova York, mostra como vítimas de agressão sexual são comumente julgadas pela consistência de sua história. Estudos constataram que a consistência, no sentido da coerência sistemática, foi o critério mais citado pelo qual os jurados avaliam a credibilidade da vítima. Eles procuram coerência nas declarações do acusador, e esperam consistência nos mínimos detalhes no comportamento pós-ataque da vítima.

Mas a consistência não é um caminho especial que conduz à verdade. A consistência global, absoluta, pode parecer uma medida relativamente objetiva, livre do viés implícito que afeta julgamentos de credibilidade. Mas, se empregada indiscriminadamente, como lembra Alcoff, a consistência pode ser uma ferramenta usada pelos poderosos contra os vulneráveis. Acolher a contradição em uma parte ou outra do processo pode ser saudável — uma narrativa lateral pode ser qualificada de inconsistente, e a partir daí avaliar uma contradição a respeito de um certo aspecto o qual já aceitamos como inconsistente pode se revelar uma atitude mais racional do que aquela de exigir coerência ou consistência absoluta em todos os detalhes.

A demanda cega por consistência, segundo Alcoff, revela-se um erro em pelo menos quatro esferas. Uma é a incapacidade de perceber que a inconsistência não significa engano, especialmente se se tratar de detalhes periféricos. Em segundo lugar, a demanda por consistência encoraja as vítimas a criar uma narrativa que possa ser memorizada e apresentada de forma simples, mas que talvez seja menos verdadeira.

Terceiro, as pessoas raciocinam dinamicamente, e uma atitude racional tem que levar em conta a maneira maleável de os humanos chegarem a conclusões; sob a pressão de uma situação traumática, como um assalto ou a falência de um casamento, é provável que reavaliemos seu significado, nossas ações e a culpabilidade ou não da outra parte. As partes de um processo não deveriam ser tratadas como como meras fontes das quais a “verdade” deve ser extraída.

Surpreendentemente, isso tem muito a ver com as falhas do modelo 737 MAX da Boeing que levou à queda de duas aeronaves recentemente. O acidente com o voo 302 da Ethiopian Airlines em 10 de março deixou 157 mortos, de 35 nacionalidades. Foi o segundo acidente com o mesmo modelo de avião em cinco meses; em 28 de outubro de 2018, um jato da companhia Lion Air da Indonésia caiu no mar perto da capital, Jacarta, matando 189 pessoas.

Segundo reportagem do New York Times publicada em 21 de março de 2019 e traduzida pela Folha no mesmo dia, os pilotos das aeronaves da Boeing que caíram na Etiópia e na Indonésia lutaram para controlar os aviões, mas eles não tinham clareza sobre duas importantes aspectos de segurança, pelas quais a Boeing pretende aumentar seu lucro: primeiro, eles provavelmente não tinham consciência que certos dispositivos no novo modelo 737 MAX da Boeing podem apresentar leituras contraditórias; segundo, eles não tinham à disposição dispositivos de segurança, vendidos pela própria Boeing, que reconhecem que em certos casos a exigência de consistência bruta deve ser deixada de lado, e as causas da contradição na leitura devem ser avaliadas humanamente. Muitas companhias menores ou de baixo custo, como as que sofreram o acidente, não compram esses “serviços extras”.

O Boeing 737 MAX difere do modelo anterior por ser maior e mais pesado, entre outras diferenças, e por ter um software conectado à leitura do “ângulo de ataque”, ligado a outro software criado para ajudar os pilotos a manter a aeronave na posição adequada às condições de voo. O software de controle de voo é um sistema chamado MCAS (Sistema de Aumento de Características de Manobra).

De acordo com a publicação de comércio aéreo The Air Current, um problema dos antigos Boeing 737 pode ter reaparecido pelo menos no voo 302 da Ethiopian Airlines. A publicação conversou com um ex-engenheiro de controle de vôo da Boeing, Peter Lemme, juntamente com um piloto australiano do Boeing 737. Ambos disseram que certas informações cruciais sobre o estabilizador horizontal das aeronaves foram removidas dos manuais de treinamento das gerações subsequentes do Boeing 737.

As leituras de dois dispositivos (tipo catavento, chamados de sensores de ângulo de ataque) determinam o quanto o nariz do avião está apontado para cima ou para baixo em relação ao movimento do ar. O MCAS pode automaticamente baixar o nariz do avião quando detecta que está apontando para cima em um ângulo perigoso, tentando evitar que ele entre em estol (perda de sustentação) . Isso funciona quando os sensores concordam — mas o que acontece quando existe uma contradição na leitura dos sensores?

Há uma forte evidência de que dados defeituosos dos sensores de ângulo podem ter causado o mau funcionamento do sistema MCAS. Aqui entra em jogo a consistência. A Boeing sabe perfeitamente que, se os pilotos pudessem ler o mostrador de ângulo de ataque, que mostra a leitura dos dois sensores, e tivessem clareza da possibilidade de contradição, eles poderiam ter notado a incoerência, poderiam ter desligado o MCAS e retomado o controle.

A Boeing sabe que em meio a uma situação de inconsistência temporária, os sinais contraditórios de dispositivos em mal funcionamento podem ser avaliados, e decisões salvadoras podem ser tomadas por pilotos humanos. Um outro dispositivo de segurança, além da leitura do ângulo de ataque, é a chamada “luz de divergência”, que é ativada quando esses sensores não concordam entre si.

A luz de divergência é a própria materialização da situação de inconsistência, que vai permitir analisar os sinais contraditórios e evitar a tomada de decisões automática e fatal. Softwares ainda não têm um “chip ético”, que raciocine dinamicamente como nós humanos, de modo maleável, para chegar a conclusões sob a pressão de uma situação traumática. A consistência, como alerta Alcoff, não é um caminho nobre que conduz necessariamente à verdade. Ter uma racionalidade diferente da de um software, que segue a chamada lógica clássica (porque foi assim construído) é uma vantagem evolutiva que nós, humanos, possuímos, como se segue do trabalho de Kahneman e Tversky.

Há tempos muitos cientistas e filósofos concordam que a lógica tradicional (ou clássica) está no caminho errado no que se refere a avaliar contradições
do nosso arsenal de conhecimentos ou crenças. Isso tem funcionado como motivação para muitos pesquisadores que têm proposto sistemas de lógica que nos permitem lidar com situações contraditórias, e impedi-los de explodir com consequências absurdas.

Tais sistemas ficaram conhecidos como paraconsistentes, representados no país pela chamada “escola brasileira de lógica”, ligada a Newton da Costa, e bastante desenvolvida por pesquisadores mais recentes nas universidades brasileiras e muitas estrangeiras . As chamadas “lógicas da inconsistência formal”, um ramo desenvolvido no Brasil e internacionalmente reconhecido, tem precisamente como princípio que a consistência tem graus, e que em situações de inconsistência os sinais contraditórios podem ser avaliados, de tal forma a se chegar a decisões que, se não as mais perfeitas, pelos menos podem ser apresentadas como racionais.

A Boeing implicitamente. acredita na lógica paraconsistente, e seus mecanismos de segurança, que são vendidos como extras, são perfeitamente compatíveis com as lógicas da inconsistência formal brasileiras. A luz de divergência e os indicadores de ângulo de ataque que a Boeing vende são vitais para a segurança, mas foram reservadas a quem pagasse, sem se preocupar com vidas. As funções adicionais que geram lucros para os fabricantes de aeronaves vendem caro a lógica que não custa mais do que os parcos valores investidos em pesquisa, e que alertaria os pilotos e a equipe de manutenção. O movimento de esconder —para vender mais caro— a lógica correta custou pelo menos 346 vidas. Por enquanto, infelizmente.