«A utilização de sistemas baseados em inteligência artificial na tomada de decisões tem levantado diversas questões, muitas delas relacionadas com a suposta incapacidade destes sistemas para partilharem e adoptarem valores éticos e morais. Algumas das questões mais complexas estão relacionadas com a necessidade de sistemas deste tipo poderem ser forçados a tomar decisões em situações que envolvem a vida ou a morte de seres humanos, sem um adequado enquadramento ético e moral.
Embora este tipo de situações seja comum em diversas áreas, muitos dos problemas podem ser colocados como variações de um problema específico, que é conhecido como o problema do elétrico (the trolley problem). Neste problema, a pessoa é confrontada com decisões que envolvem a vida ou a morte de terceiros e tem de enfrentar os dilemas morais que essas decisões implicam. O problema é interessante e intrigante, e tem merecido muita atenção por parte de filósofos, sociólogos e cientistas, porque ligeiras variações da mesma pergunta conduzem a respostas muito diferentes.
A ideia subjacente ao problema do eléctrico é muito simples de descrever. Num hipotético cenário, um eléctrico desce, desgovernado, pelos carris de uma rua inclinada, e vai garantidamente matar cinco pessoas que estão na linha do eléctrico, uns metros mais abaixo. Porém, o leitor está mesmo ao lado de uma alavanca de controlo que, se accionada, desvia o eléctrico para uma rua lateral, onde apenas se encontra uma outra pessoa que, lamentavelmente, morrerá, se o eléctrico for desviado. A pergunta é se o leitor accionaria ou não a alavanca, salvando cinco pessoas de uma morte certa, mas sacrificando uma outra pessoa que, sem essa intervenção, nada sofreria. Antes de avançar na leitura, peço-lhe que pense se accionaria, ou não, a alavanca, nestas condições.
Embora as pessoas respondam de forma diferente a esta pergunta, a questão torna-se mais interessante quando variações da mesma são consideradas. Por exemplo, num segundo hipotético cenário, o mesmo eléctrico desgovernado pode ser bloqueado se o leitor empurrar para a frente do eléctrico uma pessoa corpulenta que, por acaso, se encontra mesmo na posição certa para deter o veículo, se for atirada para a linha. Num terceiro hipotético cenário, o leitor é um cirurgião, e estão nas urgências cinco pacientes que morrerão se não tiverem, imediatamente, um transplante de coração, de rins, de fígado, de pulmões e de pâncreas, respectivamente. Por mero acaso, é admitido um sexto paciente com uma ferida ligeira que é compatível, em termos de transplante de órgãos, com os outros cinco pacientes. Faria o leitor as operações de transplante que salvariam os cinco primeiros pacientes, sacrificando o sexto?
Todas as situações têm em comum o facto de ser possível salvar cinco pessoas sacrificando apenas uma. Mas as escolhas que cada um de nós faria em cada uma das situações são, geralmente, diferentes e reflectem uma avaliação dos valores éticos e morais que vai para além da simples contabilização do número de pessoas que vivem e que morrem. Muitas pessoas consideram natural desviar o eléctrico, no cenário original, mas poucas considerariam ética a execução dos transplantes.
O problema do eléctrico, que foi uma questão puramente teórica e filosófica até há poucos anos atrás, tornou-se subitamente muito popular quando os avanços tecnológicos tornaram não só possível, mas até provável, que sistemas inteligentes possam ser forçados a tomar decisões de vida ou de morte. A situação mais óbvia está relacionada com sistemas de condução autónoma, mas de facto a necessidade de tomar decisões de vida ou de morte pode ocorrer em diversos outros ambientes, como hospitais, fábricas ou estaleiros.
No caso mais óbvio, um sistema de condução autónoma pode ser obrigado a tomar, numa fracção de segundo, uma decisão onde seja obrigado a escolher, por exemplo, entre a morte de um transeunte na passadeira (atropelado) ou a morte do ocupante do veículo (numa colisão quando o veículo é desviado). Muitos outros cenários deste tipo são antecipáveis, existindo a percepção que os sistemas de condução autónoma deveriam reagir correctamente em cada uma destas situações. A dificuldade advém do facto de as decisões poderem ser muito complexas, e difíceis de formalizar de forma clara e completa. As hipotéticas situações são muito numerosas, e a decisão “correcta” (se é que a palavra pode ser aplicada) depende de muitos factores que são difíceis de identificar. Os numerosos estudos que têm sido feitos sobre este assunto, muitos deles baseados em inquéritos e entrevistas, não conseguiram chegar a uma conclusão clara sobre os valores éticos e morais que devem guiar estas decisões. Num recente trabalho de investigadores do MIT, que foi publicado num artigo intitulado “The Moral Machine experiment”, as respostas de milhões de pessoas a dilemas deste tipo foram processadas para tentar identificar um conjunto de regras que fossem minimamente consensuais. Neste estudo, as perguntas (publicamente disponíveis na Web, num site designado The Moral Machine, ao qual o leitor pode aceder) foram colocadas do ponto de vista de um condutor, que pode decidir, por exemplo entre atropelar um bebé ou uma avó; entre causar a morte dos ocupantes do carro ou atropelar uma senhora grávida na passadeira; ou entre atropelar um gato ou um cão. As perguntas são muito variadas e os resultados demonstraram que as opções que são tomadas por cada pessoa são muito afectadas pela sua cultura, pelas suas características individuais (idade, sexo, religião, etc) e pela zona do globo onde vivem. Apesar destas variações, algumas tendências gerais ficaram claras, e podem, em princípio, ser usadas como ponto de partida para a adopção de regulamentação, procedimentos e métodos. Um curioso e intrigante resultado é que talvez as regras devam variar com o local no globo onde os eventos acontecem (e onde os carros são vendidos).
Mas talvez a conclusão mais importante destes estudos, e que resulta também do nosso cada vez mais profundo conhecimento destas questões, é a de que os problemas éticos não resultam, realmente, da adopção de algoritmos e de inteligência artificial. Os dilemas sempre existiram, e decisões difíceis como as que aparecem no problema do eléctrico sempre foram necessárias. Porém, quando essas decisões são tomadas por seres humanos, muitas vezes numa fracção de segundo, apenas podemos confiar na intuição e no bom senso de cada um, características que resultam da combinação de um longo processo evolutivo e da história de cada indivíduo. A utilização de sistemas inteligentes obriga-nos a perceber, de forma mais profunda e sistemática, quais os critérios que são comuns, ou mais consensuais, a diferentes culturas e que correspondem, assim, a uma percepção partilhada dos valores éticos e morais que, embora variem de região para região e de pessoa para pessoa, exibem características comuns. A inteligência artificial poderá assim contribuir, algo surpreendentemente, para o desenvolvimento de uma sociedade mais ética e mais justa, à medida que percebemos de forma mais profunda os reais valores que partilhamos.»
.