Mostrar mensagens com a etiqueta inteligência artificial. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta inteligência artificial. Mostrar todas as mensagens

20.1.23

O fosso digital que engole a pobreza

 


«Não me diga que não se passou consigo. De certeza que já tentou telefonar para o atendimento de uma plataforma digital de viagens, para as reclamações de uma empresa de comunicações ou para um serviço de um hospital. Talvez tenha ficado a ouvir um som inventado para o irritar e se, ao fim de uma paciência heroica, superou as barreiras de códigos e números, pode ter encalhado num call center do Paquistão ou de Cabo Verde, onde terá sido atendido com simpatia por alguém que pode não fazer a menor ideia do que está a tentar esclarecer. Pois, já sentiu o que é andar perdido nessas teias.

Agora imagine uma pessoa idosa, ou sem-abrigo, ou desempregada de longa duração, ou dependente de apoios sociais contra a miséria, perdida no labirinto digital que está a tornar-se o seu único acesso possível às prestações da Segurança Social. Não chega a ninguém, fica reduzida a uma marioneta do acaso. A inteligência artificial (IA) e a automação dos processos de certificação, distribuição e controlo dos apoios sociais estão a assassinar a Segurança Social — e o crime já avançou muito caminho.

O BURACO DIGITAL

A transformação dos serviços de Segurança Social pela automação conduzida pela IA já tem vários anos e tem progredido rapidamente. É festejada pelos Governos como uma forma de reduzir o pessoal e de evitar a tensão implícita na resolução de pedidos, reclamações e zangas em casos de pessoas em dificuldades. Como a máquina tem sempre razão e, em qualquer caso, o seu poder é absoluto, nem se incomoda com as consequências da sua decisão.

O filme de Ken Loach, “Eu, Daniel Blake”, tem seis anos e mostrava o desespero de um desempregado perante a burocracia que lhe impunha regras absurdas, que procurava o seu fracasso e, portanto, o excluiu do sistema. Sorte de Blake, dado que, perseguido, ainda via a cara dos seus algozes; para muitas das vítimas destes sistemas, isso deixou de ser viável. É o que demonstra um jornal britânico, o “The Guardian”, que tem publicado reportagens sobre os efeitos destes mecanismos e dos seus algoritmos. Descobriu que, na Austrália, a automação dos subsídios de desemprego elevou as suspensões de pagamento de 2018 para 2019 de 1,5 para 2,7 milhões de casos. Isso excluiu 55 mil pessoas sem-abrigo (estavam registadas 60 mil) e 85% das mães solteiras com crianças de menos de cinco anos. No mesmo país, o escândalo da “robô dívida” comprovou que o Fisco estava a reclamar dívidas inexistentes, o algoritmo estava errado.

No Michigan, Estados Unidos, foi introduzido em 2013 um sistema automatizado no apoio aos desempregados, que nesse ano excluiu cinco vezes mais pessoas do que em 2012. Seis anos depois, com 20 mil vítimas, o tribunal concluiu que a decisão estava errada em 93% dos casos e que o problema não era uma falha do programa, era o próprio conceito do programa, que considerava indício de crime qualquer desvio ao padrão definido (por exemplo, não ter atendido um telefonema aleatório de controlo), mas a miséria teve um preço, despejos e famílias destruídas. No Illinois, milhares de pessoas foram intimidadas pela máquina a pagar 30 anos de dívidas fiscais que não existiam. E voltamos ao mesmo problema: com quem falam para explicar que é um erro? Mesmo que se encontrasse um funcionário da Segurança Social, a autoridade da máquina não pode ser posta em causa.

ENTRA O PRÉMIO NOBEL

Jean Tirole, Prémio Nobel da Economia de 2014, publicou há um ano um artigo sobre digital dytopia na “American Economic Review”. O título é assustador e, como explica o autor, trata-se de um trabalho de “ficção científica social”, para “compreender os canais pelos quais se pode desenvolver uma sociedade distópica”. O seu exemplo de partida é o sistema de pontuação social da China que, desde 2014, organiza o controlo social e sanções do Estado para suprimir dissensões e atemorizar a população. Mas Tirole quer saber como Governos não considerados autoritários estimulam mecanismos do mesmo tipo: a distopia digital é por isso estudada em organizações sem poder de coerção, mas que controlam informação pessoal e podem reconfigurar as redes de sociabilidade, por exemplo, impondo danos reputacionais. Retoma para isso a correspondência entre Huxley e Orwell, quando este publicou “1984”, e em que discutiam se a repressão e o medo podem ser substituídos pela persuasão e pelo conformismo. A conclusão de Tirole é que o conformismo perante o poder algorítmico se tornou a forma deste pesadelo distópico. As máquinas de IA decidem e só nos resta aceitar.

AINDA NÃO ACABOU

Philip Alston, relator da ONU para a pobreza, tem sido das vozes mais duras contra estas “zonas livres de direitos humanos” que são os universos da decisão maquinal em Segurança Social, e critica os Governos que “caem como zombies na distopia digital”. O deslumbramento tecnológico (no caso do Governo português, os ídolos são as criptomoedas) tem impulsionado estes processos de automação e erguido novas barreiras de exclusão. Há ainda a outra face da moeda, que é a entrega da gestão de sistemas de informação a empresas como Visa (Austrália), IBM (Canadá, EUA, Alemanha, Nova Zelândia) ou Mastercard (África do Sul, incluindo neste caso a distribuição de apoios sociais).

Aqui tem o mapa: multinacionais e algoritmos a gerirem os ratos de laboratório que são os pobres, quem é que quer saber desta maravilhosa distopia digital?»

.

4.6.19

Matar o bebé ou a avózinha?



«A utilização de sistemas baseados em inteligência artificial na tomada de decisões tem levantado diversas questões, muitas delas relacionadas com a suposta incapacidade destes sistemas para partilharem e adoptarem valores éticos e morais. Algumas das questões mais complexas estão relacionadas com a necessidade de sistemas deste tipo poderem ser forçados a tomar decisões em situações que envolvem a vida ou a morte de seres humanos, sem um adequado enquadramento ético e moral.

Embora este tipo de situações seja comum em diversas áreas, muitos dos problemas podem ser colocados como variações de um problema específico, que é conhecido como o problema do elétrico (the trolley problem). Neste problema, a pessoa é confrontada com decisões que envolvem a vida ou a morte de terceiros e tem de enfrentar os dilemas morais que essas decisões implicam. O problema é interessante e intrigante, e tem merecido muita atenção por parte de filósofos, sociólogos e cientistas, porque ligeiras variações da mesma pergunta conduzem a respostas muito diferentes.

A ideia subjacente ao problema do eléctrico é muito simples de descrever. Num hipotético cenário, um eléctrico desce, desgovernado, pelos carris de uma rua inclinada, e vai garantidamente matar cinco pessoas que estão na linha do eléctrico, uns metros mais abaixo. Porém, o leitor está mesmo ao lado de uma alavanca de controlo que, se accionada, desvia o eléctrico para uma rua lateral, onde apenas se encontra uma outra pessoa que, lamentavelmente, morrerá, se o eléctrico for desviado. A pergunta é se o leitor accionaria ou não a alavanca, salvando cinco pessoas de uma morte certa, mas sacrificando uma outra pessoa que, sem essa intervenção, nada sofreria. Antes de avançar na leitura, peço-lhe que pense se accionaria, ou não, a alavanca, nestas condições.

Embora as pessoas respondam de forma diferente a esta pergunta, a questão torna-se mais interessante quando variações da mesma são consideradas. Por exemplo, num segundo hipotético cenário, o mesmo eléctrico desgovernado pode ser bloqueado se o leitor empurrar para a frente do eléctrico uma pessoa corpulenta que, por acaso, se encontra mesmo na posição certa para deter o veículo, se for atirada para a linha. Num terceiro hipotético cenário, o leitor é um cirurgião, e estão nas urgências cinco pacientes que morrerão se não tiverem, imediatamente, um transplante de coração, de rins, de fígado, de pulmões e de pâncreas, respectivamente. Por mero acaso, é admitido um sexto paciente com uma ferida ligeira que é compatível, em termos de transplante de órgãos, com os outros cinco pacientes. Faria o leitor as operações de transplante que salvariam os cinco primeiros pacientes, sacrificando o sexto?

Todas as situações têm em comum o facto de ser possível salvar cinco pessoas sacrificando apenas uma. Mas as escolhas que cada um de nós faria em cada uma das situações são, geralmente, diferentes e reflectem uma avaliação dos valores éticos e morais que vai para além da simples contabilização do número de pessoas que vivem e que morrem. Muitas pessoas consideram natural desviar o eléctrico, no cenário original, mas poucas considerariam ética a execução dos transplantes.

O problema do eléctrico, que foi uma questão puramente teórica e filosófica até há poucos anos atrás, tornou-se subitamente muito popular quando os avanços tecnológicos tornaram não só possível, mas até provável, que sistemas inteligentes possam ser forçados a tomar decisões de vida ou de morte. A situação mais óbvia está relacionada com sistemas de condução autónoma, mas de facto a necessidade de tomar decisões de vida ou de morte pode ocorrer em diversos outros ambientes, como hospitais, fábricas ou estaleiros.

No caso mais óbvio, um sistema de condução autónoma pode ser obrigado a tomar, numa fracção de segundo, uma decisão onde seja obrigado a escolher, por exemplo, entre a morte de um transeunte na passadeira (atropelado) ou a morte do ocupante do veículo (numa colisão quando o veículo é desviado). Muitos outros cenários deste tipo são antecipáveis, existindo a percepção que os sistemas de condução autónoma deveriam reagir correctamente em cada uma destas situações. A dificuldade advém do facto de as decisões poderem ser muito complexas, e difíceis de formalizar de forma clara e completa. As hipotéticas situações são muito numerosas, e a decisão “correcta” (se é que a palavra pode ser aplicada) depende de muitos factores que são difíceis de identificar. Os numerosos estudos que têm sido feitos sobre este assunto, muitos deles baseados em inquéritos e entrevistas, não conseguiram chegar a uma conclusão clara sobre os valores éticos e morais que devem guiar estas decisões. Num recente trabalho de investigadores do MIT, que foi publicado num artigo intitulado “The Moral Machine experiment”, as respostas de milhões de pessoas a dilemas deste tipo foram processadas para tentar identificar um conjunto de regras que fossem minimamente consensuais. Neste estudo, as perguntas (publicamente disponíveis na Web, num site designado The Moral Machine, ao qual o leitor pode aceder) foram colocadas do ponto de vista de um condutor, que pode decidir, por exemplo entre atropelar um bebé ou uma avó; entre causar a morte dos ocupantes do carro ou atropelar uma senhora grávida na passadeira; ou entre atropelar um gato ou um cão. As perguntas são muito variadas e os resultados demonstraram que as opções que são tomadas por cada pessoa são muito afectadas pela sua cultura, pelas suas características individuais (idade, sexo, religião, etc) e pela zona do globo onde vivem. Apesar destas variações, algumas tendências gerais ficaram claras, e podem, em princípio, ser usadas como ponto de partida para a adopção de regulamentação, procedimentos e métodos. Um curioso e intrigante resultado é que talvez as regras devam variar com o local no globo onde os eventos acontecem (e onde os carros são vendidos).

Mas talvez a conclusão mais importante destes estudos, e que resulta também do nosso cada vez mais profundo conhecimento destas questões, é a de que os problemas éticos não resultam, realmente, da adopção de algoritmos e de inteligência artificial. Os dilemas sempre existiram, e decisões difíceis como as que aparecem no problema do eléctrico sempre foram necessárias. Porém, quando essas decisões são tomadas por seres humanos, muitas vezes numa fracção de segundo, apenas podemos confiar na intuição e no bom senso de cada um, características que resultam da combinação de um longo processo evolutivo e da história de cada indivíduo. A utilização de sistemas inteligentes obriga-nos a perceber, de forma mais profunda e sistemática, quais os critérios que são comuns, ou mais consensuais, a diferentes culturas e que correspondem, assim, a uma percepção partilhada dos valores éticos e morais que, embora variem de região para região e de pessoa para pessoa, exibem características comuns. A inteligência artificial poderá assim contribuir, algo surpreendentemente, para o desenvolvimento de uma sociedade mais ética e mais justa, à medida que percebemos de forma mais profunda os reais valores que partilhamos.»

.