«Não me diga que não se passou consigo. De certeza que já tentou telefonar para o atendimento de uma plataforma digital de viagens, para as reclamações de uma empresa de comunicações ou para um serviço de um hospital. Talvez tenha ficado a ouvir um som inventado para o irritar e se, ao fim de uma paciência heroica, superou as barreiras de códigos e números, pode ter encalhado num call center do Paquistão ou de Cabo Verde, onde terá sido atendido com simpatia por alguém que pode não fazer a menor ideia do que está a tentar esclarecer. Pois, já sentiu o que é andar perdido nessas teias.
Agora imagine uma pessoa idosa, ou sem-abrigo, ou desempregada de longa duração, ou dependente de apoios sociais contra a miséria, perdida no labirinto digital que está a tornar-se o seu único acesso possível às prestações da Segurança Social. Não chega a ninguém, fica reduzida a uma marioneta do acaso. A inteligência artificial (IA) e a automação dos processos de certificação, distribuição e controlo dos apoios sociais estão a assassinar a Segurança Social — e o crime já avançou muito caminho.
O BURACO DIGITAL
A transformação dos serviços de Segurança Social pela automação conduzida pela IA já tem vários anos e tem progredido rapidamente. É festejada pelos Governos como uma forma de reduzir o pessoal e de evitar a tensão implícita na resolução de pedidos, reclamações e zangas em casos de pessoas em dificuldades. Como a máquina tem sempre razão e, em qualquer caso, o seu poder é absoluto, nem se incomoda com as consequências da sua decisão.
O filme de Ken Loach, “Eu, Daniel Blake”, tem seis anos e mostrava o desespero de um desempregado perante a burocracia que lhe impunha regras absurdas, que procurava o seu fracasso e, portanto, o excluiu do sistema. Sorte de Blake, dado que, perseguido, ainda via a cara dos seus algozes; para muitas das vítimas destes sistemas, isso deixou de ser viável. É o que demonstra um jornal britânico, o “The Guardian”, que tem publicado reportagens sobre os efeitos destes mecanismos e dos seus algoritmos. Descobriu que, na Austrália, a automação dos subsídios de desemprego elevou as suspensões de pagamento de 2018 para 2019 de 1,5 para 2,7 milhões de casos. Isso excluiu 55 mil pessoas sem-abrigo (estavam registadas 60 mil) e 85% das mães solteiras com crianças de menos de cinco anos. No mesmo país, o escândalo da “robô dívida” comprovou que o Fisco estava a reclamar dívidas inexistentes, o algoritmo estava errado.
No Michigan, Estados Unidos, foi introduzido em 2013 um sistema automatizado no apoio aos desempregados, que nesse ano excluiu cinco vezes mais pessoas do que em 2012. Seis anos depois, com 20 mil vítimas, o tribunal concluiu que a decisão estava errada em 93% dos casos e que o problema não era uma falha do programa, era o próprio conceito do programa, que considerava indício de crime qualquer desvio ao padrão definido (por exemplo, não ter atendido um telefonema aleatório de controlo), mas a miséria teve um preço, despejos e famílias destruídas. No Illinois, milhares de pessoas foram intimidadas pela máquina a pagar 30 anos de dívidas fiscais que não existiam. E voltamos ao mesmo problema: com quem falam para explicar que é um erro? Mesmo que se encontrasse um funcionário da Segurança Social, a autoridade da máquina não pode ser posta em causa.
ENTRA O PRÉMIO NOBEL
Jean Tirole, Prémio Nobel da Economia de 2014, publicou há um ano um artigo sobre digital dytopia na “American Economic Review”. O título é assustador e, como explica o autor, trata-se de um trabalho de “ficção científica social”, para “compreender os canais pelos quais se pode desenvolver uma sociedade distópica”. O seu exemplo de partida é o sistema de pontuação social da China que, desde 2014, organiza o controlo social e sanções do Estado para suprimir dissensões e atemorizar a população. Mas Tirole quer saber como Governos não considerados autoritários estimulam mecanismos do mesmo tipo: a distopia digital é por isso estudada em organizações sem poder de coerção, mas que controlam informação pessoal e podem reconfigurar as redes de sociabilidade, por exemplo, impondo danos reputacionais. Retoma para isso a correspondência entre Huxley e Orwell, quando este publicou “1984”, e em que discutiam se a repressão e o medo podem ser substituídos pela persuasão e pelo conformismo. A conclusão de Tirole é que o conformismo perante o poder algorítmico se tornou a forma deste pesadelo distópico. As máquinas de IA decidem e só nos resta aceitar.
AINDA NÃO ACABOU
Philip Alston, relator da ONU para a pobreza, tem sido das vozes mais duras contra estas “zonas livres de direitos humanos” que são os universos da decisão maquinal em Segurança Social, e critica os Governos que “caem como zombies na distopia digital”. O deslumbramento tecnológico (no caso do Governo português, os ídolos são as criptomoedas) tem impulsionado estes processos de automação e erguido novas barreiras de exclusão. Há ainda a outra face da moeda, que é a entrega da gestão de sistemas de informação a empresas como Visa (Austrália), IBM (Canadá, EUA, Alemanha, Nova Zelândia) ou Mastercard (África do Sul, incluindo neste caso a distribuição de apoios sociais).
Aqui tem o mapa: multinacionais e algoritmos a gerirem os ratos de laboratório que são os pobres, quem é que quer saber desta maravilhosa distopia digital?»
.
0 comments:
Enviar um comentário