«Parece cada vez mais claro que a inteligência artificial (IA) não terá o bem como primeira prioridade. O uso de máquinas para decidir quem vive e quem morre corre o risco de se tornar banal debaixo do argumento da segurança dos países.
O contexto internacional, dominado pelo ódio e pela ganância, está a empurrar a tecnologia para o pior que nos pode dar. Drones letais, operações de desinformação e ciberataques sofisticados já não constituem nenhuma surpresa. A novidade é que as grandes empresas tecnológicas estão apostadas em acelerar desenvolvimentos para fins militares, ao serviço de líderes governamentais conflituosos, nem que para isso seja preciso fazer "delete" a questões éticas e empurrar alguma humanidade para a reciclagem. É a má política a impor as suas prioridades tecnológicas.
As linhas vermelhas são cada vez menos importantes. Esta semana, a Google abandonou o seu compromisso em não conceber ou implementar ferramentas de IA para uso em armas ou tecnologia de vigilância. A norma em não aplicar IA para fins que "possam causar danos gerais" ou que violem os direitos humanos existia desde 2018. Estava publicada na lista dos princípios da Google no item "aplicações de IA que não desenvolveremos". A sua remoção foi explicada pelos executivos da empresa tendo em conta a "competição global em curso pela liderança em IA dentro de um cenário geopolítico cada vez mais complexo". Argumentam que empresas, governos e organizações "devem trabalhar juntos para criar IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional".
A decisão não será só uma resposta ao rápido desenvolvimento da IA chinesa. Enquadra-se na aproximação das tecnológicas a Donald Trump, o que só prova a necessidade de uma vigilância internacional constante à IA.»
0 comments:
Enviar um comentário