Mostrar mensagens com a etiqueta AI. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta AI. Mostrar todas as mensagens

23.11.25

Prepare-se. Vai acontecer!

 


«Uma parafarmácia sem empregados, sem senhas, sem filas, totalmente gerida por inteligência artificial (IA), abriu ontem em Lisboa. É este o presente. Porém, nos últimos dias, enquanto o Governo foi acusado de querer desregular direitos dos trabalhadores e a UGT e a CGTP anunciaram uma greve geral conjunta, quase não se ouviu uma palavra sobre a transformação estrutural que a tecnologia está a impor ao mercado de trabalho.

Afinal, o que pensa o Governo sobre o impacto da IA no emprego? Qual é a estratégia do Estado para as profissões que começam a ser ameaçadas ou reconfiguradas? Que políticas estão a ser desenhadas para a formação ou requalificação dos trabalhadores?»

Continuar a ler AQUI.

15.11.25

O papel destrutivo do deslumbramento tecnológico na educação

 


«A notícia diz isto: “O Governo quer dar a cada aluno um tutor de inteligência artificial,” A notícia refere que o ministro da Reforma Administrativa fez esta promessa na abertura do Web Summit, o que presumo deve ter dado grande satisfação ao crescente e altamente lucrativo negócio à volta da inteligência artificial. Esta é mais uma medida “modernizadora” na sequência do computador Magalhães, dos quadros interactivos, da supremacia dos ecrãs relativamente aos livros. O único travão a este caminho foi a proibição dos telemóveis nas salas de aula, que abrange um número escasso de estudantes e está longe de ser aplicada como norma. Duvido que o actual ministro da Educação esteja tão disponível para os tutores de inteligência artificial e duvido que ambos se tenham entendido.

Ter e saber usar um computador é bom? Certamente que é. Saber “navegar” na Internet é bom? Em absoluto é, é aliás fundamental. Saber usar os ecrãs de telemóveis e tablets é bom? De novo, certamente que é, em particular no uso do hipertexto. Começar a usar as enormes vantagens da inteligência artificial é bom? É excelente, se houver inteligência dos dois lados.

Convém é não esquecer uma realidade tão básica, e que devia entrar pelos olhos dentro, ensinada pelos tutores de inteligência artificial usados pelos governantes: os homens são analógicos e não digitais. Têm sentidos que os limitam, não vêem tudo que está à sua volta, não ouvem tudo que está à sua volta, não têm memória das máquinas, envelhecem e não lêem como os jovens, não têm a velocidade de processar dados dos computadores, e toda a sua experiência de uma vida, tudo o que vêem, tudo o que ouvem, tudo o que dizem cabe em escassos terabytes. Mas combinam tudo numa realidade cuja dimensão é a da sua humanidade, razão, emoções, virtudes, medos, coragem e, acima de tudo, vida, escassa, pobre, difícil por regra. Pode haver um dia em que tudo isto possa ser entendido pelas máquinas, mas mesmo assim faltará sempre alguma coisa.

O problema não está aqui, está no modo como cada um destes instrumentos entra na escola e de modo mais geral na vida quotidiana e no trabalho das pessoas, e no que é que eles substituem nas políticas de educação e como afectam o processo de aprendizagem e, mais importante ainda, de socialização. E é aqui que entra um dos mais perversos e poderosos mecanismos que é a moda, a moda impulsionada pelo deslumbramento tecnológico, a ideia de que é mais “moderno” usar os instrumentos das novas tecnologias para realizar tarefas que implicam outro tipo de conhecimentos e uma sociabilidade mais rica. Ora, o que acontece é que elas são usadas com escassa vantagem, com efeitos negativos que vêm do modo como se inserem na sociedade, acentuando o individualismo, a solidão, o antagonismo, o conflito, e a ignorância. Nenhuma destas coisas vem das máquinas, vem do modo como estamos a construir o nosso viver, só que as máquinas oferecem um amplificador gigantesco para estas perversões sociais, e isso muda muita coisa. Uma das áreas em que os seus efeitos são mais devastadores é na educação e no ensino, impulsionadas por governantes que só querem ser “modernos” nestas coisas, e pelo cada vez mais importante negócio tecnológico.

A primeira coisa que este “tutor” artificial vai fazer é minimizar o papel do professor. Ora, o mecanismo mais importante na eficácia do ensino é a relação de empatia entre o estudante e o professor. Falar com uma máquina é uma coisa muito diferente do que com um humano e se, pelas piores razões – infelizmente, hoje demasiado comuns –, isso cria habituação e dependência, isso vai cada vez mais acentuar formas de solidão modernas e de sociabilidade pobre. É como considerar que os likes são uma forma de amizade e aceitação afectiva.

Depois, vai acentuar o caminho de ignorar que o uso capaz de todas as tecnologias, a começar pelo modo como se “procura” na rede, quanto mais dialogar com o “tutor”, depende de literacias a montante, que vão desde o mais simples ler, escrever e contar, todas em risco nos nossos dias. E parte desse risco também é resultado do deslumbramento tecnológico, com a desvalorização da leitura, e da escrita resultante do modo gutural como se “escreve” nas redes sociais, do vocabulário cada vez mais reduzido e do modo como essas ignorâncias se reflectem em dificuldades de compreensão.

A ideia de que os estudantes podem ler livros como Os Maias, de Eça, com o vocabulário restrito que possuem e usam, como também com a ruptura de saberes que estão presentes na nossa tradição cultural, como é a da Bíblia ou do mundo clássico greco-romano, é mirífica. A minha experiência de falar em dezenas de escolas do ensino secundário é a de encontrar centenas de estudantes que não sabem quem são Adão e Eva (com excepção dos evangélicos), já para não falar de Aquiles ou do Cavalo de Tróia. Como é que podem ler Eça? E esses mesmos estudantes não sabem o significado de palavras correntes no português de hoje, quanto mais vocábulos menos comuns mas circulantes na literatura.

Acresce que é evidente a diferenciação social entre falar para estudantes de colégios ou escolas em zonas “da alta” e de zonas que um eufemismo designa como “desfavorecidas”, onde a socialização pela escola é praticamente nula na competição entre a rua, o bairro e o telemóvel. Embora eu tenha esta experiência directa, não me limito a ela, todos os estudos a confirmam perante a impotência de professores e autoridades governativas.

Quem saiba história sabe que momentos como este, na história do mundo, já se verificaram e todos acabaram mal. É a sociedade que manda nas máquinas, e não o contrário, e é a sociedade que está mal. Não façam um upgrade tecnológico desse mal, porque fica pior.»


29.9.25

O algoritmo não vota, mas decide

 


«Sobre algoritmos que podem manipular eleições, calados. Sobre empregos que a automação ameaça, silêncio. Sobre literacia digital, nada.

Estamos em campanha eleitoral, na verdade em duas (autárquicas e presidenciais) que se atropelam no tempo, mas também nas promessas e nas declarações de intenções. É certo que não há nenhuma dúvida sobre os assuntos que mais importam aos portugueses: habitação, saúde, educação, salários e impostos. No entanto, é necessário colocar a inteligência artificial na ordem do dia. Necessário porque impacta, e de forma substancial, em praticamente todos os temas. Não chegam chavões sobre inovação e modernização. É preciso começar a agir no sentido de proteger os direitos digitais dos cidadãos. No fundo, proteger a democracia.»

Continuar a ler AQUI.

25.6.25

Terá sido a primeira guerra decidida por um algoritmo?

 


«Durante décadas, iniciar uma guerra exigia decisões humanas baseadas em provas, análises estratégicas e responsabilidade política. Hoje, esse modelo está a desmoronar. Estamos a entrar numa nova era da guerra por inferência algorítmica, onde a inteligência artificial (IA) já não apenas informa, mas pode desencadear ataques.

O bombardeamento dos EUA às instalações nucleares iranianas, alegadamente justificado por uma ameaça detetada por algoritmos da Palantir Technologies, é talvez o primeiro episódio concreto dessa transformação.

A acusação de que o Irão estaria a movimentar ou a montar um dispositivo nuclear não veio de espiões, nem da Agência Internacional de Energia Atómica (IAEA), mas alegadamente de uma inferência gerada por IA, operada por uma plataforma desenvolvida pela Palantir, empresa de análise de dados com fortes ligações ao Departamento de Defesa dos EUA e aos serviços secretos israelitas.

A narrativa passou rapidamente de hipótese algorítmica à decisão de um presidente impulsivo e consequentemente à intervenção militar. Este casamento entre software e soberania levanta inevitavelmente questões, como até que ponto pode um país delegar a sua segurança a uma empresa privada? E que implicações tem isso para a geopolítica global?

As instalações de Fordow, Natanz e Isfahan foram atacadas com bombas antibunker e mísseis de cruzeiro. No entanto, as imagens de satélite que se seguiram não revelaram danos visíveis ou colapsos estruturais. Os níveis de radiação mantiveram-se estáveis e não houve sinais sísmicos. O único impacto claro foi político, com o colapso da diplomacia como primeira linha de contenção.

Este cenário levanta-nos a dúvida se estamos a delegar decisões de guerra a máquinas ou a humanos. A IA é apresentada como objetiva e neutra, mas os algoritmos não são independentes, pois refletem os dados e os critérios com que são programados e treinados. O que se define como “risco” ou “ameaça” é uma escolha humana, disfarçada de cálculo matemático.

A Palantir, que fornece as ferramentas Gotham, Foundry e AIP/Mosaic, não é neutra. É uma empresa inserida no ecossistema do complexo militar-industrial, que lucra com a antecipação de ameaças. Quando essa antecipação se torna justificativa para a guerra, a diplomacia é substituída pelo reflexo automático. E o que vimos no Irão pode bem ter sido a primeira guerra desencadeada por premonição digital.

Mais grave é a erosão do escrutínio democrático. Um ataque justificado com “inteligência algorítmica classificada” escapa ao controlo de parlamentos, à verificação jornalística e ao debate público. A opacidade já não é apenas política, é técnica. E, nesse ambiente, os algoritmos transformam-se em escudos de impunidade.

Este ataque não marca apenas a entrada dos EUA no conflito entre Israel e o Irão. Marca o fim simbólico da verificação multilateral e o início de uma geopolítica automatizada. O que antes exigia consenso e inspeção, hoje basta que seja inferido por uma máquina.

No domingo passado, abriu-se uma verdadeira Caixa de Pandora no sistema internacional. As decisões mais perigosas para a paz mundial parecem estar a ser tomadas por máquinas que projetam comportamentos, sem provas concretas, nem validação humana. A confiança cega na tecnologia, vendida como eficiência, revela o seu lado mais sombrio, o de uma guerra gerada por dados mal interpretados.

Se outrora as guerras se venciam com território e armamento, hoje discutem-se em dashboards interativos e algoritmos preditivos. O que começou com uma linha de código pode terminar com uma cadeia de destruição impossível de travar, num mundo onde o juízo humano já não é pré-requisito para a guerra, mas uma variável descartável.»


7.2.25

Ensinadas para matar

 


«Parece cada vez mais claro que a inteligência artificial (IA) não terá o bem como primeira prioridade. O uso de máquinas para decidir quem vive e quem morre corre o risco de se tornar banal debaixo do argumento da segurança dos países.

O contexto internacional, dominado pelo ódio e pela ganância, está a empurrar a tecnologia para o pior que nos pode dar. Drones letais, operações de desinformação e ciberataques sofisticados já não constituem nenhuma surpresa. A novidade é que as grandes empresas tecnológicas estão apostadas em acelerar desenvolvimentos para fins militares, ao serviço de líderes governamentais conflituosos, nem que para isso seja preciso fazer "delete" a questões éticas e empurrar alguma humanidade para a reciclagem. É a má política a impor as suas prioridades tecnológicas.

As linhas vermelhas são cada vez menos importantes. Esta semana, a Google abandonou o seu compromisso em não conceber ou implementar ferramentas de IA para uso em armas ou tecnologia de vigilância. A norma em não aplicar IA para fins que "possam causar danos gerais" ou que violem os direitos humanos existia desde 2018. Estava publicada na lista dos princípios da Google no item "aplicações de IA que não desenvolveremos". A sua remoção foi explicada pelos executivos da empresa tendo em conta a "competição global em curso pela liderança em IA dentro de um cenário geopolítico cada vez mais complexo". Argumentam que empresas, governos e organizações "devem trabalhar juntos para criar IA que proteja as pessoas, promova o crescimento global e apoie a segurança nacional".

A decisão não será só uma resposta ao rápido desenvolvimento da IA chinesa. Enquadra-se na aproximação das tecnológicas a Donald Trump, o que só prova a necessidade de uma vigilância internacional constante à IA.»


12.5.24

Engana-me que eu gosto

 


Esta imagem, e várias outras que circulam nas redes sociais como a Torre de Belém, foram feitas com Inteligência Artificial (PromptCraft) e o seu autor indicou-o quando as publicou.

O que se passa é que gente pouco séria copia as imagens sem a informação dada por quem as criou. E mesmo quem partilha da fonte, fá-lo sem ler e tentar perceber o que lá está escrito. Não sabem que ninguém viu Aurora Boreal em Lisboa? 
.

2.6.23

Inteligência Artificial: um novo alerta, num contexto geopolítico imprevisível

 


«Mais de 350 especialistas e personalidades de topo acabam de publicar uma declaração alarmante sobre os perigos que podem resultar da expansão desregulada da Inteligência Artificial (IA). A lista de signatários é impressionante. Reúne os nomes mais conhecidos e mais influentes na matéria. Quase todos vivem nos Estados Unidos ou no Canadá, aos quais se juntam alguns académicos europeus e três chineses. As empresas representadas estão essencialmente baseadas na Califórnia. O depoimento é surpreendentemente breve. É um grito de alerta de uma só frase.

Aí se diz, na minha versão em português: "Mitigar o risco de extinção que pode advir da IA deverá ser uma prioridade global, e o mesmo se aplica a outros riscos de grande escala, tipo pandemias e guerra nuclear." Ao escrever extinção, referem-se à espécie humana. É uma afirmação muito séria, numa área tecnológica de ponta, de transformação social e de criação de riqueza, incluindo, como as últimas semanas o mostraram, de fortunas baseadas na valorização em bolsa de empresas de IA. É simultaneamente um aviso categórico, sem mais explicações. Porém, não pode ser ignorado. Provém de muitas das melhores cabeças na matéria.

Pode-se perguntar o que está por detrás dessa declaração. Mais, ainda. Recordo que em finais de março, Elon Musk e muitos outros assinaram um apelo a uma pausa de seis meses na expansão da IA. A petição, vinda de personalidades que têm sido pioneiras no desenvolvimento e na aplicação da IA, deixou muitos analistas perplexos. Tal como agora. Na essência, a moratória que sugeriam só seria levantada quando as autoridades - norte-americanas, na mente da maioria dos subscritores - tivessem adotado sistemas de controlo da IA, capazes de distinguir o real do falso, e posto em funcionamento as instituições de supervisão, suscetíveis de definir as regras e evitar a manipulação da opinião pública, nomeadamente nos domínios económicos e políticos. A referência à política encaixa nos que veem nas novas tecnologias instrumentos que podem ser utilizados para destruir a democracia por parte de ditadores de todas as cores, e de segmentos radicais, populistas e oportunistas.

Eles sabem do que falam. Mas hesitam em aprofundar algumas verdades que são de facto aterradoras. Não me refiro apenas à automatização dos postos de trabalho, que desta vez irá sobretudo afetar os "colarinhos brancos". A estrutura laboral será bastante diferente da atual, embora o ensino continue a formar futuros frustrados. Também não menciono os preconceitos, os enviesamentos e a filosofia de vida que estão por detrás das respostas dadas por máquinas criadas por elites com valores muito próprios.

Uma dessas verdades diz respeito à concorrência desenfreada entre as empresas de computação mais determinantes, que procuram vencer a corrida através do desenvolvimento e a comercialização de sistemas numéricos cada vez mais avançados e autónomos, com capacidades de aprendizagem automática. Pode ser uma corrida para o desastre.

Um outro alerta apontaria para as indústrias da guerra. Os signatários sabem que certas forças armadas estão a transformar a IA no instrumento fundamental das guerras de amanhã. Podemos chegar a um ponto em que não haverá tempo para uma decisão humana: a máquina decidirá por si só disparar, e disparará.

E temos pela frente a problemática da competição geopolítica entre os EUA e a China, as superpotências que de facto contam. Se houver guerra, que muitos temem que possa acontecer na segunda metade desta década, vencerá quem estiver mais avançado na utilização da IA. Neste momento, a vantagem parece estar do lado americano. E mais ainda: sempre que outros países desenvolvem algo de novo, como é o caso da Índia, que está a investir a sério na formação de especialistas e na criação de start-ups, o sistema de atração e as forças do mercado levam grandemente à transferência desses conhecimentos e empresas para a Califórnia.

Não se sabe em que ponto se encontra a China. Mas devemos estar cientes que os avanços da IA no domínio militar poderão provocar, em caso de conflito, uma situação fora do controlo humano. E com isto voltamos ao ponto de partida: se não houver cooperação nesta matéria, estaremos de facto numa via que pode levar a um desastre em larga escala. Por isso, o G7 acaba de criar um grupo de trabalho sobre a IA. A UE e os EUA também procuram criar uma referência comum. Mas tratando-se de um risco global, a sua gestão deveria caber a uma instituição multilateral, no quadro da ONU. Como o apelo deixa entender.»

.

13.2.23

Quem tem medo da inteligência artificial?

 


«Aconteceu a 11 de Maio de 1997. Após uma derrota, uma vitória e três empates, Deep Blue, programado pela IBM, acabaria por vencer o sexto e decisivo jogo da histórica partida de xadrez contra Garry Kasparov. O xadrezista russo, incrédulo e abalado, não aceitou bem a derrota. Na verdade, dado o comportamento da máquina durante o jogo, protestou: algumas das suas jogadas acusavam intervenção humana.

Hoje, passados mais de 25 anos, o mais espantoso é que Kasparov tenha julgado possível continuar a vencer um computador que, já nessa altura, era capaz de analisar 100.000.000 jogadas por segundo. Ainda assim, não deixa de ser irónico que a sua derrota se tenha devido, como mais tarde se especulou, ao facto de Kasparov ter interpretado como estratégica uma jogada que resultara de um “erro informático”. Segundo Nate Silver, que conta a anedota em The Signal and the Noise, foi essa jogada, imperscrutável nos seus fins, que desconcentrou fatalmente o xadrezista.

O debate em torno da inteligência artificial (IA) está de volta. Porém, já não seria apenas devido à sua capacidade de cálculo que a máquina, em tempos de big data e deep learning, ameaça superar a inteligência humana. Veja-se o caso da empresa OpenAI. Com o Dall-E (um gerador de imagens) e o ChatGPT (uma caixa de diálogo), os usos da IA invadem os domínios da criação e do conhecimento. Num caso, um programa capaz de criar imagens à maneira deste ou daquele artista, ampliar as suas obras-primas, cruzar os seus estilos. Noutro caso, um programa capaz de produzir texto, reunindo, sintetizando e cruzando informação, em conversas informais com o seu utilizador. A incredulidade e a inquietação alastram. O orgulho humano está ferido... Não bastava a derrota de Kasparov? Querem agora destronar Vermeer, Beethoven, Kant?

Desengane-se, entretanto, quem julgue que as preocupações suscitadas por estes programas são meramente especulativas. Há-as também bem pragmáticas. Como lidar com a questão dos direitos de autor, quando estes abarcam obras mas não estilos? É legítimo reclamar a autoria de uma obra gerada parcialmente por algoritmos? Como evitar, nas escolas e universidade por esse mundo fora, que os estudantes façam “batota”? Como podem ou devem reagir os docentes ao uso desta tecnologia? Está o ensaio morto, como aventa Stephen Marche — num tom algo apocalíptico — num artigo recente publicado em The Atlantic?

Ciente de que o impacto da IA abrange a um só tempo os domínios do conhecimento e da criação, decidi fazer uma experiência. Propus, numa aula de Filosofia da Música dedicada à discussão do conceito de génio, a audição de uma peça sinfónica: nada mais nada menos do que a 10.ª Sinfonia de Beethoven de... 2021. Ouvíamos, portanto, uma composição gerada com o auxílio de um algoritmo a partir de fragmentos do compositor, que resultou de um projecto em que intervieram musicólogos, compositores e programadores, unidos no propósito de dar a ouvir o que poderia ter sido a derradeira sinfonia de Beethoven. Cabe a cada um julgar o resultado. Demasiado previsível? Aquém das nove sinfonias anteriores do mestre de Bona? Melhor ou pior do que a tentativa, com base nesses mesmos fragmentos, de Barry Cooper em 1988? Certo é que a composição “soa a Beethoven”.

No fim da aula, pedi aos alunos que redigissem um breve ensaio sobre este projecto, ensaio que viríamos a discutir aulas mais tarde. O meu propósito era duplo. Por um lado, aproveitando o reconhecimento da “similitude”, interessava-me desconstruir o mito do génio, na sua associação à ideia de “inatismo” e ao cliché da “inspiração”. Por outro lado, num movimento inverso, interessava-me mobilizar o conceito de génio, tal como Kant o apresenta na Crítica da Faculdade do Juízo, para problematizar o discurso em torno da “criatividade” da IA. Para Kant, a obra de génio, ao contrário das grandes descobertas científicas, não é redutível a regras. Não há cálculo que permite produzi-la ou explicá-la. É uma ideia forte que, à margem da retórica romântica da genialidade, ainda nos interpela.

Um algoritmo pode compor como Beethoven: pode, seguindo certas regras, instruções, padrões, emular o seu estilo. Mas não pode “errar” como Beethoven. Não pode entusiasmar-se. Não pode angustiar-se. Sobretudo, não pode não compor como Beethoven. Está condenado a imitar-se. Paradoxalmente, só Beethoven pode não compor como Beethoven. Só ele poderia hesitar e, prodigiosamente, desistir e arriscar — como quando, na Sonata para piano, Op. 110, de um impasse emerge, num piscar de olhos ao passado que se inclina para futuro, uma improvável e irresistível fuga.

A leitura e a discussão destes ensaios, que me conduziram a muitas outras questões para além daquelas que tencionava discutir, reforçaram em mim a convicção de que o ensaio não está morto. Por mais espantosos e úteis — sem ironia — que sejam os textos gerados pela IA, na sua capacidade de recolher, sintetizar ou organizar informação, quedam-se aquém de certas operações intelectuais, que se desdobram de forma individual e colectiva no campo das humanidades e que são, na passagem do diálogo à escrita, o coração do ensaio: o levantamento de hipóteses, a problematização de pressupostos, a busca de ângulos cegos, a construção de conceitos, a mobilização intempestiva da tradição, a escolha de casos emblemáticos, o reconhecimento de afinidades.

Se, contudo, o ensaio não está morto, morta está uma certa forma — escolástica, poeirenta, preguiçosa — de o praticar. Pois uma coisa é certa: com programas como o ChatGPT, deixa de haver desculpa para artigos, comunicações e aulas que se limitem a apresentar informação. Ironicamente, numa era em que as humanidades se encontram cerceadas na sua independência e na sua ambição pela lógica da produção e do lucro, não seria a menor das virtudes da IA a de as obrigar, em primeiro lugar, a reconhecerem a sua irredutibilidade aos positivismos de ontem e de hoje e, em segundo lugar, a assumirem a sua vocação crítica.

Num artigo particularmente lúcido sobre os usos da Inteligência Artificial, Marco Donnarumma defende que a Inteligência Artificial é em larga medida “soft propaganda” para a “ideologia da previsão” que domina o Norte Global. Não se trata de negar a utilidade da IA: na medicina, na engenharia e, certamente, na cultura. Trata-se — e uma coisa não impede a outra — de olhar criticamente para os pressupostos em que a sua valorização exacerbada assenta. Tudo seria calculável; tudo seria previsível; tudo seria controlável. Calcular para prever; prever para controlar — eis o projecto. Big data, deep learning e IA formam um sistema.

As inquietações em torno dos usos da Inteligência Artificial não são apenas consequência do avanço tecnológico desde os tempos de Kasparov. São também um sintoma do empobrecimento da compreensão do mundo, assim como do que significa a interlocução, a experiência e a inteligência humanas. Disso são também as ciências sociais e humanas vítimas. Veja-se a quantificação da pesquisa, a redução do qualitativo ao quantitativo, a tónica na produtividade, o devir-empresa da universidade, a privatização do conhecimento. Mas a resposta não pode ser meramente defensiva. A importância das humanidades não é uma herança. É — pode e deve ser — uma conquista.

A inteligência humana é plural: matemática, espacial, emocional... E se há uma inteligência cara às humanidades é a inteligência crítica. Devemos-lhe, desde logo, o reconhecimento de que há várias inteligências. Tal como lhe devemos a compreensão de que com o reconhecimento da pluralidade das inteligências se abre a discussão sobre os seus usos, os seus fins e o seu valor. Nesta discussão, em que nenhuma calculadora pode fazer toda as contas, cabe também às humanidades ensaiarem uma visão menos preconceituosa, mas nunca menos atenta ou crítica, acerca da tecnologia.

De algum modo, cometemos um erro inverso ao de Kasparov. O erro de atribuir à máquina, na sua insuperável capacidade de cálculo, um tipo de inteligência que ela não possui. Apontamos-lhe o dedo indignados. Distraímo-nos... E logo quando devíamos estar mais concentrados no jogo.»

.

10.2.23

Finalmente, já entrei no chat.openai.com!

 




Fiz várias experiências, vou deixar aqui duas, ambas com resposta imediata à pergunta que formulei.

Fiquei na dúvida se a primeira resposta não foi redigida por Marcelo e creio que a segunda pode dar jeito aos meus netos para a disciplina de Português.
.