Máquinas de IA não estão “alucinando”. Mas seus criadores estão

Máquinas de IA não estão alucinando, mas seus criadores estão

Naomi Klein*

Data da publicação: julho 2023

(NE)1

Nos muitos debates que giram em torno do rápido lançamento de novos sistemas da chamada inteligência artificial (IA), há uma escaramuça relativamente obscura focada na escolha da palavra “alucinar”.

Este é o termo que os arquitetos e impulsionadores da IA generativa2 escolheram para caracterizar as respostas fornecidas por chatbots que são totalmente fabricadas ou totalmente erradas. Como, por exemplo, quando você pede a um bot uma definição de algo que não existe e ele, de forma bastante convincente, lhe dá uma definição completa, com notas de rodapé inventadas.3 “Ninguém neste campo resolveu ainda os problemas de alucinação”, disse Sundar Pichai, CEO do Google e da Alphabet, a um entrevistador recentemente.4

Isso é verdade – mas por que chamar os erros de “alucinações”? Por que não lixo algorítmico? Ou falhas? Alucinação refere-se à misteriosa capacidade do cérebro humano de perceber fenômenos que não estão presentes, pelo menos não em termos convencionais e materialistas. Ao se apropriar de uma palavra comumente usada em psicologia, no campo dos psicodélicos e em várias formas de misticismo, os impulsionadores da IA, embora reconheçam a falibilidade de suas máquinas, ao mesmo tempo alimentam a mitologia mais querida do setor: ao construir esses grandes modelos de linguagem e treiná-los em tudo o que nós, humanos, já escrevemos, dissemos e representamos visualmente, eles pretendem gerar uma inteligência animada prestes a desencadear um salto evolutivo para nossa espécie. De que outra forma bots como Bing e Bard poderiam estar viajando à solta no éter?

Alucinações distorcidas estão de fato acontecendo no mundo da IA, no entanto – mas não são os bots que alucinam; foram os CEOs de tecnologia que as desencadearam, junto com suas falanges fãs, que caíram nas garras de alucinações selvagens, individuais ou coletivas. Aqui estou definindo alucinação não no sentido místico ou psicodélico - estados alterados da mente que podem de fato ajudar no acesso a verdades profundas e anteriormente não percebidas. Não. Essas pessoas estão simplesmente viajando: vendo, ou pelo menos alegando ver, evidências que não existem, e até mesmo criando ilusões sobre mundos inteiros que colocarão seus produtos em uso para nossa elevação e educação universais.

A IA generativa acabará com a pobreza, dizem eles. Ela vai curar todas as doenças. Vai mitigar as mudanças climáticas. Tornará nosso trabalho mais significativo e emocionante. Irá desencadear vidas de lazer e contemplação, ajudando-nos a recuperar a humanidade que perdemos para a mecanização do capitalismo tardio. Vai acabar com a solidão. Isso tornará nossos governos racionais e responsivos. Essas, eu temo, são as verdadeiras alucinações da IA - e as ouvimos de forma recorrente desde que o ChatGPT foi lançado no final de 2022.

Existe um mundo em que a IA generativa, como uma poderosa ferramenta de pesquisa preditiva e executora de tarefas tediosas, poderia de fato ser organizada para beneficiar a humanidade, outras espécies e nosso lar compartilhado.5 Mas para que isso aconteça, essas tecnologias precisariam ser implantadas dentro de uma ordem econômica e social muito diferente da nossa, que tivesse como propósito atender às necessidades humanas e proteger os sistemas que sustentam toda a vida no planeta.

E, como aqueles de nós que não estão iludidos sabem bem, nosso sistema atual não é nada disso. Em vez disso, é construído para maximizar a extração de riqueza e lucro – tanto dos humanos quanto do mundo natural – uma realidade que nos trouxe ao que poderíamos pensar como o estágio “necrotécnico” do capitalismo. Nessa realidade de poder e riqueza hiperconcentradas, a IA – longe de corresponder a todas essas alucinações utópicas – tem muito mais probabilidade de se tornar uma ferramenta temível de mais desapropriação e espoliação.

Vou me aprofundar sobre por que isso acontece. Mas primeiro é útil pensar sobre a que propósito servem as alucinações utópicas sobre IA. Qual o papel dessas histórias benevolentes em nossas culturas, no momento em que nos deparamos com essas estranhas novas ferramentas? Aqui está uma hipótese: elas são as manchetes poderoras e atraentes daquilo que pode vir a ser o maior e mais importante roubo da história da humanidade. Isso porque o que estamos testemunhando são as empresas mais ricas da história (Microsoft, Apple, Google, Meta, Amazon …) apoderando-se unilateralmente da soma total do conhecimento humano que existe em formato digital capturável, e emparedando-o dentro de produtos proprietários - muitos dos quais irão mirar diretamente nos humanos cujas vidas inteiras de trabalho serviu para treinar as máquinas, sem que as pessoas dessem permissão ou consentimento para isso.

Isso não deveria ser juridicamente legal. No caso de material protegido por direitos autorais - que agora sabemos que treinou os modelos (incluindo este jornal)6-, vários processos foram movidos argumentando que isso era evidentemente ilegal.7 Por que, por exemplo, deveria ser permitido a uma empresa com fins lucrativos copiar as pinturas, desenhos e fotografias de artistas vivos para dentro de um aplicativo como o Stable Diffusion ou o Dall-E 2, e usá-las para gerar versões doppelganger8 do trabalho desses artistas, beneficiando muita gente, menos os próprios artistas?

A pintora e ilustradora Molly Crabapple está ajudando a liderar um movimento de artistas que apontam para esse roubo. “Os geradores de arte de IA são treinados em enormes conjuntos de dados, contendo milhões e milhões de imagens protegidas por direitos autorais, colhidas sem o conhecimento de seus criadores, muito menos compensação ou consentimento. Este é efetivamente o maior roubo de arte da história. Perpetrado por entidades corporativas aparentemente respeitáveis apoiadas pelo capital de risco do Vale do Silício. É roubo à luz do dia”, afirma uma nova carta aberta da qual ela é co-autora.9

O truque, é claro, é que o Vale do Silício costuma chamar esse roubo de “disrupção” – em geral impunemente. Conhecemos este movimento: atacar em território sem lei; afirmar que as regras antigas não se aplicam à sua nova tecnologia; gritar que a regulamentação só ajudará a China – tudo isso enquanto você estabelece solidamente uma boa posição para seus interesses. Até chegar o momento em que todos superamos a novidade desses novos brinquedos e começarmos a fazer um balanço dos destroços sociais, políticos e econômicos, a tecnologia já se tornou tão onipresente, que tribunais e formuladores de políticas acabam desistindo da batalha.10

Vimos isso na digitalização de arte e livros do Google; com a colonização espacial de Musk; com o ataque do Uber à indústria de táxis; com o ataque do Airbnb ao mercado de aluguel; com a promiscuidade do Facebook manipulando nossos dados. Não peça permissão, gostam de dizer os disruptores, peça perdão (e lubrifique os pedidos com generosas contribuições de campanha).

No livro The Age of Surveillance Capitalism, Shoshana Zuboff detalha meticulosamente como os mapas do Street View do Google ultrapassaram as normas de privacidade ao enviar seus carros com câmeras para fotografar nossas vias públicas e o exterior de nossas casas.11 No momento em que os processos defendendo os direitos de privacidade começaram, o Street View já era tão onipresente em nossos dispositivos (e tão legal e tão conveniente …) que poucos tribunais fora da Alemanha12 estavam dispostos a intervir.

Agora, a mesma coisa que aconteceu com o exterior de nossas casas está acontecendo com nossas palavras, nossas imagens, nossas músicas, toda a nossa vida digital. Tudo isso está sendo capturado e usado para treinar as máquinas que simulam o pensamento e a criatividade. Essas empresas devem saber que estão envolvidas em roubo ou, pelo menos, que pode haver fortes evidências disso13. Elas estão apenas esperando que a velha tática funcione mais uma vez – que a escala do roubo seja tão grande e se desenrole com tanta rapidez que os tribunais e os formuladores de políticas irão mais uma vez dar o braço a torcer diante da suposta inevitabilidade de tudo isso.14

É também por isso que suas alucinações sobre todas as coisas maravilhosas que a IA fará pela humanidade são tão importantes. Porque essas previsões arrogantes disfarçam esse roubo massivo e o apresentam como uma dádiva – ao mesmo tempo em que ajudam a racionalizar os perigos inegáveis da IA.

A essa altura, a maioria de nós já ouviu falar sobre a pesquisa que pediu a cientistas e desenvolvedores de IA para estimar a probabilidade de que sistemas avançados de IA causem “extinção humana ou desempoderamento igualmente permanente e severo da espécie humana”. Assustadoramente, a resposta média foi que havia 10% de chance.15

Como alguém racionaliza trabalhar no desenvolvimento de ferramentas que carregam tais riscos existenciais? Muitas vezes, a razão dada é que esses sistemas também carregam enormes vantagens potenciais – não levando em conta que essas vantagens são, em sua maior parte, alucinatórias. Vamos aprofundar-nos em alguns dos riscos mais graves.

Alucinação nº 1: a IA resolverá a crise climática

Quase invariavelmente, no topo das listas de vantagens da IA está a afirmação de que esses sistemas resolverão de alguma forma a crise climática. Ouvimos isso de todos, do Fórum Econômico Mundial16 ao Conselho de Relações Exteriores17 e ao Boston Consulting Group18, que explica que a IA “pode ser usada para apoiar todas as partes interessadas a adotar uma abordagem mais informada e orientada por dados para combater as emissões de carbono e construir uma sociedade mais verde. Também pode ser empregada para redirecionar os esforços climáticos globais para as regiões de maior risco”.

O ex-CEO do Google, Eric Schmidt, resumiu o caso quando disse à revista Atlantic que vale a pena correr os riscos da IA, porque “se você pensar nos maiores problemas do mundo, eles são todos realmente difíceis – mudança climática, organizações humanas e assim por diante. Portanto, eu sempre quero que as pessoas sejam mais inteligentes”.19

De acordo com essa lógica, o fracasso em “resolver” grandes problemas como a mudança climática se deve a um déficit de inteligência. Não importa que pessoas inteligentes, cheias de PhDs e prêmios Nobel, digam aos nossos governos há décadas o que precisa acontecer para sairmos dessa bagunça: reduzir nossas emissões, deixar o carbono no solo, combater o consumo excessivo dos ricos e o subconsumo dos pobres, porque nenhuma fonte de energia é isenta de custos ecológicos.

A razão pela qual esse conselho muito inteligente foi ignorado não é devido a um problema de compreensão de leitura ou porque, de alguma forma, precisamos de máquinas para pensar por nós. É porque fazer o que a crise climática exige de nós encalharia trilhões de dólares em ativos de combustíveis fósseis, ao mesmo tempo em que desafiaria o modelo de crescimento baseado no consumo, que é o coração de nossas economias interconectadas.20 A crise climática não é, de fato, um mistério ou um enigma que ainda não resolvemos devido a conjuntos de dados insuficientemente robustos. Sabemos o que seria necessário, mas não é uma solução rápida – é uma mudança de paradigma. Esperar que as máquinas cuspam uma resposta mais palatável e/ou rentável não é uma cura para esta crise, é mais um sintoma dela.

Deixando de lado as alucinações, é muito mais provável que a IA seja trazida ao mercado de maneira a aprofundar gravemente a crise climática. Primeiro, os servidores gigantes que possibilitam ensaios instantâneos e obras de arte de chatbots são uma fonte enorme e crescente de emissões de carbono.21 Em segundo lugar, à medida que empresas como a Coca-Cola começam a fazer grandes investimentos em IA generativa para vender mais produtos,22 fica muito evidente que essa nova tecnologia será usada da mesma forma que a mais recente geração de ferramentas digitais: aquilo que começa com promessas de espalhar a liberdade e a democracia acaba em microanúncios direcionados a nós, para que compremos mais coisas inúteis que expelem carbono.

E há um terceiro fator, este um pouco mais difícil de definir. Quanto mais nossos canais de mídia são inundados com deep fakes e clones de vários tipos, mais temos a sensação de estar afundando em areia movediça informacional. Geoffrey Hinton, muitas vezes tido como “o padrinho da IA” - porque a rede neural que ele desenvolveu há mais de uma década forma os blocos de construção dos grandes modelos de linguagem de hoje - entende isso muito bem. Ele acabou de deixar um cargo sênior no Google para poder falar livremente sobre os riscos da tecnologia que ajudou a criar, incluindo, como disse ao New York Times, o risco de que as pessoas “não sejam mais capazes de saber o que é verdade”23

Isso é altamente relevante para a crença que a IA ajudará a combater a crise climática. Porque quando desconfiamos de tudo o que vemos e lemos em nosso ambiente de mídia cada vez mais misterioso, ficamos ainda menos preparados para resolver problemas coletivos urgentes. A crise de confiança é anterior ao ChatGPT, é claro, mas não há dúvida que uma proliferação de deep fakes será acompanhada por um aumento exponencial de culturas de conspiração já muito presentes. Então, que diferença fará se a IA apresentar avanços tecnológicos e científicos? Se o tecido da realidade compartilhada estiver se desfazendo em nossas mãos, seremos incapazes de responder com qualquer coerência.

Alucinação nº 2: a IA proporcionará uma governança sábia

Essa alucinação evoca um futuro próximo em que políticos e burocratas, aproveitando a vasta inteligência agregada de sistemas de IA, são capazes de “ver padrões de necessidade e desenvolver programas baseados em evidências” que trazem maiores benefícios para seus eleitorados. Essa afirmação vem de um artigo publicado pela fundação do Boston Consulting Group,24mas está reverberando em muitos thinktanks e consultorias de gestão. E é revelador que essas empresas em particular – as firmas contratadas por governos e outras corporações para identificar economias de custos, muitas vezes demitindo um grande número de trabalhadores – foram as mais rápidas a aderir ao movimento da IA. A PwC (anteriormente PricewaterhouseCoopers) acaba de anunciar um investimento de US$ 1 bilhão25, e a Bain & Company, assim como a Deloitte, estão entusiasmadas com o uso dessas ferramentas para tornar seus clientes mais “eficientes”.

Tal como acontece com as reivindicações climáticas, é necessário perguntar: a razão pela qual os políticos impõem políticas públicas cruéis e ineficazes é a falta de evidências? Uma incapacidade de “ver padrões”, como sugere o artigo do BCG? Eles não entendem os custos humanos de reduzir as despesas em saúde pública em meio a pandemias26, ou de abandonar o investimento público em moradias quando as barracas lotam nossos parques urbanos, ou de aprovar novas infraestruturas de exploração de combustíveis fósseis enquanto as temperaturas sobem? Os políticos precisam de IA para torná-los “mais inteligentes”, para usar o termo de Schmidt – ou são inteligentes o suficiente para saber quem vai apoiar sua próxima campanha ou financiar seus rivais, caso mudem seu discurso?

Seria muito bom se a IA realmente pudesse cortar o vínculo entre o dinheiro corporativo e a formulação de políticas imprudentes – mas esse vínculo tem tudo a ver com o motivo pelo qual empresas como Google e Microsoft foram autorizadas a liberar seus chatbots ao público, apesar da avalanche de avisos e riscos conhecidos. Schmidt e outros estão em uma campanha de lobby de anos, dizendo aos políticos em Washington que, se não forem livres para avançar com IA generativa, livres do peso de uma regulamentação séria, as potências ocidentais serão deixadas para trás pela China27. No ano passado, as principais empresas de tecnologia gastaram um recorde de US$ 70 milhões para fazer lobby em Washington – mais do que o setor de petróleo e gás – e essa quantia, observa a Bloomberg News, está bem além dos milhões gastos “em sua ampla gama de grupos comerciais, instituições sem fins lucrativos e thinktanks”28.

E, no entanto, apesar do conhecimento íntimo destas empresas sobre como o dinheiro molda a política em nossas capitais nacionais, quando você ouve Sam Altman, o CEO da OpenAI – criador do ChatGPT – falar sobre os melhores cenários para seus produtos, tudo isso parece ser esquecido. Em vez disso, ele parece estar criando a alucinação de um mundo totalmente diferente do nosso, no qual os políticos e a indústria tomam decisões com base nos melhores dados e nunca colocariam inúmeras vidas em risco por lucro e vantagem geopolítica. O que nos leva a outra alucinação.

Alucinação nº 3: pode-se confiar nos gigantes da tecnologia para não quebrar o mundo

Questionado se está preocupado com a frenética corrida do ouro que o ChatGPT já desencadeou, Altman disse que sim, mas acrescentou com otimismo: “espero que tudo acabe dando certo”. Sobre seus colegas CEOs de tecnologia – os que competem para lançar seus chatbots rivais – ele disse: “acho que os bons anjos vencerão”.29

Bons anjos? No Google? Tenho certeza que a empresa demitiu a maioria deles porque estavam publicando artigos críticos sobre IA ou denunciando a empresa por racismo e assédio sexual no local de trabalho30. Outros “anjos bons” desistiram alarmados, sendo o mais recente deles, Hinton31 Isso porque, ao contrário das alucinações das pessoas que mais lucram com a IA, o Google não toma decisões com base no que é melhor para o mundo – ela toma decisões com base no que é melhor para os acionistas da Alphabet, que não querem perder a última bolha, especialmente quando a Microsoft, a Meta e a Apple já entraram nela.

Alucinação nº 4: a IA nos libertará do trabalho penoso

Se as alucinações aparentemente inofensivas do Vale do Silício parecem plausíveis para muitos, há uma razão simples para isso. A IA generativa está atualmente no que poderíamos chamar de estágio de falso socialismo. Isso faz parte de um já conhecido manual do Vale do Silício. Primeiro, crie um produto atrativo (um motor de busca, uma ferramenta de mapeamento, uma rede social, uma plataforma de vídeo, um aplicativo de viagens…); distribua-o de graça ou quase de graça por alguns anos, sem nenhum modelo de negócios viável discernível (“brinque com os bots”, eles nos dizem, “veja que coisas divertidas você pode criar!”); faça muitas afirmações grandiosas sobre como você só está fazendo isso porque deseja criar uma “praça pública virtual” ou uma “comunidade de informação” ou “conectar as pessoas”, enquanto espalha liberdade e democracia (e sem ser “maligno”). Então observe enquanto as pessoas aderem ao uso dessas ferramentas gratuitas, e seus concorrentes declaram falência. Uma vez que o terreno esteja limpo, introduza os anúncios direcionados, a vigilância constante, os contratos com instituições policiais e militares, as vendas de dados às escondidas e as crescentes taxas de assinatura.

Muitas vidas e setores foram dizimados por iterações anteriores deste manual, de motoristas de táxi a mercados de aluguel e jornais locais. Com a revolução da IA, esses tipos de perdas podem parecer erros irrelevantes, com professores, programadores, artistas visuais, jornalistas, tradutores, músicos, profissionais de saúde e tantos outros enfrentando a perspectiva de ter suas rendas substituídas por códigos problemáticos.

Não se preocupe, alucinam os entusiastas da IA – será maravilhoso. Quem gosta de trabalhar afinal? Dizem-nos que a IA generativa não será o fim do emprego, apenas o fim do “trabalho chato”32 – com os chatbots prestativamente desempenhando todas as tarefas repetitivas e destruidoras de almas, e os humanos meramente supervisionando-os. Altman, por sua vez, vê um futuro onde o trabalho “pode ser um conceito mais amplo, não algo que você tenha que fazer para poder comer, mas algo que você faça como uma expressão criativa e uma forma de encontrar realização e felicidade”33.

Essa é uma visão empolgante de uma vida mais bonita e tranquila, compartilhada por muitos esquerdistas (incluindo o genro de Karl Marx, Paul Lafargue, que escreveu um manifesto intitulado O Direito à Preguiça)34. Mas nós, esquerdistas, também sabemos que, se ganhar dinheiro não for mais o imperativo da vida, deverá haver outras maneiras de atender às nossas necessidades de abrigo e sustento. Um mundo sem empregos de baixa qualidade significa que o aluguel deve ser gratuito, a assistência médica gratuita e todas as pessoas devem ter direitos econômicos inalienáveis. E então, de repente, não estamos mais falando sobre IA – estamos falando sobre socialismo.

É exatamente devido ao fato de não vivermos num mundo racional e humanista inspirado em Star Trek, que Altman parece estar alucinando. Vivemos sob o capitalismo e, sob esse sistema, inundar o mercado com tecnologias que podem executar de forma plausível as tarefas econômicas de incontáveis trabalhadores não faz com que as pessoas estejam repentinamente livres para se tornarem filósofas e artistas. Isso significa que essas pessoas se descobrirão à beira do abismo – e os artistas de verdade estarão entre os primeiros a cair.

Essa é a mensagem da carta aberta de Crabapple, que convida “artistas, editores, publishers, e líderes de sindicatos de jornalistas a comprometerem-se com os valores humanos contra o uso de imagens geradas por IA” e “a comprometerem-se a apoiar a arte editorial feita por pessoas, não por fazendas de servidores”. A carta, agora assinada por centenas de artistas, jornalistas e outros profissionais, afirma que todos, exceto os artistas mais elitistas, encontram seu trabalho “em risco de extinção”35. E de acordo com Hinton, o “padrinho da IA”, não há razão para acreditar que a ameaça não se espalhe. Os chatbots “tiram o trabalho árduo”, mas “podem tirar mais do que isso”.

Crabapple e seus co-autores escrevem: “A arte feita por IA generativa é vampírica, banqueteando-se com gerações passadas de obras de arte, mesmo quando suga a força vital de artistas vivos”. Mas há formas de resistir: podemos nos recusar a usar esses produtos e nos organizar para exigir que nossos empregadores e governos também os rejeitem.

Uma carta de proeminentes estudiosos da ética da IA, incluindo Timnit Gebru, que foi demitida pelo Google em 2020 por desafiar a discriminação no local de trabalho, apresenta algumas das ferramentas regulatórias que os governos podem introduzir imediatamente – incluindo total transparência sobre quais conjuntos de dados estão sendo usados para treinar o modelos36. Os autores escrevem: “Não só deve estar sempre explícito quando estamos diante de mídia sintética, mas as organizações que constroem esses sistemas também devem ser obrigadas a documentar e divulgar os dados de treinamento e os modelos de arquiteturas... Devemos construir máquinas que funcionem para nós, em vez de 'adaptar' a sociedade para ser legível e gravável por máquinas.”

Embora as empresas de tecnologia queiram que acreditemos que já é tarde demais para reverter esse produto de imitação em massa e substituto humano, existem precedentes legais e regulatórios altamente relevantes que podem ser aplicados. Por exemplo, a Comissão Federal de Comércio dos EUA (FTC) forçou a Cambridge Analytica, bem como a Everalbum, proprietária de um aplicativo de fotos, a destruir algoritmos inteiros que foram treinados com fotos capturadas e dados obtidos de forma ilegítima37. Em seus primeiros dias, o governo Biden fez muitas afirmações ousadas sobre a regulamentação das big techs, incluindo reprimir o roubo de dados pessoais para construir algoritmos proprietários. Com uma eleição presidencial aproximando-se rapidamente, agora seria um bom momento para cumprir essas promessas – e evitar o próximo conjunto de demissões em massa antes que elas aconteçam.

Um mundo de deep fake, círculos infinitos de imitação e piora da desigualdade não é uma realidade inevitável. É um conjunto de escolhas políticas. Podemos eliminar o atual modelo de chatbots vampíricos – e começar a construir o mundo no qual as promessas mais promissoras da IA seriam mais do que alucinações do Vale do Silício.

Isso porque fomos nós que treinamos as máquinas. Todos e todas nós. Mas nunca demos o nosso consentimento. Eles se alimentaram da engenhosidade, da inspiração e das descobertas coletivas da humanidade (juntamente com algumas de nossas características mais desprezíveis). Esses modelos são máquinas de aprisionamento e apropriação, devorando e privatizando nossas vidas individuais, bem como nossas heranças intelectuais e artísticas coletivas. E o objetivo deles nunca foi resolver a mudança climática ou tornar nossos governos mais responsáveis, ou nossa vida diária mais tranquila. Sempre foi lucrar com a miséria em massa que, sob o capitalismo, é a consequência flagrante e lógica da substituição de funções humanas por bots.

Tudo isso é excessivamente dramático? Uma resistência enfadonha e reflexiva às inovações empolgantes? Por que esperar o pior? Altman tenta tranquilizar-nos : “Ninguém quer destruir o mundo”.38 Talvez não. Mas, como a crise climática e a crise de extinção cada vez mais graves nos mostram todos os dias, muitas pessoas e instituições poderosas parecem saber muito bem que estão ajudando a destruir a estabilidade dos sistemas planetários de suporte à vida, desde que possam continuar alcançando recordes de lucros que eles acreditam que irão protegê-los e às suas famílias dos piores efeitos.39

Altman, como muitas criaturas do Vale do Silício, é um prevenido – em 2016, ele se gabou: “Tenho armas, ouro, iodeto de potássio, antibióticos, baterias, água, máscaras de gás da Força de Defesa de Israel e um grande pedaço de terra em Big Sur para onde eu posso voar.”40

Tenho certeza de que esses fatos dizem muito mais sobre o que Altman realmente acredita em relação ao futuro que ele está ajudando a desencadear do que quaisquer alucinações floridas que ele está escolhendo compartilhar em entrevistas à imprensa.

(*) Naomi Klein é jornalista canadense premiada e autora reconhecida como best-seller no New York Times. Colunista do jornal inglês The Guardian, em 2018 foi nomeada para a cátedra inaugural Gloria Steinem na Rutgers University. É professora honorária de Mídia e Clima na Rutgers. Em setembro de 2021, ingressou na Universidade da Colúmbia Britânica como professora titular de Justiça Climática e codiretora do Centro de Justiça Climática da mesma universidade.

--
1. Publicado originalmente no jornal inglês The Guardian: https://www.theguardian.com/commentisfree/2023/may/08/ai-machines-halluc.... Reproduzido em português com autorização da autora.
2. https://pt.wikipedia.org/wiki/Intelig%C3%AAncia_artificial_generativa
3. https://www.wsj.com/articles/hallucination-when-chatbots-and-people-see-...
4. https://www.cbs.com/shows/video/SR6ZcCYjoD3O0sn_ZmVUw87daawsZ5V3/
5. https://www.nature.com/articles/d41586-020-03348-4
6. https://www.washingtonpost.com/technology/interactive/2023/ai-chatbot-le...
7. https://news.artnet.com/art-world/class-action-lawsuit-ai-generators-dev...
8. https://pt.wikipedia.org/wiki/Doppelg%C3%A4nger
9. https://artisticinquiry.org/AI-Open-Letter
10. https://www.reuters.com/article/us-google-books-idUSKCN0SA1S020151016
11. https://www.theguardian.com/technology/2019/jan/20/shoshana-zuboff-age-o...
12. https://archive.nytimes.com/bits.blogs.nytimes.com/2013/04/23/germanys-c...
13. https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem
14. https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-u...
15. https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/#Extinction_f...
16. https://www.weforum.org/agenda/2021/08/how-ai-can-fight-climate-change/
17. https://world101.cfr.org/global-era-issues/climate-change/how-can-artifi...
18. https://www.bcg.com/publications/2022/how-ai-can-help-climate-change
19. https://www.theatlantic.com/technology/archive/2023/03/open-ai-gpt4-chat...
20. https://www.wsj.com/articles/trillions-in-assets-may-be-left-stranded-as...
21. https://penntoday.upenn.edu/news/hidden-costs-ai-impending-energy-and-re...
22. https://www.coca-colacompany.com/news/coca-cola-invites-digital-artists-...
23. https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer...
24. https://www.centreforpublicimpact.org/
25. https://venturebeat.com/ai/the-power-of-infrastructure-purpose-built-for...
26. https://www.theguardian.com/society/2022/aug/03/how-the-tory-party-has-s...
27. https://epic.org/wp-content/uploads/foia/epic-v-ai-commission/EPIC-19-09...
28. https://www.bnnbloomberg.ca/tech-giants-broke-their-spending-records-on-...
29. https://steno.ai/lex-fridman-podcast-10/367-sam-altman-openai-ceo-on-gpt...
30. https://www.engadget.com/google-fires-ai-researcher-over-paper-challenge...
31. https://www.engadget.com/google-engineers-leave-over-timnit-gebru-exit-0...
32. https://www.nytimes.com/2023/04/22/opinion/jobs-ai-chatgpt.html
33. https://steno.ai/lex-fridman-podcast-10/367-sam-altman-openai-ceo-on-gpt...
34. https://www.marxists.org/archive/lafargue/1883/lazy/
35. https://artisticinquiry.org/AI-Open-Letter
36. https://www.dair-institute.org/blog/letter-statement-March2023
37. https://digiday.com/media/why-the-ftc-is-forcing-tech-firms-to-kill-thei...
38. https://steno.ai/lex-fridman-podcast-10/367-sam-altman-openai-ceo-on-gpt...
39. https://www.theguardian.com/business/2023/apr/28/exxonmobil-chevron-reco...
40. https://www.newyorker.com/magazine/2016/10/10/sam-altmans-manifest-destiny