Inteligência Artificial - O alto custo da captura
Meredith Whittaker, Professora de Pesquisa Minderoo na Universidade de Nova York (NYU) e diretora do AI Now Institute*
Data da publicação: março 2022
Este é um momento perigoso. Sistemas computacionais privados comercializados como inteligência artificial (IA) estão se espalhando por nossa vida e instituições públicas, concentrando o poder industrial, aumentando a marginalização e modelando silenciosamente o acesso a recursos e informações.
Ao considerar como enfrentar essa investida da IA industrial, devemos primeiro reconhecer que os “avanços” em IA celebrados na última década não foram devidos a avanços científicos fundamentais em técnicas de IA. Eles foram e são principalmente o produto de dados significativamente concentrados e recursos de computação que residem nas mãos de algumas grandes corporações de tecnologia. A IA moderna é fundamentalmente dependente de recursos corporativos e práticas de negócios, e nossa crescente confiança nesse tipo de IA concede um poder desordenado sobre nossas vidas e instituições a um punhado de empresas de tecnologia — a “Big Tech”. Também dá a essas empresas uma influência significativa tanto na direção do desenvolvimento da IA quanto nas instituições acadêmicas que desejam pesquisá-la. Isso significa que as empresas de tecnologia estão surpreendentemente bem posicionadas para moldar o que sabemos — e não sabemos — sobre IA e os negócios por trás disso, ao mesmo tempo que seus produtos de IA estão trabalhando para moldar nossas vidas e instituições.
Percepções
-
O controle da “Big Tech” sobre os recursos de IA tornou as universidades e outras instituições dependentes dessas empresas, criando uma teia de relacionamentos conflitantes que ameaçam a liberdade acadêmica e nossa capacidade de compreender e regular essas tecnologias corporativas.
-
Para garantir pesquisa independente e rigorosa, bem como meios de defesa capazes de entender e verificar essas tecnologias e as empresas por trás delas, precisamos organizar-nos, dentro da tecnologia e dentro da universidade.
Examinando a história da influência das forças armadas dos EUA sobre a pesquisa científica durante a Guerra Fria, vemos paralelos com a influência atual da indústria de tecnologia sobre a IA. Essa história também oferece exemplos alarmantes da maneira como o domínio militar dos EUA trabalhou para moldar a produção de conhecimento acadêmico e para punir aqueles que discordaram.
Hoje, a indústria de tecnologia está enfrentando uma pressão regulatória crescente e está aumentando seus esforços para criar narrativas tecnológicas positivas e para silenciar e afastar os críticos da mesma forma que os militares dos EUA e seus aliados fizeram no passado. Como um todo, vemos que o domínio da indústria de tecnologia na pesquisa de IA e na produção de conhecimento coloca pesquisadores e defensores críticos dentro e fora da academia em uma posição vulnerável. Isso ameaça privar as comunidades da linha de frente, os legisladores e o público de conhecimentos vitais sobre os custos e consequências da IA e da indústria responsável por ela — exatamente no momento em que esse trabalho é mais necessário.
Revendo a extensão da influência atual das grandes empresas de tecnologia sobre a IA e as pesquisas de IA, é útil começar com uma breve história da atual virada para a IA. Dado que o campo de IA tem quase 70 anos e passou por vários “invernos de IA”, por que a IA cresceu na última década? E do que estamos falando quando falamos sobre IA? Responder a essas perguntas destaca a mutabilidade do termo IA. Também focaliza nossa atenção na centralidade dos recursos corporativos concentrados para o atual boom da IA, e como o controle monopolístico desses recursos deu a um punhado de empresas de tecnologia a autoridade para [re]definir o campo da IA, ao mesmo tempo que encerram o conhecimento sobre os sistemas de IA por trás do segredo das corporações.
Em 2012, uma equipe de pesquisa baseada em Toronto criou um algoritmo chamado AlexNet que venceu o Desafio de Reconhecimento Visual em Grande Escala da ImageNet. Isso marcou um momento importante na história recente da IA e foi um grande negócio na indústria de tecnologia. Ele demonstrou que o aprendizado de máquina supervisionado foi surpreendentemente eficaz no reconhecimento de padrões preditivos quando treinado usando poder computacional significativo e grandes quantidades de dados rotulados1. O algoritmo AlexNet dependia de técnicas de aprendizado de máquina que tinham quase duas décadas. Mas não foi o algoritmo que foi um avanço: foi o que o algoritmo poderia fazer quando combinado com dados e recursos computacionais em grande escala.
AlexNet mapeou um caminho a seguir para grandes empresas de tecnologia que buscam cimentar e expandir seu poder. Os recursos dos quais o sucesso do AlexNet dependia eram os que as grandes empresas de tecnologia já controlavam: vasta infraestrutura computacional, enormes quantidades de dados (e sistemas em funcionamento para processá-los e armazená-los), alcance de mercado consolidado que garantiu a coleta persistente de dados, bem como o capital para contratar e reter talentos escassos. Yoshua Bengio, um dos precursores da pesquisa de IA, colocou de forma simples: “O poder [da computação], a experiência e os dados estão todos concentrados nas mãos de algumas empresas”2.
O ano de 2012 mostrou o potencial comercial do aprendizado de máquina supervisionado e o poder do termo IA como um gancho de marketing. As empresas de tecnologia rapidamente [re]classificaram o aprendizado de máquina e outras abordagens dependentes de dados como IA, enquadrando-as como o produto de uma inovação científica revolucionária. As empresas adquiriram laboratórios e startups e trabalharam para lançar a IA como uma ferramenta multifuncional de eficiência e precisão, adequada para quase todos os fins em inúmeros campos. Quando dizemos que a IA está em toda parte, é por isso.
A retórica e o capital fluindo dessas empresas serviram para redefinir o campo de pesquisa de IA, inundando-o com financiamento e focando a atenção do campo em técnicas intensivas de computação e dados, além de questões de pesquisa. Laboratórios universitários e startups que queriam desenvolver e estudar IA foram levados a depender de acesso a caros ambientes de computação em nuvem operados por grandes empresas de tecnologia e lutando para acessar dados, uma dinâmica que só se intensificou a partir de 2012. J. Nathan Matias, professor da Cornell e líder do Citizens and Technology Lab, aponta a extensão dessa dependência quando observa que “alguns campos não poderiam existir sem estreitos laços com a indústria”3.
Isso não significa que os pesquisadores nesses domínios estejam comprometidos. Tampouco significa que não haja direções de pesquisa que possam mitigar tais dependências. Significa, no entanto, que as questões e incentivos que animam o campo nem sempre são os pesquisadores individuais que decidem. E que os termos do campo — incluindo quais perguntas valem a pena responder e quais respostas resultarão em subsídios, prêmios e estabilidade — são desordenadamente moldados pela virada corporativa para IA intensiva em recursos e pelos incentivos da indústria de tecnologia que a impulsionam.
Um movimento recente da Universidade de Stanford ilustra essa dinâmica. Em agosto de 2021, a universidade anunciou o novo Centro de Pesquisa em Modelos de Fundação (CRFM), cujo lançamento foi acompanhado por um relatório de mais de 100 autores que caracteriza esses modelos como uma “mudança de paradigma” em IA significativa o suficiente para justificar um novo e caro centro de pesquisa4. Ao longo do relatório, os modelos de base são considerados inevitáveis, de ponta e resultado do progresso científico.
O que são modelos de fundação? Não é surpresa se você não souber. O nome foi cunhado por Stanford em seu relatório e materiais de lançamento do CRFM, renomeando o que antes se conhecia como modelos de linguagem grandes (LLMs). LLMs — pense em GPT-3 e BERT, entre outros — são algumas das técnicas mais intensivas de dados e computação em IA e, portanto, estão entre as mais capturadas pela indústria. Eles também ganharam muita atenção da mídia recente e foram sujeitos a fortes críticas sobre o viés das técnicas, os custos ambientais e o poder concentrado5.
Além de simplesmente valorizar as técnicas capturadas pela indústria como de ponta, a rebranding de Stanford trabalha para distanciar os LLMs desse legado de crítica. E embora o relatório reconheça que “a pesquisa sobre a construção de modelos de fundação em si ocorreu quase exclusivamente na indústria”, ele enquadra as questões de poder concentrado não como questões que deveriam nos fazer reconsiderar a confiança nessas tecnologias, mas sim como problemas que podem ser resolvidos facilitando restrições de controle para que instituições como Stanford também obtenham um pedaço: “A indústria em última análise toma decisões concretas sobre como os modelos de fundação serão implantados, mas também devemos nos apoiar na academia, com sua diversidade disciplinar e incentivos não comerciais”6.
Os esforços para expandir o acesso à pesquisa de IA também seguem esse padrão, considerando formas de IA de uso intensivo de dados e computação e concentrando-se exclusivamente em como fazer com que mais pessoas tenham acesso a esses recursos concentrados. Ao examinar uma “solução” proposta para esse problema de estrutura restrita, ficamos cara a cara com a extensão da captura da indústria.
Em março de 2020, a Comissão de Segurança Nacional de Inteligência Artificial (NSCAI), presidida pelo ex-CEO do Google Eric Schmidt e dirigida por outros executivos de tecnologia, recomendou que o governo dos EUA financiasse o que chamou de infraestrutura nacional de pesquisa de IA, em nome da “democratização” do acesso à pesquisa de IA. Essa recomendação foi adotada na Lei de Autorização de Defesa Nacional (NDAA) de 2021, que determina a criação de “um sistema que forneça a pesquisadores e estudantes de campos e disciplinas científicas acesso a recursos de computação, co-localizados com conjuntos de dados governamentais e não governamentais publicamente disponíveis e prontos para a inteligência artificial”7. Seguindo a diretiva da NDAA, o Escritório de Política Científica e Tecnológica da Casa Branca e a Fundação Nacional de Ciência lançaram recentemente o National AI Research Resource (NAIRR), nomeando uma força-tarefa para arquitetar suas políticas e implementação.
Por que um corpo governamental conflituoso, habitado por executivos de tecnologia, recomendaria “democratizar” o acesso às infraestruturas que estão no centro de seu poder concentrado? Porque essa proposta não reduziria esse poder. Na verdade, se implementada, quase certamente consolidaria e expandiria o poder e o alcance das grandes empresas de tecnologia. O domínio das “Big Techs” sobre a infraestrutura de pesquisa e desenvolvimento de IA vai além de fornecer “plataformas neutras”. Essas empresas controlam as ferramentas, os ambientes de desenvolvimento, as linguagens e o software que definem o processo de pesquisa de IA — elas fazem a água em que a pesquisa de IA nada. Mesmo que fosse desejável (o que, dados os danos e falhas da IA, deve ser questionável), não há cenário plausível no qual uma infraestrutura nacional de pesquisa pudesse ser construída de forma significativa fora do atual ecossistema da indústria de tecnologia. Fazer isso exigiria lançar uma nova plataforma, desenvolver software e habituar dezenas de milhares de pesquisadores a novas ferramentas e interfaces, enquanto contrata milhares de engenheiros, desenvolvedores de software, certificadores de garantia de qualidade e pessoal de suporte necessário para manter permanentemente um sistema grande e caro.
Na prática, então, essas propostas para “democratizar” o acesso às infraestruturas de pesquisa de IA equivalem a apelos para subsidiar ainda mais os gigantes da tecnologia, licenciando infraestrutura conhecida dessas empresas de forma que lhes permita continuar a definir os termos e condições da IA e da pesquisa de IA. Ao mesmo tempo, centros como o novo CRFM de Stanford estão preparados para consolidar ainda mais esse domínio, apresentando técnicas de IA dependentes da indústria como a vanguarda da pesquisa em IA.
De programas de doutorado patrocinados pela indústria a iniciativas que colocam escritórios de empresas de tecnologia literalmente no meio das universidades, ou a parcerias entre a National Science Foundation e a Amazon para definir os parâmetros de “justiça” em IA e conceder bolsas para aqueles que atendem aos seus critérios positivistas8, vemos uma infinidade esquemas para aproximar a academia das empresas de tecnologia. Isso se estende a acordos de dupla afiliação, que são comuns no campo de IA e equivalem a empresas que contratam professores de IA, permitindo-lhes manter seus títulos acadêmicos e cargos. Acadêmicos com dupla afiliação recebem o salário de uma empresa de tecnologia, trabalham em estreita colaboração com funcionários de tecnologia e se valem da infraestruturas de pesquisa corporativa, ao mesmo tempo que publicam pesquisas sob o aval da universidade. Esses acordos ajudam a proteger as empresas de acusações de que estão contribuindo para a fuga de cérebros ao contratar pesquisadores de universidades. Eles também permitem que as empresas recrutem profissionais para responder a perguntas interessantes para empresas de tecnologia, ao mesmo tempo que criam a aparência de disciplinas acadêmicas que investem orgânica e independentemente nessas mesmas questões.
O fato de esses arranjos conflitantes serem tratados como prática padrão provavelmente está relacionado à clareza com que os pesquisadores de IA e as universidades reconhecem sua dependência de grandes empresas e dos recursos que controlam. Maja Pantic, professora de aprendizado de máquina que trabalha para a Samsung e tem dois cargos no Imperial College London, disse ao Financial Times que “simplesmente não poderia continuar trabalhando apenas na academia, não temos os recursos de computação, eu não poderia pagar pessoas para trabalharem para mim e eu não tinha dinheiro para criar poder de processamento “9. Ela e muitos outros enfrentam a escolha de se aliar a uma empresa, com todas as condições tácitas que essa dependência exige, ou de ser incapazes de fazer o tipo de trabalho que iguala prestígio e sucesso acadêmico.
A extensão da influência da indústria de tecnologia sobre o domínio de pesquisa de IA tem paralelos com o domínio das forças armadas dos EUA sobre a pesquisa científica durante a Guerra Fria. As empresas de tecnologia estão se inspirando em um manual semelhante.
Escrevendo em 1946, logo após o término da Segunda Guerra Mundial, o General Dwight D. Eisenhower redigiu um memorando intitulado “Recursos Científicos e Técnicos como Patrimônios Militares” que propunha trazer cientistas e pesquisadores mais diretamente para o planejamento militar dos EUA, argumentando que isso permitiria aos militares construir confiança com os cientistas, para ter um assento na primeira fila para novos desenvolvimentos científicos e — por meio de financiamento e proximidade colegial — deixar os militares dos EUA conduzirem as questões de pesquisa de forma a garantir que os cientistas estejam “familiarizados com nossos problemas fundamentais”10. Três anos após o memorando, em 1949, os EUA obtiveram evidências de que a União Soviética estava testando armas nucleares. Isso ajudou a colocar o plano de Eisenhower em ação, catalisando a criação de escritórios e agências de pesquisa em ramos militares dedicados a financiar e moldar a pesquisa11.
Relevante para o nosso caso é o poder que isso deu aos militares dos EUA na orientação da pesquisa científica e das instituições que a abrigavam. Essa influência foi aplicada não apenas para garantir que a pesquisa acadêmica fosse animada por questões e preocupações militares dos EUA, mas também para punir denunciantes, controlar a dissidência e incentivar a complacência em face de afirmações exageradas mascaradas pela autoridade científica. É aqui, nessas histórias mais sombrias, que confrontamos o alto custo da captura — seja militar ou industrial — e suas implicações perigosas para a liberdade acadêmica e a produção de conhecimento capaz de responsabilizar o poder.
Aldric Saucier era um cientista que trabalhava para o Exército dos EUA na controversa Iniciativa de Defesa Estratégica (IDE/SDI) do então presidente Ronald Reagan. A IDE foi uma iniciativa militar maciça que recrutou cientistas de todo o país na tentativa de construir um escudo de mísseis balísticos. A proposta era fantástica, e muitos na comunidade de pesquisa a consideraram cientificamente infundada e com probabilidade de aumentar as chances de uma guerra nuclear. Quando Saucier relatou desperdício, fraude e hipérbole dentro do programa, o então secretário de Defesa Dick Cheney supervisionou sua demissão, junto com uma campanha para desacreditar publicamente sua experiência científica12. Fora dos laboratórios de pesquisa comandados por militares, os dissidentes também foram ameaçados. Cientistas de universidades organizaram um boicote à pesquisa e ao financiamento da IDE. Em resposta, o congressista de Indiana, Dan Burton, ameaçou cortar fundos para universidades onde os professores recusavam bolsas relacionadas à IDE. Enquanto isso, a liderança da universidade no Laboratório Nacional Lawrence Livermore, há muito aliada às visões nucleares dos militares dos EUA, trabalhou para expulsar o físico Hugh DeWitt, que se manifestou contra o papel do laboratório em exacerbar a corrida armamentista. Enquanto DeWitt conseguiu manter sua posição, a ele foram negado aumentos e promoções e foi excluído de pesquisas relevantes13. O subsecretário de Defesa para Pesquisa e Engenharia, Donald Hicks — na época encarregado dos contratos de pesquisa do Pentágono — chegou a intimidar publicamente os pesquisadores. Em uma entrevista, Hicks afirmou que, embora os professores pudessem falar em um “país livre”, eles também eram “livres para manter a boca fechada... Eu também sou livre para não lhes dar dinheiro”14. O Wall Street Journal publicou um editorial aplaudindo Hicks.
Com o benefício de uma retrospectiva, sabemos que os críticos da IDE estavam amplamente corretos sobre as falhas e a lógica perigosa que impulsionava o programa. Mas seus argumentos e análises apoiados em evidências não os salvaram de retaliação, coerção financeira e difamação, mesmo dentro de instituições supostamente dedicadas à liberdade acadêmica.
O fato de um punhado de grandes empresas de tecnologia atualmente ter influência semelhante em relação à pesquisa de IA deve nos alarmar, especialmente diante das evidências crescentes do desejo da tecnologia de moldar uma narrativa positiva em resposta à crescente pressão regulatória e pública, ao lado da clara disposição da indústria de silenciar e punir críticos. Os exemplos abundam, desde a revogação do acesso de dados do Facebook a pesquisadores da NYU que examinaram o papel da empresa na insurreição de 6 de janeiro; ao Google, instruindo os pesquisadores internos a “atingir um tom positivo” em suas descobertas15, enquanto direciona “aliados acadêmicos” externos para levantar questões sobre a intervenção regulatória16; aos ataques capciosos da Amazon contra jovens pesquisadores negros que revelaram lógicas racistas em seus produtos, enquanto retaliam contra os trabalhadores que se organizaram contra os danos climáticos da empresa. O Google também demitiu Timnit Gebru, depois de exigir que ela e seus co-autores removessem seus nomes de um artigo crítico dos LLMs que são essenciais para o roteiro de produtos do Google, e que Stanford recentemente reformulou e revalorizou. A lista continua, fornecendo um bom barômetro de onde essas empresas traçam os limites — pesquisas e divergências que ameaçam o crescimento e a receita.
Além de punir os dissidentes e desmoralizar as pesquisas que consideram ameaçadoras, as empresas de tecnologia estão trabalhando para cooptar e neutralizar as críticas. Elas fazem isso em parte financiando e elevando seus críticos mais fracos, muitas vezes instituições e coalizões que se concentram na chamada ética da IA, e enquadram questões de poder e domínio da tecnologia como questões de governança abstratas que tomam a forma atual da indústria de tecnologia como um dado e a proliferação da IA como inevitável. Paralelamente, as empresas de tecnologia também defendem remédios tecnocráticos como “recompensas contra os preconceitos sobre a IA” e correções de justiça que tratam a discriminação habilitada pela tecnologia como um problema de código ruim e engenharia “bugada”17. Essas abordagens resultam em ótimas relações públicas. Elas também servem para definir os engenheiros de elite como árbitros do “preconceito”, enquanto excluem estruturalmente acadêmicos e defensores que não têm treinamento em ciência da computação, mas cujo foco nas assimetrias de poder racializadas e na economia política da IA são essenciais para compreender e abordar os malefícios da IA.
Tudo isso está acontecendo em um cenário em que as instituições acadêmicas, cada vez mais operando como empresas em busca de grandes investidores, têm dificuldade em ignorar as vantagens financeiras e de reputação que as parcerias de tecnologia e financiamento trazem. Essa dinâmica é agravada pela crescente precarização dos empregos acadêmicos, nos quais cada vez menos acadêmicos têm a segurança no emprego ou a solidariedade sindical necessária para contestar com segurança políticas que possam comprometer a liberdade acadêmica. Isso dá às empresas de tecnologia uma alavancagem crescente não apenas sobre as pesquisas que financiam diretamente, mas também sobre as decisões sobre quais trabalhos serão incluídos e excluídos na universidade em geral.
Também não podemos ignorar o ataque em andamento contra o trabalho que revela o racismo e a desigualdade estruturais. Os think-tanks de extrema direita e os apparatchiks republicanos estão pressionando as instituições educacionais a eliminarem a pedagogia e a pesquisa com foco na justiça racial, que eles descartam levianamente sob o termo teoria crítica da raça. Esse ataque à liberdade intelectual é importante por muitas razões. A prática acadêmica e de movimentos atenta ao capitalismo racial e ao racismo estrutural forneceu muitos dos métodos e estruturas essenciais para o trabalho crítico envolvendo as implicações sociais da tecnologia. Ajudou a enfocar a crítica tecnológica além de noções superficiais de preconceito para exames das maneiras pelas quais essas tecnologias replicam padrões de marginalização racial e concentram o poder nas mãos daqueles com recursos escassos e caros para desenvolver e implantar IA. Essa linha de crítica já influenciou fortemente o discurso público e a agenda regulatória global de uma forma que as empresas de tecnologia estão resistindo ativamente.
Então, qual é o caminho a seguir? Para começar, acadêmicos, defensores e formuladores de políticas que produzem e contam com trabalho crítico de tecnologia devem confrontar e caracterizar a dinâmica da captura, cooptação e compromisso da tecnologia, e logo. Isso significa incorporar críticas reflexivas às condições e à criação do conhecimento, e aos compromissos e compensações enfrentados pelos trabalhadores do conhecimento sobre os quais as instituições interessadas têm poder. Dada a política de proximidade cordial que informa as redes de prestígio acadêmico enquanto trabalha para confundir os limites entre os trabalhadores acadêmicos e da indústria, isso certamente será desconfortável. Mas caracterizar essas dinâmicas é a única maneira de abordá-las e de pleitear questões que nos permitam imaginar e exigir futuros alternativos.
Este é exatamente o tipo de intervenção que está ameaçada pela captura da indústria de pesquisas em IA. Então, como apoiar esse trabalho crítico e proteger aqueles que o fazem dentro e fora da academia?
Aqui nos voltamos para o papel central dos trabalhadores de tecnologia organizados, aqueles que fizeram incursões em toda a indústria nos últimos cinco anos e trabalhadores acadêmicos organizando-se em um ambiente onde o mito do gênio individual serve para sustentar a desigualdade, mesmo quando o mercado de trabalho desmorona. A luta dos trabalhadores acadêmicos contra a precariedade da profissão é também uma luta pela liberdade acadêmica. Oportunidades de carreira estáveis e controle mais democrático sobre a universidade ajudariam a desviar o equilíbrio da influência de doadores ricos e patrocinadores da grande indústria. Os trabalhadores de tecnologia organizados, por sua vez, têm um papel a desempenhar na verificação por dentro do poder de sua indústria, lutando por mais controle sobre o trabalho que fazem e trabalhando para conter a influência de seus empregadores na academia e além. Nessa capacidade, poderíamos imaginar pesquisadores e cientistas organizados exigindo um redirecionamento das generosas dotações do Congresso dos EUA que atualmente subscrevem a infraestrutura de pesquisa de IA nacional, usando sua experiência e posição para exigir doações em apoio a universidades, escolas de trabalhadores, verdadeiramente públicas e acessíveis, e programas que integram comunidades com experiência vivida no panteão de alunos e especialistas interrogando tecnologia18. Claro, dado que a indústria de tecnologia não apenas redige políticas por meio de conselhos nomeados pelo Congresso, como o NSCAI, mas também gasta mais do que as indústrias do petróleo e do tabaco em lobby, está claro que qualquer intervenção desse tipo exigirá uma séria luta organizada.
Um futuro em que o Congresso dos Estados Unidos apoie de modo decidido o trabalho crítico verdadeiramente democrático e independente não parece próximo no horizonte. Mas a organização dentro da academia e dos locais de trabalho de tecnologia também pode nos ajudar a proteger a nós mesmos e ao interesse público no curto prazo, preparando-nos para defendermos uns aos outros diante da pressão institucional e desenvolvendo fortalezas de cuidado e responsabilidade mútua que nos permitem caracterizar as dinâmicas de coerção e captura com mais segurança. Isso não será fácil; exigirá o confronto de culturas de competição e território que marcam tanto a tecnologia quanto os locais de trabalho acadêmicos. Mas as apostas são muito altas, e aqueles que pretendem moldar o que sabemos (e não sabemos) sobre IA e a indústria responsável são bem organizados e com muitos recursos. Em suma, esta é uma batalha de poder, não apenas uma disputa de ideias, e estar certos sem a estratégia e a solidariedade para defender nossa posição não nos protegerá.
--
* Meredith Whittaker é Professora de Pesquisa Minderoo na Universidade de Nova York (NYU) e diretora do AI Now Institute. Sua pesquisa se concentra nas implicações sociais da IA e da indústria responsável por ela. Antes de ingressar na NYU, ela fundou e liderou o Grupo de Pesquisa Aberta do Google. mw3900@nyu.edu. Copyright detido pela autora. Direitos de publicação licenciados para a Association for Computing Machinery. Versão em português autorizada pela autora. A autora agradece a Theodora Dryer, Lilly Irani, Nantina Vgontzas, Sarah Myers West e Michael Decker por sua leitura cuidadosa e generosa e sugestões, e a Nicole Weber pela excelente assistência em pesquisa. A edição rigorosa e cuidadosa de J. Khadijah Abdurahman também foi fundamental para a versão final deste texto.
--
1 Krizhevsky, A., Sutskever, I., and Hinton, G.E. ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems 25 (NIPS 2012); https://proceedings.neurips.cc/paper/2012/file/c399862d3b9d6b76c8436e924...
2 Murgia, M. AI academics under pressure to do commercial research. Financial Times. 13-03-2019; https://www.ft.com/content/94e86cd0-44b6-11e9-a965-23d669740bfb
3 Matias, J.N. Why we need industry-independent research on tech & society. Citizens and Tech Lab. Janeiro 2020; https://citizensandtech.org/2020/01/industry-independent-research/
4 Bommasani, R. et al. On the opportunities and risks of foundation models. 2021; arXiv preprint arXiv:2108.07258
5 Bender, E.M., Gebru, T., McMillan-Major, A., and Shmitchell, S. On the dangers of stochastic parrots: Can language models be too big? Proc. of the 2021 ACM Conference on Fairness, Accountability, and Transparency. ACM, Nova York, 2021, 610-623; https://dl.acm.org/doi/10.1145/3442188.3445922
6 Bommasani, R. et al. op.cit.
7 https://www.congress.gov/116/bills/hr6395/BILLS-116hr6395enr.pdf
8 https://www.nsf.gov/funding/pgm_summ.jsp?pims_id=505651
9 Murgia, M. op.cit.
10 Melman, S. Pentagon Capitalism: The Political Economy of War. McGraw-Hill, New York, 1970.
11 Krinsky, R. Swords and sheepskins: Militarization of higher education in the United States and prospects of its conversion. Bulletin of Peace Proposals 19, 1 (1988), 33-51; http://www.jstor.org/stable/44481371
12 Lardner, Jr., G. Army accuses SDI critic of falsifying credentials. Washington Post. 14-04-1992; https://www.washingtonpost.com/archive/politics/1992/04/14/army-accuses-...
13 Martin, B. Science: contemporary censorship. In Censorship: A World Encyclopedia, Vol 4. D. Jones, ed. Fitzroy Dearborn, Londres, 2001, 2167–2170; https://documents.uow.edu.au/~bmartin/pubs/01cescience.html
14 Hiatt, F. Official seeks like minds in 'Star Wars'. Washington Post. 13-05-1986; https://www.washingtonpost.com/archive/politics/1986/05/13/official-seek...
15 Dave, P. and Dastin, J. Google told its scientists to 'strike a positive tone' in AI research – documents. Reuters. 23-12-2020; https://www.reuters.com/article/us-alphabet-google-research-focus/google...
16 Satariano, A., and Stevis-Gridneff, M. Big tech turns its lobbyists loose on Europe, alarming regulators. New York Times. 14-12-2020; https://www.nytimes.com/2020/12/14/technology/big-tech-lobbying-europe.html
17 Vanian, J. Why Microsoft and Twitter are turning to bug bounties to fix their A.I. Fortune. 10-08-2021; https://fortune.com/2021/08/10/why-microsoft-and-twitter-are-turning-to-...
18 Quero agradecer especialmente a Lilly Irani e Nandina Vgontzas por seu cuidado e generosidade intelectual, que me ajudaram a mapear esse conjunto de pontos.