O que a Inteligência Artificial está escondendo - Microsoft e meninas vulneráveis no norte da Argentina
Tomás Balmaceda, Karina Pedace e Tobias Schleider*
Data da publicação: julho 2023
Este artigo foi publicado originalmente em State of Power 2023 – Digital Power, Transnational Institute, em fevereiro de 2022.
O filme O Mágico de Oz estreou em 1939. Um de seus atores principais foi Terry, o cachorro treinado para fazer o papel de Toto, que era então considerado “o animal mais inteligente do planeta”. O assunto da inteligência animal preocupava muitos estudiosos da época, enquanto havia um interesse crescente em entender se as máquinas podiam pensar por conta própria. Tal possibilidade claramente desafiava o senso comum, que a descartava completamente, mas começou a ser contestada uma década após a estreia do filme na obra do matemático britânico Alan Turing. Durante grande parte do século XX, a ideia de que animais ou máquinas eram capaz de pensar era considerado totalmente absurdo -- muita coisa mudou desde então.
No início de 2016, o governador de Salta, na Argentina, escolheu O Mágico de Oz como o livro para distribuir aos alunos de sua província que estavam aprendendo a ler. As meninas descobriram no livro de L. Frank Baum que sempre há um homem por trás da “mágica”. Quando se tornaram adolescentes, essa lição se estendeu a outras áreas mais concretas de suas vidas: que não é a mágica, mas os homens que estão por trás da pobreza, das promessas, das decepções e das gravidezes.
Até então, a inteligência artificial (IA) deixou de ser o teste de Turing para tornar-se a área de especialização preferida das corporações mais poderosas e influentes do mundo. Graças a aplicativos atraentes em dispositivos pessoais, como telefones celulares e plataformas de streaming, ganhou ampla popularidade.
Até alguns anos atrás, ouvíamos apenas a expressão "inteligência artificial” para nos referirmos ao HAL 9000, de 2001: Uma Odisséia no Espaço, ou Data, o andróide de Star Trek. Mas hoje, poucos se surpreendem com seu uso diário. O consenso na mídia e em certa literatura acadêmica é que estamos presenciando uma das revoluções tecnológicas mais importantes da história.
No entanto, o deslumbramento inspirado por essa tecnologia – que parece saída de um conto de fadas ou de um filme de ficção científica – esconde sua verdadeira natureza: é tanto uma criação humana quanto os mecanismos que o pretenso Mágico de Oz queria que aceitassem como eventos divinos e sobrenaturais. Nas mãos do aparato estatal e das grandes corporações, a "inteligência artificial” pode ser um instrumento eficaz de controle, vigilância e dominação, e de consolidação do status quo. Isso ficou claro quando a gigante do software Microsoft aliou-se ao governo de Salta, prometendo que um algoritmo poderia ser a solução para a crise de evasão escolar e gravidez na adolescência naquela região da Argentina.
Algoritmos que preveem a gravidez na adolescência
Um ano depois de distribuir exemplares de O Mágico de Oz às escolas de sua província, o governador de Salta, Juan Manuel Urtubey, anunciou um acordo com a subsidiária nacional da Microsoft para implementar uma plataforma de IA projetada para evitar o que descreveu como "um dos problemas mais urgentes” da região. Ele estava se referindo ao aumento de casos de gravidez na adolescência. Segundo as estatísticas oficiais, em 2017, mais de 18% de todos os nascimentos registados na província foram de jovens com menos de 19 anos: 4.914 crianças, um ritmo superior a 13 por dia.
Ao promover sua iniciativa, o governador declarou: "Estamos lançando um programa para prevenir a gravidez na adolescência usando inteligência artificial com a ajuda de uma empresa de software de renome mundial. Com essa tecnologia, você pode prever com cinco ou seis anos de antecedência -- com o primeiro nome, o sobrenome e o endereço -- qual menina tem 86% de probabilidade de ter uma gravidez na adolescência'.
Com quase o mesmo alarde das saudações do Mágico de Oz aos visitantes que encontraram seu caminho ao longo da estrada de tijolos amarelos, a Microsoft anunciou o acordo, chamando-o de "iniciativa inovadora, única no país e um passo importante no processo de transformação digital da província".
Um terceiro integrante da aliança entre a gigante da tecnologia e o governo foi a Fundação CONIN, presidida por Abel Albino, médico e ativista que lutou contra a legalização do aborto e do uso de preservativos. Essa aliança revela os motivos políticos, econômicos e culturais por trás do programa: o objetivo era consolidar o conceito de "família” em que o sexo e os corpos das mulheres são destinados à reprodução -- supostamente o propósito último e sagrado que deve ser protegido a todo custo.
Essa conhecida visão conservadora existe há séculos na América Latina, mas aqui foi vestida com roupas de cores vivas graças à cumplicidade de uma corporação norte-americana (Microsoft) e ao uso de termos como "inteligência artificial” que aparentemente foram suficientes para garantir eficácia e modernidade.
Os anúncios também forneceram informações sobre algumas das metodologias a serem utilizadas. Por exemplo, eles disseram que os dados básicos "serão enviados voluntariamente pelos indivíduos” e permitirão que o programa "trabalhe para prevenir a gravidez na adolescência e o abandono escolar; algoritmos inteligentes são capazes de identificar características pessoais que tendem a levar a alguns desses problemas e alertar o governo”. O Coordenador de Tecnologia do Ministério da Primeira Infância da Província de Salta, Pablo Abeleira, declarou que "no nível tecnológico, o nível de precisão do modelo que estamos desenvolvendo foi próximo a 90%, de acordo com um teste piloto realizado na cidade de Salta”.
O que está por trás dessas reivindicações?
O mito da inteligência artificial objetiva e neutra
A IA já foi incorporada não apenas ao discurso público, mas também em nossas vidas diárias. Às vezes parece que todos sabem o que queremos dizer com "inteligência artificial”. No entanto, este termo não deixa de ser ambíguo, não apenas porque é geralmente usado como um guarda-chuva sob o qual aparecem conceitos muito semelhantes e relacionados -- mas não sinônimos -- como "aprendizado de máquina', "aprendizagem profunda” ou computação cognitiva, entre outros – mas também porque uma análise mais detalhada revela que o próprio conceito de inteligência neste contexto é controverso.
Neste ensaio, usaremos IA para nos referirmos a modelos ou sistemas de algoritmos que podem processar grandes volumes de informações e dados enquanto "aprendem” e aprimoram sua capacidade de realizar tarefas além das que foram originalmente programados para fazer. Um caso de IA, por exemplo, é um algoritmo que, após processar centenas de milhares de fotos de gatos, consegue extrair o que precisa para reconhecer um gato em uma nova foto, sem confundi-lo com um brinquedo ou almofada. Quanto mais fotografias lhe derem, mais aprenderá e menos erros cometerá.
Esses desenvolvimentos em IA estão se espalhando pelo mundo e já são usados em tecnologias cotidianas, como reconhecimento de voz de assistentes digitais como Siri e Alexa, bem como em projetos mais ambiciosos, como carros autônomos ou testes para detecção precoce de câncer e outras doenças.
Existe uma gama muito ampla de usos para essas inovações, o que afeta muitas indústrias e setores da sociedade. Na economia, por exemplo, algoritmos prometem identificar os melhores investimentos na bolsa de valores. Na arena política, houve campanhas de mídia social a favor ou contra um candidato eleitoral que foram projetadas para atrair diferentes indivíduos com base em suas preferências e uso da Internet. Em relação à cultura, as plataformas de streaming utilizam algoritmos para oferecer recomendações personalizadas de séries, filmes ou músicas.
O sucesso desses usos da tecnologia e as promessas de benefícios que até recentemente existiam apenas na ficção científica, inflaram a percepção do que a IA realmente é capaz de fazer. Hoje, é amplamente considerada como a epítome da atividade racional, livre de preconceitos, paixões e erros humanos.
Isso, porém, é apenas um mito. Não existe "IA objetiva” ou IA que não seja contaminada por valores humanos. Nossa condição humana – talvez humana demais – inevitavelmente terá um impacto na tecnologia. Uma maneira de deixar isso claro é remover alguns dos véus que escondem um termo como "algoritmo”.
A filosofia da tecnologia nos permite distinguir pelo menos duas maneiras de defini-la em termos conceituais. Em sentido estrito, um algoritmo é uma construção matemática que é selecionada por causa de sua eficácia anterior na resolução de problemas semelhantes aos que serão resolvidos agora (como redes neurais profundas, redes bayesianas ou "cadeias de Markov”). Em sentido amplo , um algoritmo é todo um sistema tecnológico composto por várias entradas, como dados de treinamento, que produz um modelo estatístico projetado, montado e implementado para resolver uma questão prática predefinida.
Tudo começa com uma compreensão simplista dos dados. Os dados emergem de um processo de seleção e abstração e, conseqüentemente, nunca podem oferecer uma descrição objetiva do mundo. Os dados são inevitavelmente parciais e tendenciosos, pois são o resultado de decisões e escolhas humanas, como incluir certos atributos e excluir outros. O mesmo acontece com a noção de previsão baseada em banco de dados. Uma questão fundamental para o uso governamental da ciência baseada em dados em geral e do aprendizado de máquina em particular é decidir o que medir e como medir com base em uma definição do problema a ser abordado, o que leva à escolha do algoritmo, no sentido estrito, que é considerado mais eficiente para a tarefa, não importa quão mortais sejam as consequências. A contribuição humana é portanto crucial para determinar qual problema resolver.
Fica assim claro que existe uma ligação inextricável entre a IA e uma série de decisões humanas. Embora o aprendizado de máquina ofereça a vantagem de processar um grande volume de dados rapidamente e a capacidade de identificar padrões nos dados, há muitas situações em que a supervisão humana não é apenas possível, mas necessária.
Puxando a cortina da IA
Quando Dorothy, o Homem de Lata, o Leão e o Espantalho finalmente conheceram o Mágico de Oz, ficaram fascinados com a voz profunda e sobrenatural desse ser que, na versão cinematográfica de 1939, foi interpretado por Frank Morgan e apareceu em um altar atrás um misterioso fogo e fumaça. Porém, Totó, o cachorro de Dorothy, não ficou tão impressionado e abriu a cortina, expondo a farsa: havia alguém manipulando um conjunto de alavancas e botões e comandando tudo no palco. Assustado e constrangido, o pretenso bruxo tentou manter a farsa: "Não dêem atenção ao homem atrás da cortina!” Mas, quando encurralado pelos outros personagens, ele foi forçado a admitir que era tudo uma farsa. "Sou apenas um homem comum”, confessou a Dorothy e seus amigos. O Espantalho, porém, corrigiu-o imediatamente: "Você é mais do que isso. Você é um embuste”.
Quando tiramos as roupas e vestidos extravagantes, vemos a IA como ela realmente é: um produto da ação humana que carrega as marcas de seus criadores. Às vezes, seus processos são vistos como semelhantes ao pensamento humano, mas são tratados como isentos de erros ou preconceitos. Diante da retórica generalizada e persuasiva sobre sua neutralidade de valor e a objetividade que a acompanha, devemos analisar a inevitável influência dos interesses humanos em vários estágios dessa tecnologia supostamente "mágica".
A promessa da Microsoft e do governo de Salta de prever "com cinco ou seis anos de antecedência, com nomes, sobrenomes e endereços, qual menina ou futura adolescente tem 86% de probabilidade de ter uma gravidez na adolescência” acabou sendo uma promessa vazia.
O fiasco começou com os dados: eles usaram um banco de dados coletado pelo governo provincial e organizações da sociedade civil em bairros de baixa renda da capital provincial em 2016 e 2017. A pesquisa atingiu pouco menos de 300.000 pessoas, das quais 12.692 eram meninas e adolescentes entre 10 e 19 anos. No caso dos menores, a informação foi recolhida após obtenção do consentimento do "chefe de família” (sic).
Esses dados foram inseridos em um modelo de aprendizado de máquina que, de acordo com seus implementadores, é capaz de prever com precisão cada vez maior quais meninas e adolescentes ficarão grávidas no futuro. Isso é um absurdo absoluto: a Microsoft estava vendendo um sistema que prometia algo que é tecnicamente impossível de alcançar. Ela recebeu uma lista de adolescentes com probabilidade de gravidez. Longe de decretar qualquer política, os algoritmos forneceram informações ao Ministério da Primeira Infância para que ele pudesse lidar com os casos identificados.
O governo de Salta não especificou o que implicaria sua abordagem, nem os protocolos utilizados, as atividades de acompanhamento planejadas, o impacto das medidas aplicadas -- se é que o impacto foi medido de alguma forma -- os critérios de seleção para as organizações não governamentais ou fundações envolvidas, nem o papel da Igreja Católica.
O projeto também teve grandes falhas técnicas: uma investigação da World Web Foundation relatou que não havia informações disponíveis sobre os bancos de dados usados, as premissas que sustentam o projeto dos modelos ou sobre os modelos finais projetados, revelando a opacidade do processo . Além disso, constatou que a iniciativa falhou em avaliar as desigualdades potenciais e não prestou atenção especial a grupos minoritários ou vulneráveis que poderiam ser afetados. Também não considerou as dificuldades de trabalhar com uma faixa etária tão ampla na pesquisa e o risco de discriminação ou mesmo criminalização.
Os especialistas concordaram que os dados da avaliação foram levemente contaminados, pois os dados usados para avaliar o sistema eram os mesmos usados para treiná-lo. Além disso, os dados não eram adequados para o propósito declarado. Eles foram retirados de uma pesquisa com adolescentes residentes na província de Salta que solicitou informações pessoais (idade, etnia, país de origem etc) e se já estiveram ou estavam grávidas. No entanto, a pergunta que eles estavam tentando responder com base nessas informações atuais era se uma adolescente poderia engravidar no futuro, algo que parecia mais uma premonição do que uma previsão. Além disso, a informação foi tendenciosa, porque os dados sobre gravidez na adolescência tendem a ser incompletos ou ocultados, dada a natureza inerentemente sensível desse tipo de informação.
Pesquisadores do Laboratório de Inteligência Artificial Aplicada do Instituto de Ciências da Computação da Universidade de Buenos Aires constataram que, além do uso de dados não confiáveis, houve graves erros metodológicos na iniciativa da Microsoft. Além disso, eles também alertaram sobre o risco de adoção de medidas equivocadas pelos formuladores de políticas: "As técnicas de inteligência artificial são poderosas e exigem que aqueles que as utilizam ajam com responsabilidade; são apenas mais uma ferramenta, que deve ser complementada por outras, e de forma alguma substituem o conhecimento ou a inteligência de um especialista”, especialmente em uma área tão sensível como a saúde pública e setores vulneráveis.
E isso levanta a questão mais séria no centro do conflito: mesmo que fosse possível prever a gravidez na adolescência (o que parece improvável), não está claro para que isso serviria. Falta prevenção em todo o processo. O resultado, no entanto, foi criar um risco inevitavelmente alto de estigmatizar meninas e adolescentes.
IA como instrumento de poder sobre populações vulneráveis
Desde o início, a aliança entre a Microsoft, o governo de Salta e a Fundação CONIN foi baseada em pressupostos preconcebidos que não só são questionáveis, mas também conflitantes com princípios e normas consagrados na Constituição Argentina e nas convenções internacionais incorporadas ao sistema nacional . Baseia-se inquestionavelmente na ideia de que a gravidez (infantil ou adolescente) é um desastre e, em alguns casos, a única forma de preveni-la é através de intervenções diretas. Essa premissa está ligada a uma postura muito vaga sobre a atribuição de responsabilidades.
Por um lado, aqueles que planejaram e desenvolveram o sistema parecem ver a gravidez como algo pelo qual ninguém é responsável. Mas, por outro lado, atribuem a responsabilidade exclusivamente às meninas e adolescentes grávidas. De qualquer forma, essa ambiguidade contribui, antes de tudo, para a objetificação das pessoas envolvidas e também invisibiliza aqueles que são de fato responsáveis: principalmente os homens (ou adolescentes ou meninos, mas principalmente homens) que obviamente contribuíram para a gravidez (pessoas costumam dizer, com um tom grosseiro e eufemístico, que a menina ou adolescente “ficou grávida”). Em segundo lugar, ignora o fato de que, na maioria dos casos de gravidez entre mulheres jovens e em todos os casos de gravidez entre meninas, não só é errado presumir que a menina ou adolescente consentiu em relações sexuais, mas essa suposição deve ser completamente descartada.
Em suma, essa postura ambígua obscurece o fato crucial de que todas as gestações de meninas e muitas gestações de mulheres jovens são resultado de estupro.
No que diz respeito ao aspecto mais negligenciado do sistema – ou seja, a previsão da taxa de abandono escolar – assume-se (e conclui-se) que uma gravidez levará inevitavelmente um aluno a abandonar a escola. Embora o custo de oportunidade que a gravidez precoce e a maternidade impõem às mulheres nunca deva ser ignorado, a interrupção ou abandono da educação formal não é inevitável. Existem exemplos de programas e políticas inclusivas que têm sido eficazes para ajudar a evitar ou reduzir as taxas de abandono escolar.
De uma perspectiva mais ampla, o sistema e seus usos afetam direitos que se enquadram em um espectro de direitos sexuais e reprodutivos, que são considerados direitos humanos. A sexualidade é uma parte central do desenvolvimento humano, independentemente de os indivíduos optarem por ter filhos. No caso dos menores, importa ter em conta as diferenças nas suas capacidades evolutivas, tendo em conta que a orientação dos pais ou tutores deve sempre privilegiar a capacidade de exercício dos direitos por conta própria e em benefício próprio . Os direitos sexuais, em particular, implicam considerações específicas. Por exemplo, é essencial respeitar as circunstâncias particulares de cada menina, menino ou adolescente, seu nível de compreensão e maturidade, saúde física e mental, relacionamento com vários membros da família e, finalmente, a situação imediata que eles enfrentam.
O uso da IA tem impactos concretos nos direitos de meninas e adolescentes (potencialmente) grávidas. Primeiro, o direito à autonomia pessoal das meninas e adolescentes foi violado. Já mencionamos a sua objetificação e a indiferença do projeto face aos seus interesses individuais na busca de um suposto interesse geral. As meninas e adolescentes sequer eram consideradas titulares de direitos e seus desejos ou preferências individuais eram completamente ignorados.
Nesse projeto da Microsoft, a IA foi usada como instrumento para gerar poder sobre meninas e adolescentes, que foram catalogadas sem seu consentimento (ou seu conhecimento, aparentemente). Segundo os promotores do sistema, as entrevistas eram feitas com os "chefes de família” (principalmente seus pais) sem ao menos convidá-los a participar. Além disso, os questionários incluíam assuntos altamente pessoais (intimidade, vida sexual etc) em que seus pais raramente seriam capazes de responder em detalhes sem invadir a privacidade de suas filhas ou -- tão grave quanto -- basear-se em suposições ou preconceitos que o estado iria então assumir como verdadeiro e legítimo.
Outras violações incluem os direitos à intimidade, privacidade e liberdade de expressão ou opinião, enquanto os direitos à saúde e à educação correm o risco de serem ignorados, apesar das declarações das autoridades e da Microsoft sobre sua intenção de cuidar das meninas e adolescentes. Por fim, cabe mencionar um direito conexo que assume particular importância no contexto específico deste projeto: o direito à liberdade de pensamento, consciência e religião.
Não iríamos ao ponto de afirmar que esse episódio teve um final feliz, como o Mágico de Oz teve. Mas o projeto da Microsoft não durou muito. Sua interrupção não foi por críticas de ativistas, mas por um motivo muito mais mundano: em 2019, foram realizadas eleições nacionais e estaduais na Argentina e Urtubey não foi reeleito. A nova administração encerrou vários programas, incluindo o uso de algoritmos para prever a gravidez, e reduziu o Ministério da Primeira Infância, Infância e Família ao status de secretaria.
O que a IA está escondendo
A fumaça retórica e os espelhos dos desenvolvimentos objetivos e neutros da IA desmoronam quando desafiados por vozes que afirmam que isso é impossível em princípio, como argumentamos na primeira seção, dada a participação de analistas humanos em vários estágios do desenvolvimento dos algoritmos . Homens e mulheres definiram o problema a ser resolvido, projetaram e prepararam os dados, determinaram quais algoritmos de aprendizado de máquina eram os mais adequados, interpretaram criticamente os resultados da análise e planejaram a ação adequada a ser tomada com base nos insights que a análise revelou.
Há insuficiente reflexão e discussão aberta sobre os efeitos indesejáveis do avanço desta tecnologia. O que parece prevalecer na sociedade é a ideia de que o uso de algoritmos em diferentes áreas garante não apenas eficiência e rapidez, mas também a não interferência de preconceitos humanos que podem "manchar” a ação imaculada dos códigos que sustentam os algoritmos.
Como resultado, as pessoas assumem que a IA foi criada para melhorar a sociedade como um todo ou, pelo menos, certos processos e produtos. Mas quase ninguém questiona o básico – para quem isso será uma melhoria, quem se beneficiará e quem avaliará as melhorias? Cidadãos? O estado? Corporações? Meninas adolescentes de Salta? Os homens adultos que abusaram delas? Em vez disso, há uma falta de consciência real sobre a escala de seu impacto social ou a necessidade de discutir se tal mudança é inevitável.
As pessoas não se surpreendem mais com as constantes notícias sobre a introdução da IA em novos campos, exceto pelo que há de novo nela, e assim como o passar do tempo, é tratada como algo que não pode ser parado ou revisitado. A crescente automação dos processos que o ser humano realizava pode gerar alarme e preocupação, mas não desperta interesse em detê-la ou refletir sobre como será o futuro do trabalho e da sociedade quando a IA assumir grande parte do nosso trabalho. Isso levanta uma série de perguntas que raramente são feitas: isso é realmente desejável? Para quais setores sociais?
Quem se beneficiará com uma maior automação e quem sairá perdendo? O que podemos esperar de um futuro onde a maioria dos trabalhos tradicionais serão executados por máquinas? Parece não haver tempo nem espaço para discutir o assunto: a automação simplesmente acontece e tudo o que podemos fazer é reclamar do mundo que perdemos ou nos maravilhar com o que ela pode alcançar hoje.
Essa complacência com os constantes avanços da tecnologia em nossas vidas privada, pública, profissional e cívica se deve à confiança na crença de que esses desenvolvimentos são "superiores” ao que pode ser alcançado pelo mero esforço humano. Assim, como a IA é muito mais poderosa, ela é "inteligente” (o rótulo "inteligente” é usado para telefones celulares, aspiradores de pó e cafeteiras, entre outros objetos que fariam Turing corar) e livre de preconceitos e intenções. No entanto, como apontado anteriormente, a própria ideia de IA de valor neutro é uma ficção. Para colocar de forma simples e clara: existem vieses em todos os estágios de projeto, teste e aplicação do algoritmo e, portanto, é muito difícil identificá-los e até mesmo mais difícil corrigi-los. No entanto, é imprescindível fazê-lo para desmascarar sua natureza supostamente estéril, desprovida de valores e erros humanos.
Uma abordagem focada nos perigos da IA, juntamente com uma postura otimista sobre seu potencial, pode levar a uma dependência excessiva da IA como solução para nossas preocupações éticas – uma abordagem em que a IA é solicitada a responder aos problemas que a IA produziu. Se os problemas forem considerados puramente tecnológicos, eles deveriam exigir apenas soluções tecnológicas. Em vez disso, temos decisões humanas vestidas com trajes tecnológicos. Precisamos de uma abordagem diferente.
O caso dos algoritmos que deveriam prever a gravidez na adolescência em Salta expõe quão irreal é a imagem da chamada objetividade e neutralidade da inteligência artificial. Como Toto, não podemos ignorar o homem por trás da cortina: o desenvolvimento de algoritmos não é neutro, mas sim baseado em uma decisão tomada a partir de muitas escolhas possíveis. Como o projeto e a funcionalidade de um algoritmo refletem os valores de seus projetistas e seus usos pretendidos, os algoritmos inevitavelmente levam a decisões tendenciosas. As decisões humanas estão envolvidas na definição do problema, na preparação e projeto dos dados, na seleção do tipo de algoritmo, na interpretação dos resultados e no planejamento das ações com base na sua análise. Sem supervisão humana qualificada e ativa, nenhum projeto de algoritmo de IA é capaz de atingir seus objetivos e ser bem-sucedido. A ciência de dados funciona melhor quando a experiência humana e o potencial dos algoritmos funcionam em conjunto.
Algoritmos de inteligência artificial não são mágicos, mas não precisam ser uma farsa, como argumentou o Espantalho. Nós apenas temos que reconhecer que eles são humanos.
(*) Karina Pedace ensina alunos de graduação e pós-graduação na Universidade de Buenos Aires e na Universidade Nacional de Matanza, e é pesquisadora do Instituto de Pesquisas Filosóficas da Sociedade Argentina (IIF-SADAF-CONICET). Suas áreas de pesquisa atuais incluem filosofia da tecnologia, metafísica da mente e metodologias de pesquisa. É secretária executiva da Rede Latino-Americana de Mulheres Filósofas da UNESCO e cofundadora do Grupo de Pesquisa em Inteligência Artificial, Filosofia e Tecnologia (GIFT). Em 2022, ela foi reconhecida internacionalmente como uma das 100 Mulheres Brilhantes na Ética da IA: https://womeninaiethics.org/the-list/of-2022/.
(*) Tomás Balmaceda é doutor em Filosofia pela Universidade de Buenos Aires. Atualmente é Pesquisador do IIF (SADAF/CONICET) e faz parte do grupo GIFT que analisa a tecnologia e a inteligência artificial pelas lentes da filosofia. Autor de vários livros, seus interesses incluem a ética da influência na rede, nova longevidade e educação financeira para a população LGBTIQ+.
(*) Tobías J. Schleider é advogado e especialista em direito penal pela Universidade Nacional de Mar de Plata e doutor pela Universidade de Buenos Aires em Filosofia do Direito. É Professor da Universidade Nacional do Sul, onde dirige a licenciatura em Segurança Pública. Suas linhas de pesquisa atuais incluem prevenção da violência apoiada pela tecnologia, teoria da ação humana, causalidade e influência da sorte na atribuição de responsabilidades.