Transparência de Dados em Conteúdos de Interesse Público: Propostas de Regulação para Plataformas Digitais no Brasil
Eliandro Jeovane Natal da Silva
Resumo
O crescimento das plataformas digitais apresenta desafios relacionados à privacidade, transparência e governança ética. O presente artigo explora a necessidade de maior transparência de dados em conteúdos de interesse público nas plataformas digitais, regulamentações mais claras e rigorosas sobre o uso de dados pessoais, e a moderação de conteúdo. Foi utilizada a consulta pública do Comitê Gestor da Internet no Brasil (CGI.br), em 2023, para propor soluções concretas e alinhadas aos direitos dos usuários e à inovação digital. Discute-se a necessidade de medidas adicionais para garantir a pluralidade de informações, a proteção de dados pessoais, a transparência nos processos de moderação e pela criação de autoridades regulatórias independentes para fiscalizar o cumprimento das normas e aplicar sanções justas, promovendo um ambiente digital mais equitativo. Com base na análise das contribuições da consulta pública do CGI.br (2023), propõe-se a implementação de uma governança mais robusta e transparente. Esta governança deve incluir regulações precisas e rigorosas sobre o uso de dados pessoais e a moderação de conteúdo, assegurando o equilíbrio entre interesses comerciais e a proteção dos direitos fundamentais dos usuários.
Introdução
Com o avanço acelerado da tecnologia e a popularização da Internet nas últimas décadas, as plataformas digitais têm desempenhado um papel central na disseminação de informações, na comunicação social e na vida cotidiana das pessoas. Com este alcance e influência, as práticas adotadas por estas plataformas em relação ao uso de dados pessoais e à moderação de conteúdo tornaram-se temas de grande relevância, especialmente no que diz respeito a transparência dessas ações. A coleta e o uso de dados pessoais, por exemplo, frequentemente envolvem políticas complexas e pouco acessíveis, dificultando a compreensão dos usuários e comprometendo o consentimento informado (Tufekci, 2014).
A falta de transparência nas práticas de moderação de conteúdo e a ausência de mecanismos compreensíveis de governança trazem desafios significativos, como a manipulação de informações, a amplificação da desinformação e a promoção de práticas antiéticas na comunicação digital. Estas questões impactam diretamente à privacidade, à autonomia e à segurança dos usuários (Acquisti; Gross; Stutzman, 2016).
Nesse contexto, o Comitê Gestor da Internet no Brasil (CGI.br)[1] e a Revista PoliTICs[2] lançaram uma chamada para artigos científicos que contribuam ao debate sobre a regulação de plataformas digitais no Brasil. Este artigo insere-se nesta iniciativa ao focalizar na análise das perguntas e respostas da consulta pública realizada pelo CGI.br no ano de 2023.
Metodologia
Este estudo adota uma metodologia estruturada e fundamentada em múltiplos componentes, alinhada às recomendações de autores como Triviños (1987), Lakatos e Marconi (1992), e Yin (1992). A pesquisa é classificada como bibliográfica e documental, com base na análise sistemática de documentos oficiais, artigos acadêmicos e outras fontes documentais, além de contribuições da consulta pública organizada pelo CGI.
Quadro 1 – Desenho metodológico.
| Componentes da metodologia | Características do estudo | Etapas do artigo |
| Tipo de estudo | Bibliográfico e documental | Análise de documentos, artigos, leis e consulta pública do CGI.br. |
| Enfoque da pesquisa | Qualitativo | Estudo de caso da Pergunta 31-V da consulta pública do CGI.br. |
Fonte: Os autores (2024).
O enfoque da pesquisa é qualitativo e inclui a análise da Pergunta 31-V da consulta pública promovida pelo CGI.br (2023), que aborda “categorias de conteúdos de claro interesse público que sejam submetidas a mecanismos mais rigorosos de transparência”. Esta pergunta foi selecionada por sua relevância para compreender as demandas sociais e as possibilidades de regulamentação que promovam maior transparência no gerenciamento de dados e moderação de conteúdo pelas plataformas digitais.
A partir da análise das respostas à Pergunta 31-V da consulta pública promovida pelo CGI.br, é possível identificar categorias de conteúdos que, por seu evidente interesse público, demandam maior rigor na aplicação de mecanismos de transparência. Entre essas categorias, destacam-se:
- Períodos eleitoras, apontado pela contribuição do Instituto Vero.
- Defesa de direitos de crianças e adolescentes, apontado pela contribuição do Instituto Alana[3].
Transparência de dados em períodos eleitorais nas plataformas digitais
A contribuição realizada pelo Instituto Vero[4] na consulta pública promovida pelo CGI.br ressalta a necessidade de atenção especial às plataformas digitais durante períodos eleitorais. De acordo com a instituição, esses períodos demandam mecanismos mais rigorosos de transparência devido à influência significativa das redes sociais na formação de opinião pública e na implementação de projetos políticos.
O impacto das plataformas digitais nos processos eleitorais tem sido uma preocupação crescente, especialmente diante do aumento da desinformação on-line e de seu uso para fins de propaganda eleitoral (Muñoz, 2020). No Brasil, o Tribunal Superior Eleitoral (TSE) [5]estabeleceu colaborações com as principais plataformas digitais para construir soluções para mitigar esses efeitos e garantir eleições justas e transparentes.
A Justiça Eleitoral é responsável por possibilitar a expressão da vontade dos eleitores, operacionalizando todos os procedimentos eleitorais para que se desenvolvam em harmonia e transparência, sem que estorvos possam desviar a soberania popular (Velloso; Agra, 2016). Dessa forma, é de extrema importância que sejam explorados os meios de manipulação de dados existentes nas plataformas digitais atuais para que se possa refletir sobre a responsabilidade da Justiça Eleitoral no uso de redes sociais para propaganda política. Portanto, o respeito rigoroso da LGPD e, especialmente da Resolução 23. 732/2024 do TSE e das que a substituam ou aprimorem, nas campanhas eleitorais, é essencial para garantir a integridade do processo democrático e a confiança do eleitorado. O cumprimento das normas de proteção de dados não apenas assegura a conformidade legal, mas também preserva os direitos dos eleitores, na condição de titulares dos dados pessoais, evitando manipulações indevidas e promovendo um ambiente eleitoral justo e transparente.
Assim, o início do uso das redes sociais nas campanhas eleitorais no Brasil trouxe tanto avanços quanto desafios. Por um lado, essas plataformas democratizaram o acesso à informação política e facilitaram o contato direto entre candidatos e eleitores. Por outro, evidenciaram a necessidade urgente de regulamentações mais completas e de uma educação digital abrangente para que o eleitor seja capaz de filtrar e compreender as informações de forma crítica. Contudo, essa democratização também requer que o sistema eleitoral esteja preparado para enfrentar os desafios da transparência e da veracidade das informações compartilhadas, a fim de evitar o abuso das plataformas digitais para a manipulação do eleitorado.
Transparência de dados e proteção de direitos de crianças e adolescentes nas plataformas digitais
A defesa dos direitos de crianças e adolescentes nas plataformas digitais é um tema de relevância, especialmente diante do aumento da exposição desse público a conteúdos inadequados e práticas que podem comprometer sua integridade e desenvolvimento. O Instituto Alana, em sua contribuição à consulta pública promovida pelo CGI, enfatiza a necessidade de mecanismos mais rigorosos de transparência para monitorar e mitigar violações aos direitos desse grupo, em conformidade com o artigo 227 da Constituição Federal, que estabelece a prioridade absoluta na proteção de crianças e adolescentes.
A Lei Geral de Proteção de Dados (BRASIL, 2018), estabelece diretrizes específicas para a coleta, armazenamento e processamento de dados pessoais de crianças e adolescentes, reconhecendo sua condição de vulnerabilidade e a necessidade de proteção adicional. Essa legislação é complementada por esforços da Autoridade Nacional de Proteção de Dados (ANPD)[6], que define normas voltadas para a segurança e privacidade das informações desse público, especialmente em plataformas digitais.
Entretanto, a prática revela desafios quanto a coleta dados pessoais de crianças e adolescentes. Muitas plataformas digitais coletam dados de crianças e adolescentes sem transparência adequada ou consentimento explícito, contrariando os princípios da LGPD. Isso demanda um esforço conjunto entre governo, empresas e sociedade civil para assegurar que os dispositivos legais sejam cumpridos. Além disso, as empresas devem adotar medidas claras e éticas para informar usuários e responsáveis sobre como os dados serão utilizados, reforçando a confiança no ambiente digital (Silva, 2023).
O consentimento parental, exigido pela LGPD, é um elemento central para garantir a transparência no uso de dados de menores. Como apontam Soares e Santos (2021), esse consentimento deve ser fornecido de forma clara e compreensível, permitindo que os responsáveis entendam os propósitos e implicações do uso das informações. Essa exigência reflete um alinhamento com o Estatuto da Criança e do Adolescente (ECA),[7] que adota o princípio da proteção integral e busca mitigar riscos digitais.
Os desafios relacionados ao tratamento de dados no ambiente digital são amplificados pelo crescente uso de plataformas digitais por crianças e adolescentes. Segundo Silva e Souza (2021), o compartilhamento constante de informações nesses meios pode impactar negativamente o desenvolvimento psicológico e emocional dos menores, ao mesmo tempo em que expõe suas preferências e comportamentos a manipulações indevidas. A LGPD procura mitigar esses riscos ao exigir práticas responsáveis e éticas das empresas, incluindo auditorias regulares e medidas de proteção robustas.
A pesquisa TIC Kids Online Brasil[8] de 2021, conduzida pelo CGI e pelo CETIC.br, reforça a importância desse debate ao revelar que 93% das crianças e adolescentes entre 9 e 17 anos no Brasil têm acesso à Internet, sendo que 88% possuem perfis em redes sociais. Entre as atividades mais comuns, destacam-se o envio de mensagens instantâneas (78%), pesquisas escolares (71%) e o uso de aplicativos como WhatsApp, Instagram, TikTok e YouTube. Esse panorama evidencia a necessidade urgente de implementar mecanismos de transparência mais rigorosos para proteger esse público, como propôs o Instituto Alana.
Proposta para critérios de transparência para dados pessoais e moderação
A transparência é um elemento essencial para a governança ética e responsável das plataformas digitais, especialmente no que diz respeito ao uso de dados pessoais e à moderação de conteúdo. Para promover maior clareza e confiança, é necessário implementar medidas que contemplem tanto o uso de dados quanto os critérios de moderação. No que se refere aos dados pessoais, as plataformas devem fornecer informações claras e detalhadas sobre quais dados são coletados, como são utilizados e com quais finalidades. É fundamental que os usuários tenham acesso pleno aos seus dados, incluindo explicações sobre os motivos de sua coleta e seu uso em decisões algorítmicas. Além disso, as plataformas devem especificar as entidades com as quais compartilham esses dados, garantindo que medidas de proteção avançadas, como criptografia de ponta a ponta, controles rigorosos de acesso, detecção e resposta a incidentes em tempo real, bem como atualizações regulares dos sistemas de segurança, sejam aplicadas para proteger informações sensíveis e que auditorias independentes e regulares sejam conduzidas, com relatórios acessíveis ao público.
No contexto da moderação de conteúdos, é imprescindível que as plataformas publiquem de forma clara os critérios utilizados para moderar e curar conteúdos, incluindo a aplicação de sistemas automatizados e revisões realizadas por especialistas treinados, responsáveis por analisar e tomar decisões sobre conteúdos que podem violar as políticas da plataforma, garantindo um olhar crítico e contextual sobre o material publicado. Relatórios regulares devem apresentar métricas qualitativas e quantitativas, como o número de conteúdos removidos ou bloqueados e as justificativas para essas ações. Quando sistemas automatizados são usados, é essencial detalhar seu funcionamento, suas limitações e os impactos gerados na curadoria de conteúdo. As plataformas também devem implementar medidas específicas para proteger a liberdade de expressão, especialmente no caso de conteúdos de interesse público, como materiais jornalísticos e artísticos, e divulgar informações sobre solicitações governamentais de remoção ou restrição de conteúdo.
Outro ponto relevante é a criação de mecanismos de recurso acessíveis para os usuários contestarem decisões de moderação, acompanhados de relatórios sobre os resultados desses processos. A educação dos usuários também é essencial para ampliar a transparência. Guias e materiais educativos devem ser elaborados para explicar, de forma clara e didática, as políticas de privacidade e moderação. Por fim, é necessário que as plataformas disponibilizem relatórios periódicos sobre o cumprimento das diretrizes de transparência, incluindo avaliações conduzidas por auditorias independentes, e que promovam o engajamento de diversos atores, como governos, sociedade civil e especialistas, na formulação e na avaliação dessas políticas. Essas medidas têm como objetivo não apenas melhorar a governança digital, mas também fortalecer a confiança e o empoderamento dos usuários frente às plataformas digitais.
Proposta de regulação para plataformas digitais
As plataformas digitais devem cumprir obrigações para garantir a transparência e a responsabilidade em suas operações, promovendo um ambiente inclusivo, ético e respeitoso aos direitos humanos. Em primeiro lugar, os termos de serviço devem estar disponíveis na íntegra nas línguas oficiais e principais de todos os países em que atuam, assegurando que os usuários possam interagir, reportar problemas e apresentar reclamações em sua própria língua. É essencial que os sistemas de tradução automática utilizados sejam rigorosamente controlados para evitar falhas técnicas que prejudiquem a acessibilidade linguística. Os relatórios, avisos e processos de recurso devem ser disponibilizados na língua preferencial do usuário, garantindo acesso igualitário e eficaz a informações, especialmente para crianças e pessoas com deficiência, com adaptações apropriadas à faixa etária e às necessidades específicas.
No que diz respeito à proteção de crianças, as plataformas devem oferecer condições de serviço em linguagem apropriada e acessível, considerando o ponto de vista de um grupo diversificado de crianças, inclusive aquelas com deficiência, para garantir níveis iguais de acesso à informação. Os direitos das pessoas com deficiência devem ser contemplados em todas as interações, assegurando que possam compreender e utilizar os mecanismos de denúncia e recurso, que devem ser eficazes e acessíveis também para grupos em situações de vulnerabilidade e marginalização. Além disso, as plataformas digitais devem compreender as condições culturais locais ao responder às reclamações, criando sistemas de denúncia e recurso culturalmente sensíveis, rápidos e fáceis de usar, especialmente para crianças.
As plataformas devem priorizar denúncias de conteúdos que representem ameaças aos usuários, como violência e assédio, respondendo de forma célere e proporcionando canais específicos para agravamento de denúncias. É igualmente importante evitar o uso indevido dos sistemas de denúncia, estabelecendo salvaguardas contra comportamentos coordenados não autênticos. As plataformas devem também implementar mecanismos de recurso eficazes e confiáveis, disponíveis tanto na própria plataforma quanto em instâncias externas, permitindo que usuários, ou mesmo terceiros afetados, expressem suas preocupações e obtenham reparação adequada. Esses mecanismos devem ser baseados nos princípios de legitimidade, acessibilidade, previsibilidade, equidade, transparência, compatibilidade com direitos humanos e aprendizado contínuo.
Sempre que um conteúdo for removido, restringido ou sujeito a limitações, os usuários devem ser notificados de forma clara e detalhada, incluindo as razões para a ação, o método utilizado (automatizado ou humano) e as regras que embasaram a decisão. Além disso, os usuários devem ter o direito de recorrer de tais decisões por meio de processos estruturados e justos. As plataformas devem, ainda, realizar avaliações regulares do impacto de suas políticas, sistemas de moderação e abordagens algorítmicas sobre os direitos humanos, com foco nos riscos enfrentados por mulheres, meninas, jornalistas, artistas e defensores dos direitos humanos e do meio ambiente. Tais avaliações devem resultar em ajustes de políticas para mitigar riscos sistêmicos.
Por fim, as plataformas devem garantir a proteção da privacidade dos usuários, utilizando tecnologias avançadas que permitam a análise de dados internos por pesquisadores externos de forma segura, auxiliando na identificação de problemas como a amplificação algorítmica de conteúdos prejudiciais. Além disso, é fundamental assegurar o tratamento igualitário de organizações de notícias independentes e proteger contra o uso abusivo das regras de moderação e comunicação, promovendo um ambiente digital mais justo, transparente e inclusivo para todos.
Proposta para a criação de autoridades reguladoras independentes
A criação de autoridades regulatórias independentes é essencial para monitorar as plataformas digitais, assegurar o cumprimento das normas e aplicar sanções em caso de violações. Essas autoridades devem operar de forma autônoma e livre de pressões econômicas, políticas ou de outras naturezas, sendo seu mandato e poderes definidos por lei. A independência deve ser garantida tanto em relação ao governo quanto às próprias plataformas, para evitar conflitos de interesse e promover a imparcialidade. As autoridades regulatórias devem responder prioritariamente aos órgãos legislativos, que supervisionam o cumprimento de seus mandatos, enquanto as intervenções estatutárias dessas entidades devem estar sujeitas à revisão judicial para evitar abusos de poder, decisões injustas, preconceituosas ou desproporcionais.
Essas instituições devem contar com financiamento adequado e transparente, proveniente de fontes claras e não sujeitas à discricionariedade governamental, garantindo recursos suficientes para desempenhar suas funções com eficácia. Seus dirigentes e membros devem ser selecionados por meio de processos participativos, transparentes, não discriminatórios e baseados no mérito. Além disso, é preciso que relatem anualmente suas atividades a um órgão independente, preferencialmente ao legislativo, e sejam responsabilizados por suas ações. Para evitar o tráfico de influência, após o término de seus mandatos, esses profissionais não poderão prestar serviços remunerados ou trabalhar para entidades reguladas por um período razoável.
As autoridades regulatórias independentes devem realizar auditorias periódicas obrigatórias, conduzidas por entidades externas e imparciais, que avaliem a conformidade das plataformas digitais com seus códigos de conduta, políticas e normas de autorregulação. Essas auditorias não devem ser financiadas diretamente pelas plataformas ou entidades da indústria para garantir a integridade do processo, ainda que taxas possam ser impostas para custear tais atividades. Os resultados dessas auditorias, bem como seus termos, devem ser disponibilizados para comentário público, promovendo maior transparência e prestação de contas.
Além disso, as autoridades devem poder exigir que as plataformas apresentem relatórios periódicos detalhando a aplicação de suas condições de serviço e as medidas adotadas para salvaguardar a liberdade de expressão e o acesso à informação e conteúdos culturais diversificados. Caso as plataformas não cumpram suas políticas ou normas internacionais de direitos humanos, as autoridades devem adotar medidas corretivas, emitir recomendações públicas — vinculativas ou não — e estabelecer diretrizes transparentes e adequadas. Essas diretrizes devem estar alinhadas com as normas internacionais de direitos humanos e devem incluir sanções específicas para plataformas que falhem em respeitar suas responsabilidades.
Por fim, as autoridades regulatórias independentes devem ser responsáveis pela criação de processos de reclamação acessíveis, tanto para usuários quanto para terceiros afetados pelas ações das plataformas. Esses processos devem assegurar que as violações sejam investigadas e que haja mecanismos claros e confiáveis para a aplicação de sanções, promovendo, assim, a transparência, a responsabilidade e a proteção dos direitos humanos no ambiente digital.
Considerações Finais
Os desafios relacionados à regulação das plataformas digitais são complexos e demandam uma abordagem multifacetada, que integre princípios de transparência, responsabilidade e proteção dos direitos humanos. A análise dos textos evidencia a necessidade urgente de regulamentações complementares para lidar com questões como moderação de conteúdo, concentração de mercado, privacidade de dados e impacto na liberdade de expressão.
Os atuais marcos legais, como a LGPD, oferecem avanços importantes, mas permanecem insuficientes para enfrentar a escala e o impacto das plataformas no ambiente digital. A proposta de criação de autoridades regulatórias independentes surge como uma solução viável para monitorar e sancionar práticas abusivas, assegurando que as plataformas digitais operem em conformidade com normas éticas e legais. Além disso, mecanismos como auditorias externas, relatórios transparentes e processos acessíveis de reclamação são indispensáveis para promover a confiança e o empoderamento dos usuários.
As perguntas e respostas analisadas do CGI.br destacam a relevância de um diálogo contínuo entre governos, sociedade civil, especialistas e as próprias plataformas, buscando soluções que respeitem a diversidade cultural e os direitos individuais. No entanto, é importante que as plataformas sejam responsabilizadas por suas práticas e que sejam implementados mecanismos para prevenir abusos de poder e fortalecer a concorrência no mercado digital.
Agradecimento
Esta pesquisa é financiada pela Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes), por meio do Programa de Demanda Social.
Referências
ACQUISTI, A.; GROSS, R.; STUTZMAN, F. Privacy and modern technology: a cross disciplinary perspective. Springer, 2016.
ARAÚJO, Willian Fernandes. Norma algorítmica como técnica de governo em plataformas digitais: um estudo da Escola de Criadores de Conteúdo do YouTube. Revista Fronteiras: estudos midiáticos, São Leopoldo, v. 23, n. 1, p. 29-39, jan./abr. 2021.
BARLOW, John Perry. Declaração de Independência do Cyberespaço. Davos, Suíça, 8 fev. 1996. Disponível em: http://www.dhnet.org.br/ciber/textos/barlow.htm. Acesso em: 23 dez. 2020.
BELLI, L.; FRANCISCO, P. A.; ZINGALES, N. Law of the land or law of the platform? Beware of the privatisation of regulation and police. In: BELLI, L. How platforms are regulated and how they regulate us. FGV, 2017.
BRASIL. Lei n.º 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Diário Oficial da União: seção 1, Brasília, DF, p. 1, 24 abr. 2014.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/L13709.htm. Acesso em: 14 nov. 2024.
BURGESS, Jean. Platform Studies. In: CUNNINGHAM, Stuart; CRAIG, David (ed.). Creator culture: an introduction to global social media entertainment. New York: NYU Press, 2021. p. 21-38.
BUSCH, C.; SCHULTE-NÖLKE, H.; WIEWIÓROWSKA-DOMAGALSKA, A.; ZOLL, F. The rise of the platform economy: a new challenge for EU Consumer Law? Christoph Busch et al., The Rise of the Platform Economy: A New Challenge for EU Consumer Law, 15 fev. 2016.
CHADWICK, Andrew. The hybrid media system: politics and power. 2. ed. New York: Oxford University Press, 2017.
COMITÊ GESTOR DA INTERNET NO BRASIL. Consulta sobre Regulação de Plataformas Digitais. [s.d.]. Disponível em: https://dialogos.cgi.br/documentos/debate/consulta-plataformas/. Acesso em: 18 nov. 2024.
COMITÊ GESTOR DA INTERNET NO BRASIL. Diálogos CGI.br: sobre o projeto. [s.d.]. Disponível em: https://dialogos.cgi.br/sobre/. Acesso em: 8 nov. 2024.
COMITÊ GESTOR DA INTERNET; CETIC.br. Pesquisa TIC Kids Online: Brasil 2022: crianças e adolescentes. [2022].
CORIAT, Benjamin. El taller y el robot: ensaios sobre el fordismo e a produção em massa em la era de la electrónica. Siglo XXI, 2011.
D’ANDRÉA, Carlos Frederico de Brito. Pesquisando plataformas online: conceitos e métodos. Salvador: EDUFBA, 2020.
EASTERBROOK, Frank H. Cyberspace and the Law of the Horse. University of Chicago Legal Forum, 1996. Disponível em: https://chicagounbound.uchicago.edu/cgi/viewcontent.cgi. Acesso em: 14 dez. 2020.
FLORIDI, L. The fourth revolution: How the infosphere is reshaping human reality. Oxford: Oxford University Press, 2014.
GILLESPIE, T. The politics of ‘platforms’. New Media & Society, v. 12, n. 3, p. 347-364, maio 2010.
LAKATOS, E. M.; MARCONI, M. de A. Fundamentos de metodologia científica. São Paulo: Atlas, 1992.
MUÑOZ, Óscar Sanchez. La regulación de las campañas electorales en la era digital. Valladolid: Univ. De Valladolid, 2020.
PASQUALE, F. Platform neutrality: enhancing freedom of expression in spheres of private power. Theoretical Inquiries in Law, v. 17, n. 2, p. 487-513, jul. 2016.
POELL, Thomas; NIEBORG, David; DUFFY, Brooke Erin. Platforms and cultural production. Cambridge, UK; Medford, MA: Polity Press, 2022.
SILVA, M. F. O impacto das recomendações da ANPD. Revista de Tecnologia e Direito, v. 11, n. 2, p. 88-100, 2023.
SOARES, E. A. G.; SANTOS, P. Ó.; DE JESUS, T. S. M. LGPD e a proteção de dados pessoais das crianças e adolescentes no ordenamento jurídico brasileiro: o dilema da coleta de dados e a obrigatoriedade do consentimento dos pais. Revista Brasileira de Desenvolvimento, [S. l.], v. 8, p. 76759–76774, 2021. DOI: 10.34117/bjdv7n8-072. Disponível em: https://ojs.brazilianjournals.com.br/ojs/index.php/BRJD/article/view/33…. Acesso em: 3 nov. 2024.
TRIVIÑOS, A. N. S. Introdução à pesquisa em ciências sociais: a pesquisa qualitativa em educação. São Paulo: Atlas, 1987.
YIN, R. K. Estudo de caso: planejamento e métodos. Porto Alegre: Bookman, 2001.
YIN, R. K. Pesquisa qualitativa do início ao fim. Porto Alegre: Penso, 2015.
ZUBOFF, Shoshana. The age of surveillance capitalism. New York: PublicAffairs, 2019.
************
Eliandro Jeovane Natal da Silva é mestrando em Gestão da Informação pela Universidade Federal do Paraná (UFPR). Graduado em Análise e Desenvolvimento de Sistemas pela Universidade Positivo (UP).
[1] Comitê Gestor da Internet no Brasil. Sobre o CGI.br. Disponível em: https://www.cgi.br. Acesso em: 12 nov. 2024.
[2] poliTICs: revista de estudos sobre governança, Internet e tecnologia. Disponível em: https://politics.org.br. Acesso em: 01 nov. 2024
[3] Instituto Alana. Sobre o Instituto Alana. Disponível em: https://alana.org.br. Acesso em: 01 nov. 2024.
[4] Instituto Vero. Sobre o Instituto Vero. Disponível em: https://institutovero.org.br. Acesso em: 01 nov. 2024.
[5] BRASIL. Tribunal Superior Eleitoral. Sobre o TSE. Disponível em: https://www.tse.jus.br. Acesso em: 12 nov. 2024
[6] BRASIL. Autoridade Nacional de Proteção de Dados. Sobre a ANPD. Disponível em: https://www.gov.br/anpd. Acesso em: 20 nov. 2024.
[7] BRASIL. Lei nº 8.069, de 13 de julho de 1990. Estatuto da Criança e do Adolescente. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/l8069.htm. Acesso em: 20 nov. 2024
[8] COMITÊ GESTOR DA INTERNET NO BRASIL. Pesquisa TIC Kids Online Brasil. Disponível em: https://www.cetic.br/pt/tics/kids-online/. Acesso em: 18 nov. 2024.