Contra tecnicismo e por direitos digitais, Campanha e entidades contribuem com documento do MEC sobre IA na educação

Se não sofrer mudanças, proposta disponibilizada para consulta pública corre o risco de “legitimar a expansão de modelos privatizados de IA na educação pública, aprofundando desigualdades e fragilizando o direito à educação como bem público”

 

A Campanha Nacional pelo Direito à Educação em conjunto com a Cátedra Unesco em Educação Aberta e Tecnologias para o Bem Comum da Universidade de Brasília e o Instituto Alana apresentaram, no fim do ano passado, contribuições ao documento “Referencial para Desenvolvimento e Uso Responsáveis de Inteligência Artificial na Educação”, elaborado pelo Ministério da Educação (MEC) e submetido a consulta pública.

No texto encaminhado ao MEC, as organizações reconhecem que o documento representa uma iniciativa relevante ao propor princípios e diretrizes, mesmo que de forma limitada, para o tema da inteligência artificial na educação. Ao mesmo tempo, destacam que, sem o enfrentamento de lacunas normativas e institucionais, a proposta corre o risco de legitimar a expansão de modelos privatizados de IA na educação pública, aprofundando desigualdades e fragilizando o direito à educação como bem público.

Participaram da elaboração das recomendações Tel Amiel, professor da FE-UnB, e Priscila Gonsales, diretora do Instituto Educadigital, ambos integrantes da Cátedra Unesco; Rodrigo Nejm, especialista em educação digital do Instituto Alana; e Andressa Pellanda, coordenadora geral da Campanha.

ACESSE A CONTRIBUIÇÃO DAS ENTIDADES AQUI

A análise coletiva aponta que o documento adota uma abordagem tecnicista ao tratar a IA como mais uma ferramenta educacional a ser dominada ou adotada, desconsiderando que se trata de um sistema sociotécnico complexo, atravessado por relações econômicas, políticas, jurídicas, ambientais e geopolíticas assimétricas. 

“Ao reduzir a IA a um artefato instrumental na escola, o texto não enfatiza suficientemente os impactos estruturais como dependência tecnológica, captura de dados, exploração comercial, padronização curricular, aumento do trabalho invisível técnico e docente, desigualdades algorítmicas e efeitos ambientais decorrentes de infraestrutura computacional intensiva”, dizem as entidades. 

Essa simplificação compromete a capacidade do documento de orientar políticas públicas robustas com práticas de monitoramento constante da implementação, convertendo-se em uma defesa de “uso” de tecnologia, e não em uma reflexão crítica sobre o modelo de educação que se deseja construir diante da crescente plataformização do setor.

Ausência de governança
As entidades também chamam atenção para a ausência de definição detalhada sobre a estrutura de governança, seus níveis de organização (escolas, secretarias, conselhos e entes federativos) e responsabilidade, bem como para a falta de clareza sobre quem decide e quem participa dos processos decisórios. Esse cenário, segundo o documento, torna a proposta vulnerável à captura corporativa, especialmente diante da predominância de uma governança privatizada das tecnologias educacionais no contexto nacional.

Outro ponto destacado é a distribuição equivocada de responsabilidades, ao atribuir às escolas a exigência de transparência de provedores e edtechs, sem considerar as assimetrias de poder e as limitações técnicas, jurídicas e operacionais das redes de ensino.  

“Essa orientação desconsidera que a análise de contratos, a verificação de conformidade com a LGPD, a avaliação de riscos e o monitoramento de sistemas automatizados requerem formação especializada, financiamento/orçamento e estrutura institucional, e não apenas ‘capacitação docente’. Além disso, não se evidenciam mecanismos para responsabilização de empresas, nem instrumentos que exijam transparência e impeçam o perfilamento comercial ou exploração econômica de dados de estudantes, tampouco aparece a menção ao ECA Digital (Lei 15.211/2025), recém-aprovado, como marco regulatório central para a Educação Básica. Assim, transfere-se ônus regulatório ao setor público sem contrapartida proporcional do setor privado”, alertam.

Tratamento superficial
O documento do MEC trata superficialmente o fenômeno da plataformização da educação ao reduzi-lo ao “uso excessivo” de tecnologias, ignorando sua função de reorganização estrutural do sistema educativo, incluindo vigilância, padronização de práticas pedagógicas, redução da diversidade epistêmica e modulação das subjetividades estudantis. 

“A vigilância é descrita como ‘acompanhamento’, omitindo riscos de normalização de monitoramento e controle comportamental, inclusive por meio de biometria e reconhecimento facial. [O texto] também não se examina como tais plataformas produzem trabalho invisível e aumento de carga docente, o que exige inclusão explícita de mecanismos que mensuram demandas laborais ocultas geradas pela implementação de IA”, afirma.

“Verifica-se ainda uma contradição sistemática na argumentação sobre benefícios e riscos: benefícios são apresentados como garantidos, com base em relatórios de organismos privados e multilaterais, enquanto os danos são tratados como ‘potenciais’ e mitigáveis, mesmo diante de ampla literatura internacional que evidencia abusos, discriminação, vazamento de dados, impactos laborais e prejuízos na saúde mental. Não há justificativa empírica qualitativa para tais benefícios, tampouco exigências de avaliações de impacto e risco antes da adoção das tecnologias em relação a danos, especialmente produzidos por big techs”, pontuam.

Retórica vazia
Do ponto de vista conceitual, as contribuições indicam limitações geopolíticas e técnicas, ao não problematizar relações entre IA, dependência tecnológica, soberania digital, infraestrutura pública e impactos socioambientais. 

O termo “soberania”, por exemplo, aparece como retórica vazia, sem proposições materiais de financiamento, fiscalização e coordenação entre MEC, ANPD, Tribunais de Contas, Conselhos de Educação, pesquisadores e Sistema de Justiça. 

“Some-se a isso o fato de o [Plano Brasileiro de Inteligência Artificial] PBIA citar como parceiro estratégico a OpenAI, empresa desenvolvedora da interface de IAGenerativa mais disseminada na atualidade, sem justificativa abrangente sobre a escolha em relação à outras alternativas possíveis”, apontam.

As empresas transnacionais são apresentadas como parceiras neutras, sem reconhecimento de assimetrias ou riscos educacionais, e não são propostas alternativas concretas de fomento público para tecnologias nacionais, abertas e auditáveis.

Redução do papel da docência
As entidades também observam que o documento reduz o papel da docência à noção de “mediação docente aumentada”, sem discutir a reconfiguração da profissão por modelos automatizados que “que substituem competências pedagógicas por procedimentos padronizados, desfigurando o trabalho educativo em favor de rotinas adaptativas ditadas por plataformas”.

“Trata-se de uma abordagem que ignora a centralidade epistêmica e ética da docência, bem como a diversidade cultural e racial presente na educação pública brasileira, além de não enfrentar questões estruturais como racismo algorítmico, epistemicídio digital e desigualdades de acesso, restringindo-se à problemática de vieses de dados, o que empobrece o debate e reforça soluções equivocadas. Nota-se a articulação insuficiente com outras políticas educacionais importantes, a exemplo das relacionadas à Educação Inclusiva e à Educação para as Relações Étnico-Raciais (ERER), uma área obrigatória nas escolas brasileiras desde as leis 10.639/2003 e 11.645/2008”, criticam.

As entidades afirmam que seguem à disposição para aprofundar as colaborações em torno do documento e dos mecanismos de governança em construção no Ministério da Educação.

Foto: Lucas Fermin/SEED