Campanha e Cátedra UNESCO em Educação Aberta da UnB recomendam ao CNE adoção de marco regulatório para uso ético da IA na educação

Frente ao processo de integração da educação com a IA Generativa (IAGen) – tecnologia usada por serviços como ChatGPT que gera conteúdos, com limitações, a partir de comandos em linguagem natural –, o Brasil deve adotar um marco regulatório e uma governança local que equilibre inovação e proteção de direitos, com participação democrática e compromisso com o bem comum.
É o que a Campanha Nacional pelo Direito à Educação e a Cátedra UNESCO em Educação Aberta e Tecnologias para o Bem Comum (UnB) defendem em contribuições enviadas ao Conselho Nacional de Educação (CNE) para a elaboração de estudos sobre a governança da inteligência artificial (IA) na educação.
Em paralelo, participaram de audiência pública promovida pelo CNE nesta terça (08/04), que faz parte do mesmo esforço de qualificar o debate sobre o tema.
As entidades recomendam que o CNE elabore diretrizes claras para a seleção, criação e o uso ético dessas tecnologias, envolvendo todos os atores relevantes – governo, desenvolvedores, educadores, estudantes e sociedade civil.
“A soberania digital e a justiça social e educacional devem ser pilares fundamentais, garantindo que o avanço tecnológico sirva à emancipação educacional e não à reprodução de desigualdades”, diz o documento submetido.
As organizações atenderam a edital de chamamento do CNE, que detalha num termo de referência a intenção do conselho de “estabelecer diretrizes normativas que assegurem o uso qualificado da IA na educação, contribuindo para o desenvolvimento de um sistema educacional inovador, acessível e alinhado às necessidades do século 21”.
As formuladoras e o formulador das contribuições das entidades são Andressa Pellanda, coordenadora geral da Campanha Nacional pelo Direito à Educação; Tel Amiel, coordenador da Cátedra UNESCO em Educação Aberta e Tecnologias para o Bem Comum (UnB); e Priscila Gonsales, pesquisadora da Cátedra UNESCO em Educação Aberta e Tecnologias para o Bem Comum (UnB) e do GT EdTech da Campanha.
RECOMENDAÇÕES
Para uma abordagem crítica e equitativa sobre o tema, as representações recomendam nas contribuições os seguintes desafios para governança e uso da IA na educação:
Regulação, governança e políticas públicas
É fundamental estabelecer estruturas regulatórias e estratégias de governança participativa em múltiplos níveis, desde acordos internacionais até normas específicas para o setor educacional. A transparência deve ser um princípio central, exigindo que desenvolvedores divulguem metodologias, fontes de dados e critérios algorítmicos para permitir auditorias independentes, seguindo princípios técnicos e orientações regulatórias internacionais. A proteção de dados de estudantes e professores também precisa ser assegurada, com mecanismos claros de consentimento informado e alinhamento à legislação vigente, como a Lei Geral de Proteção de Dados (LGPD).
Educação e capacitação
Para que a IAGen seja utilizada de forma crítica e produtiva, é essencial investir na formação de educadores, capacitando-os a identificar vieses e limitações dessas ferramentas. Da mesma forma, os estudantes devem desenvolver habilidades de letramento digital que lhes permitam interagir com a IA de maneira reflexiva e autônoma, sem substituir seu próprio raciocínio, e desenvolvam criticidade sobre os contextos sociais, econômicos e políticos da IA num contexto global. A promoção de tecnologias abertas, livres e auditáveis, desenvolvidas com participação das comunidades educacionais, é um caminho promissor e que deve ser incentivado, inclusive com financiamento público.
Inovação responsável
A promoção de modelos de IAGen de menor escopo e aplicação específica, desenvolvidos localmente, com atenção a contextos culturais e linguísticos específicos, pode ajudar a evitar o colonialismo digital. Paralelamente, é preciso apoiar pesquisas independentes que avaliem os impactos de longo prazo dessas tecnologias, com participação ativa da sociedade civil e de instituições acadêmicas.
Direitos Humanos e equidade
Qualquer aplicação da IAGen na educação deve priorizar a redução de desigualdades e a inclusão, garantindo que as tecnologias não aprofundem exclusões existentes. Além disso, é crucial preservar a centralidade da agência humana nos processos educativos, assegurando que a IA seja selecionada e utilizada criticamente como uma ferramenta de apoio, e não um substituto para a interação entre professores e estudantes.
IMPACTOS E RISCOS DA IAGEN NA EDUCAÇÃO
As entidades também apontam nas contribuições os seguintes desafios:
Desafios éticos e sociais
Um dos principais riscos associados à IAGen é a violação de direitos autorais, uma vez que esses sistemas podem fazer uso (em seu treinamento) bem como reproduzir, total ou parcialmente, conteúdos protegidos sem o devido consentimento. Além disso, a natureza de "caixa preta" de muitos modelos dificulta a compreensão de como as respostas são geradas, aumentando preocupações sobre vieses embutidos nos algoritmos e a disseminação de desinformação, como fake news e deepfakes.
Outro problema grave é o agravamento das desigualdades digitais, especialmente no Sul Global, onde o acesso a infraestrutura tecnológica e dados de qualidade é limitado, reforçando dinâmicas de marginalização. A IAGen também traz impactos ambientais significativos, devido ao alto consumo energético exigido por seus data centers e à poluição digital gerada pelo excesso de conteúdo automatizado.
Governança e regulação
Até julho de 2023, apenas um país havia implementado regulações específicas para a IAGen, evidenciando a dificuldade dos legisladores em acompanhar o ritmo acelerado de desenvolvimento dessas tecnologias. Outro desafio é a concentração do poder tecnológico em grandes empresas privadas estrangeiras, com pouca participação democrática na governança dessas ferramentas.
Essas empresas oferecem seus serviços de forma gratuita através de chatbots em páginas web, ou integrados a outros serviços “gratuitos” que em troca de seu uso monetizam as interações de usuários através da coleta de dados de uso, perfilização, históricos de conversa, dentre outros sem sequer atenção à Lei Geral de Proteção de Dados (LGPD).
A soberania dos dados também é uma questão crítica, pois muitos sistemas de IAGen operam com informações coletadas em território nacional sem garantias de que esses dados serão coletados e processados de forma ética e em conformidade com as leis locais. Instituições e organizações públicas, como escolas e universidades, também carecem de estratégias de letramento e governança sobre IAGen, aumentando ainda mais o potencial impacto negativo dessas ferramentas no contexto educacional para um público vulnerável.
PRINCÍPIOS DE ABIDJAN E A REGULAÇÃO DOS PROVEDORES PRIVADOS DE IA
Regulação e transparência
Os Princípios de Abidjan sobre o Direito à Educação, adotados em 2019, estabelecem um marco jurídico e político para garantir que os Estados cumpram suas obrigações de assegurar educação pública, gratuita e de qualidade para todos, limitando a privatização excessiva e a mercantilização da educação. Esses princípios têm sido amplamente referenciados em fóruns internacionais, como a UNESCO, a ONU, espaços regionais como o Conselho Europeu e a União Africana, e a sociedade civil global, como diretrizes para combater desigualdades educacionais e proteger o caráter público da educação.
No contexto da IAGen, os Princípios de Abidjan ganham relevância ao questionar o papel de provedores privados na oferta de ferramentas educacionais. Empresas de tecnologia que desenvolvem modelos como ChatGPT, EdGPT e MathGPT operam em um cenário de pouca transparência e regulação, podendo reproduzir vieses comerciais, reforçar assimetrias de acesso e comprometer a soberania educacional dos países. O Princípio 45, por exemplo, alerta para os riscos da privatização quando esta leva à discriminação ou à precarização dda educação—um desafio que se aplica diretamente à IAGen, dado sua concentração em poucas corporações globais.
Além disso, os Princípios de Abidjan destacam a necessidade de supervisão estatal e participação democrática na regulação de atores privados (Princípios 56 e 59), o que se alinha com as demandas por governança pública da IA. A crescente influência desses princípios reforça a urgência de adotar regulamentações que vinculem o uso da IAGen na educação aos compromissos com equidade e direitos humanos. A soberania e o controle público sobre dados educacionais—temas centrais nos Princípios de Abidjan—devem orientar políticas que evitem a dependência de soluções privadas fechadas, promovendo tecnologias abertas e auditáveis, desenvolvidas com participação das comunidades educacionais.
(Foto: Araípedes Luz – Secom/Prefeitura de Uberlândia)