IA na educação: Relatoria Especial da ONU para o Direito à Educação incorpora sugestões da Campanha

A Relatora Especial da ONU sobre o Direito à Educação, Farida Shaheed, incorporou pontos sugeridos pela Campanha Nacional pelo Direito à Educação em relatório temático sobre o uso da inteligência artificial (IA) na educação.
O Relatório, divulgado em outubro de 2024, aponta desafios sobre o uso da IA no ambiente escolar, a partir de questões éticas, particularmente em relação à vigilância dos alunos, liberdade acadêmica e privacidade de dados.
O crescente envolvimento de empresas privadas de tecnologia na educação pública também é destacado como alarmante, pois afasta a tomada de decisões dos educadores e governos, priorizando o lucro em detrimento dos melhores interesses dos alunos.
Em relação às disparidades de conectividade e falta de infraestrutura digital básica de um terço da população mundial, qualquer ação de uso ou integração de IA que negligencia a perspectiva de direitos humanos está destinada “a aumentar as desigualdades, intensificando o que se chama de divisão digital”.
Shaheed enfatiza a necessidade de os Estados regularem as plataformas de IA na educação sob a perspectiva de garantia de direitos, colocando-se em oposição à inserção direta de plataformas e aplicações de IA de caráter comercial baseadas na ampla extração de dados (dataficação).
O relatório pontua, no entanto, que se os critérios de garantia de direitos forem atendidos, a IA pode pode se tornar aliada do direito à educação, especialmente para pessoas excluídas do processo educacional, como pessoas com deficiência e afastadas dos centros urbanos.
Para acabar com essa divisão digital na educação, não basta enfrentar apenas a questão do acesso. Os Estados devem incluir conectividade de qualidade e disponibilidade de dispositivos compatíveis com as práticas pedagógicas a todas as instituições escolares, além de estabelecer condições adequadas aos estudantes que vão utilizar essas ferramentas.
Contribuições da Campanha incorporadas
As contribuições da Campanha foram todas incorporadas no Relatório. Elas dizem respeito ao papel da IA de impulsionar o bem comum, a paz e o desenvolvimento, desde que integrada a uma estrutura legal de direitos humanos e condicionada à regulação dos Estados.
A ênfase no uso ético da IA, principalmente na educação, foi uma das contribuições da entidade, particularmente sobre a exigência de transparência, proteção de privacidade e responsabilidade, com Shaheed citando relatórios anteriores da Unesco.
4 “As” e questões éticas
Shaheed baliza suas recomendações com uma defesa histórica da Campanha: os “4 As (em inglês)” necessários para uma educação de qualidade: acessibilidade (accessibility), disponibilidade (availability), aceitabilidade (acceptability) e adaptabilidade (adaptability). Esse conceito foi cunhado pela primeira Relatora Especial da ONU para o Direito à Educação, Katarina Tomasevski. No relatório de Shaheed, foi acrescentado o conceito de responsabilização (accountability), salientado nas contribuições da Campanha.
“No Brasil, substancialmente, não temos um debate crítico sobre a IA na educação, somente sobre ‘usos’ da IA como ferramenta, por isso, a meu ver, o relatório claramente aponta essa necessidade”, aponta Priscila Gonsales, pesquisadora integrante do GT EdTech da Campanha, que elaborou a contribuição da Campanha Nacional pelo Direito à Educação à Relatoria em conjunto com a coordenação geral da Campanha.
Gonsales representou a entidade em uma reunião de especialistas em IA e educação a convite de Shaheed à Campanha, em junho de 2024, em Genebra, na sede da ONU na Suíça.
Transparência algorítmica
O relatório da ONU destaca as aplicações de alto risco da IA na educação, como determinar admissões de alunos, avaliações de aprendizagem e monitoramento de comportamento. Os sistemas de IA usados nessas áreas devem estar sujeitos a uma supervisão rigorosa para evitar preconceitos e discriminação.
“O Conselho Europeu está com essa pauta, e a regulação deve exigir transparência algorítmica, garantindo que os desenvolvedores sejam responsabilizados por como os dados dos alunos são coletados, processados e usados. Nenhum dado pessoal de aluno deve ser coletado ou vendido a terceiros, pois isso pode comprometer a privacidade e agravar as desigualdades digitais, daí o ‘accountability’ adicionado no relatório”, contextualiza Priscila Gonsales.
“Pedagogicamente falando, benefícios que vêm sendo apontados como ‘personalizar’ o ensino de conteúdos e ‘automatizar’ avaliações podem limitar o pensamento crítico e levar à dependência excessiva de respostas geradas por IA. Não existem pesquisas suficientes prontas ou em análise sobre esse tema e, como o relatório mesmo ressaltou, isso leva tempo. A chamada integridade acadêmica é outro ponto importante no relatório, pois as ferramentas de IA generativa facilitam o plágio. Em vez de proibir totalmente essas tecnologias, o texto defende o uso responsável, a justificativa pedagógica, as auditorias regulares e o alinhamento com os objetivos educacionais para garantir que a IA colabore com a busca de uma educação equitativa e de alta qualidade”, diz Gonsales.
Caso do Brasil
O relatório de Shaheed aponta que “no Paraná, no Brasil, um sistema de recomendação de conteúdo impulsionado por IA adapta o aprendizado com base nos perfis dos alunos. [...] A Relatora Especial enfatiza a necessidade de cautela, no entanto, pois os efeitos da análise preditiva sobre o direito à educação não foram estudados a fundo, e surgiram exemplos de IA sendo desigual”. Ela aponta que casos desse tipo resultaram em exclusão de estudantes pobres e não brancos.
O caso do Paraná foi mencionado na submissão da Campanha e também abordado pelo InternetLab em sua contribuição.
Reconhecimento facial
O documento da ONU também afirma que há um vazio regulatório no que se refere a tecnologias de reconhecimento facial.
“Muitas instituições de ensino em todo o mundo implementam essa tecnologia sem a supervisão, transparência ou revisão adequadas. Por exemplo, no Brasil, o governo do Paraná introduziu sistemas de tecnologia de reconhecimento facial para registrar a frequência escolar em mais de 1.500 escolas, para ‘modernizar a educação pública’. Professores e especialistas destacam vários erros de identificação, principalmente para alunos pardos e negros. Nenhum estudo de impacto, com base nos direitos humanos, parece ter sido realizado antes da implantação da tecnologia de reconhecimento facial”, alerta Shaheed.
Plataformas próprias das comunidades escolares
Outra contribuição da Campanha é a de que os governos devem criar e investir em plataformas próprias para colaboração entre professores, alunos, pais, autoridades educacionais e também desenvolvedores de tecnologia. Além disso, investir em pesquisas independentes e interdisciplinares sobre os efeitos de longo prazo da IA na educação, livres de influência corporativa – já que hoje as próprias edtechs estão investindo em pesquisa para promover seus produtos.
Para Shaheed, a formação continuada e qualificação para o uso da IA são essenciais para que professores e alunos desenvolvam uma avaliação crítica sobre o uso responsável de IA.
Privatização via edtechs
Um ponto fundamental levado pela Campanha foram as consequências negativas da privatização da educação pública via edtechs. Frente a esse processo, tecnologias educacionais de código aberto e orientadas pela comunidade devem ser promovidas e incentivadas para reduzir a dependência de algumas corporações dominantes e para aprimorar a inovação local.
Uma contribuição de diversas entidades, incluindo a Campanha, é da defesa da capacitação de professores e alunos para cocriar ferramentas educacionais orientadas por IA. As escolas devem encorajar o corpo docente a colaborar com os alunos no uso responsável da IA por meio de estruturas cooperativas como a pedagogia aberta.
“Há também algo bem ousado no relatório: empresas de IA deveriam renunciar o segredo comercial, permitindo auditorias de terceiros”, avalia Gonsales.
Outro tema importante que entrou no relatório é o alerta para o tempo excessivo de telas e o estresse emocional causado por elas. Shahed também avisa sobre o impacto ambiental das tecnologias de IA, de modo que os governos priorizem o desenvolvimento da tecnologia com eficiência energética.
Realidade brasileira
Gonsales acredita que as recomendações poderiam pautar um debate necessário no Brasil, balizando-se em:
- Defender uma abordagem em direitos humanos para a IA, garantindo que as regulamentações se alinhem com os padrões internacionais de direitos humanos e protejam o direito à educação.
- Buscar incentivar e fortalecer a colaboração entre secretarias/governos para criar suas políticas de governança de IA na educação que possam servir de base para a possível adoção.
- Promover a formação da população em letramentos críticos de IA, o que vai além de aprender a usar a ferramenta, mas sim compreender seus impactos, suas relações de poder, questões geopolíticas, econômicas e ambientais.
- Promover o debate sobre proteção de dados e privatização da educação via edtech que estão sendo adotadas/adquiridas, de forma a cumprir o direito à educação e os direitos de crianças e adolescentes.
(Foto: Divulgação/ONU)