Domingo, 15 de março de 2026
Por Redação do Jornal O Sul | 14 de março de 2026
Um referencial inédito do MEC (Ministério da Educação) sobre a incorporação da inteligência artificial na educação recomenda o veto da tecnologia na educação infantil, atividades desplugadas nos anos iniciais e desaconselha a adoção de reconhecimento facial nas escolas —algo que já é realidade em muitas redes de ensino e escolas privadas.
O documento de 240 páginas foi publicizado pela pasta do governo Lula (PT). Ele faz um panorama sobre a absorção da tecnologia em todo sistema educacional, com reflexões e recomendações que vão da gestão escolar à produção de materiais didáticos, formação de professores currículo, uso em sala de aula e também no ensino superior.
Princípios como o apoio ao processo de ensino-aprendizagem, a não substituição do papel do professor e o uso da IA como ferramenta pedagógica perpassam o documento, que contempla informações e produções internacionais sobre o tema.
O referencial do MEC está alinhado com o parecer sobre o tema que o CNE (Conselho Nacional de Educação) deve colocar em votação na próxima segunda-feira (16), de acordo com o relator, conselheiro Celso Niskier. Essa será uma primeira regulamentação geral sobre IA na educação no país.
“Após um ano e meio de debates, com a participação do MEC, da Unesco e de vários especialistas, estamos próximos de um texto que representa o consenso dos conselheiros da Comissão sobre esse importante tema. Queremos estimular a inovação pedagógica, valorizando o papel do professor e garantindo que a IA na Educação seja usada de forma ética, crítica e responsável”, diz Niskier.
Segundo o MEC, o referencial reafirma que a inteligência artificial deve ser utilizada como instrumento capaz de apoiar ações que fortaleçam a inclusão e ampliem a equidade, e não a exclusão. “A incorporação tecnológica deve favorecer o enfrentamento das desigualdades e evitar a criação de novas barreiras entre grupos com condições desiguais para ensinar e aprender”, diz o MEC em texto de apresentação do referencial.
O trabalho do MEC destaca preocupações sobre questão de autoria de atividades, inclusive dos professores, avaliação e segurança de dados e privacidade.
“Sistemas de reconhecimento facial em ambientes escolares não são recomendados, em razão dos riscos associados à exposição e ao tratamento de dados pessoais de crianças e adolescentes”, destaca o documento do MEC.
O reconhecimento facial tem tido expansão nas redes públicas de ensino, sem padrão nacional ou avaliação, segundo o estudo Tecnologias de Vigilância e Inteligência Artificial na Educação, lançado em outubro pelo Internetlab, centro de pesquisa em direito e tecnologia.
Em 2025, sete estados já contavam com a tecnologia como política pública (Alagoas, Amazonas, Goiás, Paraná, Rio de Janeiro, São Paulo e Tocantins), onde predomina o uso para controle de frequência dos estudantes.
O referencial do MEC cita a necessidade de haver cuidados com a proteção de dados de estudantes e professores e a transparência nos algoritmos usados em sistemas educacionais, ressaltando a “caixa-preta” que essas tecnologias representam.
“A integração de inteligência artificial ao campo educacional também apresenta desafios que demandam acompanhamento permanente e avaliação rigorosa. Entre os desafios, destacam-se a transparência e a explicabilidade de sistemas frequentemente descritos como ‘caixas-pretas’”, diz o texto.
Há menção ainda a preocupações com o chamado viés algorítmico. “Sistemas treinados com bases de dados que refletem desigualdades sociais e culturais tendem a reproduzir —ou aprofundar— preconceitos e estereótipos, ampliando assimetrias que incidem de modo desproporcional sobre grupos historicamente marginalizados”.
Para Sonia Dias, gerente de Desenvolvimento e Soluções do Itaú Social, o uso da Inteligência Artificial generativa na educação deve estar intimamente ligado a princípios de responsabilidade, com supervisão do professor e compromisso com a promoção da equidade na aprendizagem.
“O uso da tecnologia é providencial potencializar o estudo, desde que não comprometa o pensamento crítico e a retenção do conhecimento”, diz ela. “Ao delegar tarefas à IA sem reflexão, o aprendizado tende a se tornar superficial, dificultando a consolidação de conceitos na memória de longo prazo”.
Supervisão e punição
Com relação ao processo de ensino, aprendizado e avaliação, o referencial reforça que a manutenção de uma “supervisão humana significativa” sobre a inteligência artificial constitui “princípio fundamental e inegociável”, sobretudo por envolver direitos, trajetórias e oportunidades educacionais. Nesse ponto, a questão de avaliação é endereçada com mais ênfase, incluindo os riscos de fraude acadêmica, com trabalhos produzidos por IA apresentados como autoria própria
O texto ressalta a necessidade de uma revisão sobre as práticas de avaliação. “Tal cenário exige a revisão das práticas avaliativas, com ênfase na valorização do processo investigativo, na análise crítica das informações ou na adoção de formatos de avaliação que reduzam a possibilidade de submissão de trabalhos produzidos de forma não original”.
O documento não estabelece uma lista de punições específicas para casos de fraudes. Há o desaconselhamento de uso de ferramentas de detecção automática de IA para embasar punições ou diagnósticos de fraude. Com informações da Folha de São Paulo.