Por Aline Coelho Xavier Previdelli
Educadora e pesquisadora independente – IA Inclusiva na Prática

A inteligência artificial deixou de ser apenas uma promessa tecnológica e passou a integrar, de forma concreta, o cotidiano da educação. Planejamentos, adaptações, relatórios, avaliações e até propostas de intervenção pedagógica já podem ser apoiadas por sistemas inteligentes.
Esse avanço trouxe oportunidades reais, mas também abriu um debate necessário: como usar a IA sem comprometer princípios éticos, pedagógicos e inclusivos?
O problema não é a tecnologia em si.
O problema é como, por quem e para quem ela é utilizada.
A IA não é neutra, e nunca foi
Existe uma ideia recorrente de que a tecnologia é neutra e que tudo depende apenas do uso que fazemos dela. Na prática, isso não se sustenta completamente.
Sistemas de inteligência artificial:
- aprendem a partir de dados humanos
- refletem escolhas humanas
- reproduzem padrões sociais existentes
Ou seja, não operam fora do contexto social, cultural e histórico.
Quando levamos isso para a educação, especialmente para a educação inclusiva, o cuidado precisa ser redobrado. Afinal, estamos falando de desenvolvimento humano, não apenas de eficiência técnica.
Onde o debate costuma se perder
Nos últimos meses, surgiram discursos alarmistas sobre riscos da IA: perda de controle, superinteligência, ameaças ao futuro do trabalho e até à própria humanidade. Parte dessas discussões é legítima e vem do meio científico, mas muitas vezes chega ao público de forma exagerada ou descontextualizada.
É importante separar as coisas.
A inteligência artificial:
- não tem consciência
- não possui intenção própria
- não toma decisões éticas
Ela processa padrões, gera probabilidades e oferece respostas com base em dados.
Quem decide o que fazer com isso continua sendo o ser humano.
Na educação, isso é um ponto central.
Educação inclusiva não comporta automatismos
Em contextos inclusivos, cada decisão pedagógica importa.
Um ajuste inadequado, uma interpretação rasa ou uma automatização sem escuta pode:
- reforçar rótulos
- apagar singularidades
- comprometer trajetórias de aprendizagem
- transformar apoio em exclusão silenciosa
Por isso, quando falamos de IA na educação inclusiva, não estamos falando apenas de inovação. Estamos falando de responsabilidade.
Tecnologia sem mediação pedagógica não é inclusão.
É risco.
IA não substitui o professor, e não deve substituir
Um ponto precisa ser afirmado com clareza:
a inteligência artificial não substitui o professor.
Ela pode:
- apoiar o planejamento
- auxiliar na adaptação de atividades
- sugerir estratégias
- organizar informações
Mas ela não compreende o aluno em sua totalidade.
Não percebe nuances emocionais.
Não lê o contexto familiar.
Não constrói vínculo.
O professor continua sendo o centro das decisões pedagógicas.
Na educação inclusiva, essa centralidade é ainda mais essencial. A IA pode ampliar possibilidades, mas não pode assumir o papel de quem conhece o aluno, observa sua evolução e responde por seu desenvolvimento.
O verdadeiro risco: abdicar do critério pedagógico
O maior risco no uso da IA na educação não é a tecnologia “pensar sozinha”.
É o ser humano parar de pensar pedagogicamente.
A inteligência artificial só faz sentido na educação quando é mediada por critério pedagógico, ética e responsabilidade humana.
Aqui no IA Inclusiva na Prática, aprofundo esse debate a partir da realidade da sala de aula, do AEE e do desenvolvimento humano, sempre com foco em inclusão, não em automatização vazia.
👉 Leia também: O ensino como conhecemos está mudando: a Inteligência Artificial vai substituir ou apoiar os professores?
Quando ferramentas são usadas:
- sem análise crítica
- sem compreensão do contexto
- sem alinhamento com princípios inclusivos
o que se perde não é apenas qualidade técnica, perde-se humanidade.
A educação inclusiva exige:
- escuta
- flexibilidade
- intencionalidade
- mediação consciente
Nenhum sistema automatizado substitui isso.
Ética, cuidado e mediação: o caminho possível
Defender critérios éticos no uso da IA não é ser contra a tecnologia.
É ser responsável com seu impacto.
Usar IA na educação inclusiva exige:
- formação adequada
- clareza de limites
- compreensão do desenvolvimento humano
- compromisso com o direito à aprendizagem
A tecnologia deve servir como apoio, nunca como atalho para decisões complexas que envolvem pessoas reais.
Um olhar para o futuro (sem medo, sem ingenuidade)
Não precisamos de pânico.
Também não precisamos de deslumbramento.
Precisamos de mediação humana qualificada.
O futuro da inteligência artificial na educação não depende apenas do avanço das máquinas, mas da qualidade das escolhas pedagógicas que fazemos hoje.
Especialmente na educação inclusiva, o cuidado não é um detalhe, é o próprio fundamento.
Conclusão
A IA não é neutra.
E a educação inclusiva não pode ser tratada como um campo de testes automáticos.
O desafio do nosso tempo não é decidir se vamos usar inteligência artificial na educação, mas como usá-la sem abrir mão da ética, da escuta e da mediação humana.
Porque tecnologia pode ampliar caminhos.
Mas é o humano que garante que esses caminhos sejam, de fato, inclusivos.
Esse não é um debate simples, e não deveria ser.
Pensar o uso da IA na educação inclusiva exige tempo, escuta e responsabilidade. É um processo contínuo de reflexão, aprendizado e escolha consciente.
👉 Se quiser continuar essa conversa, você pode:
– Explorar outros artigos do IA Inclusiva na Prática
– Participar da comunidade de educadores que discutem IA com critério pedagógico, ética e foco no desenvolvimento humano
A tecnologia pode apoiar. A decisão continua sendo humana.
Referências
- Bengio, Y. (2023). AI Safety and the Need for Human Oversight. Entrevistas e debates públicos sobre riscos sistêmicos da inteligência artificial.
- UNESCO. (2023). Guidance on Generative AI in Education and Research.
- OECD. (2021). Artificial Intelligence, Ethics and Human-Centered Values.
- Turing, A. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460.
- Floridi, L. et al. (2018). AI4People—An Ethical Framework for a Good AI Society. Minds and Machines.


