Exame.com
Continua após a publicidade

IA levará o "Big Brother" às escolas?

É difícil encontrar quem nunca tenha desconfiado do próprio celular. Afinal, será que meu smartphone está ouvindo minhas conversas?

Sorria, você está sendo filmado (Getty Images)
Sorria, você está sendo filmado (Getty Images)

Atualmente, é difícil encontrar quem nunca tenha desconfiado do próprio celular. Afinal, será que meu smartphone está ouvindo minhas conversas? Essa é uma das dúvidas mais recorrentes quando nos deparamos com ofertas publicitárias de algum produto recém-mencionado em uma conversa - mesmo que ela não tenha ocorrido através do aparelho. 

Quem possui relógios inteligentes consegue monitorar os batimentos cardíacos por minuto, a quantidade de passos dados, a localização via satélite e muito mais. 

Se nossos dispositivos já armazenam muitos dos nossos dados, com a entrada da Inteligência Artificial (IA) em campo para processá-los de forma organizada, as dúvidas se tornam mais sérias: qual o limite dessa reunião de informações e como elas poderão ser usadas no futuro? Meu plano de saúde terá acesso ao meu aplicativo de corrida? Meu empregador saberá detalhes da minha jornada profissional ou da minha vida pessoal? 

Quando falamos em IA, principalmente no âmbito da Educação, vale notar que a discussão vai muito além do uso do ChatGPT para trabalhos escolares. A ferramenta, que foi desenvolvida pela OpenAI e lançada em novembro de 2022, já é quase "coisa do passado".  

Digo isso porque já existem diversos softwares com IA para o uso além das tarefas dos estudantes: em gestão escolar, em pesquisa ou em ensino. Alunos e professores, aliás, já utilizam esses recursos, que têm funcionado como uma espécie de "assessor pessoal" nos trabalhos de organização, correção, tradução, resumos e tantas outras possibilidades. 

Agora, imagine, por exemplo, um jardim de infância que utiliza brinquedos e jogos interativos baseados em IA para promover o aprendizado e o desenvolvimento social. Esses dispositivos coletam dados sobre as preferências, habilidades e interações sociais das crianças. Enquanto podem oferecer uma experiência de aprendizado rica, também coletam informações sensíveis sobre crianças muito jovens, levantando questões profundas sobre consentimento e a natureza dos dados coletados em uma idade tão tenra. 

Recentemente, ao participar de uma série de atividades na pré-conferência Bett Show 2024, ocorrida em Londres no último janeiro, fiquei surpresa com a existência de um software que analisa gravações dos alunos em sala de aula, e, por meio do movimento da íris do estudante, conclui se ele está envolvido na aula e qual seu possível grau de desenvolvimento e atenção dada ao que o professor fala. Esse sistema analisa expressões faciais, tempo de foco e interações durante as aulas para identificar alunos que possam estar enfrentando dificuldades ou desengajamento. 

Mas essa intensa vigilância, com a interpretação automatizada de comportamentos emocionais e físicos, levanta questões sobre a privacidade e a pressão psicológica sobre as crianças. Será que não corremos o risco de separar os estudantes avaliados pela tecnologia como "melhores" dos "piores", usando como base um sistema que não leva em conta o contexto pessoal de cada um e sem uma interpretação humanizada desses detalhes? Quais seriam as implicações éticas envolvidas neste processo? A análise desses dados fará parte do cotidiano do professor? Se sim, essas informações serão usadas para o desenvolvimento de um "Super Aluno"? 

Segurança de dados 

Ou seja, ao mesmo tempo em que a IA tem potencial de revolucionar a Educação por meio da personalização, carrega consigo o risco de vazamentos de dados, uso indevido de informações e até mesmo estigmatização de alunos baseada em seu desempenho acadêmico. Incógnitas como essas nos mostram a necessidade de políticas de proteção de dados bastante robustas e práticas éticas na implementação de soluções de IA no ambiente educacional. 

As leis e regulamentações sobre privacidade de dados, principalmente no que se refere ao contexto educacional, são temas complexos, dada a diversidade de legislações ao redor do mundo. Europa e Brasil são destaques por importantes regulamentações: o Regulamento Geral sobre a Proteção de Dados (GDPR) por lá e a Lei Geral de Proteção de Dados (LGPD) por aqui. 

No nosso país, a legislação é recente e exige que gestores educacionais revisem uma série de procedimentos, como políticas de privacidade e termos de uso de suas plataformas, para que dados pessoais de alunos estejam realmente resguardados. 

Ao comparar o GDPR com a LGPD, surgem algumas diferenças-chave, refletindo abordagens distintas à proteção de dados. Enquanto ambas compartilham o objetivo comum de proteger a privacidade dos indivíduos, o GDPR é conhecido por ser mais prescritivo, especialmente em termos de medidas de segurança de dados e prazos de notificação de violação.  

Por exemplo, o GDPR exige a notificação das violações de dados dentro de 72 horas, enquanto a LGPD estipula prazo "razoável" sem definir uma quantidade de tempo específica. Um ponto em que a LGPD se mostra mais abrangente é no direito ao anonimato dos dados, fornecendo aos indivíduos o direito explícito de solicitá-lo, que é um aspecto que o GDPR aborda mais como uma medida de segurança do que um direito do titular dos dados. Vale lembrar que o Direito à Privacidade é garantido pela nossa Constituição Federal e consta na Declaração de Direitos Humanos da ONU, de 1948. 

Por isso, o armazenamento e a análise de informações sobre o desempenho escolar, padrões de aprendizado e até mesmo dados pessoais feitos por softwares de IA precisam de alta proteção. Vazamentos de dados não são eventos isolados no país e é frequente que vejamos notícias na imprensa sobre empresas e instituições que tiveram seus arquivos roubados. 

Mas se o cenário é tão sombrio, será que o ideal não seria voltarmos aos lápis e papéis? Pelo contrário. Assim como aconteceu com a Internet, a ampla assimilação da IA vem para acrescentar. Seu objetivo, a priori, não é fomentar a desigualdade, mas integrar os usuários, diminuir preconceitos e reconhecer possíveis dificuldades educacionais o mais breve possível. 

Precisamos de estratégias para equilibrar o uso benéfico da IA e a proteção da privacidade dos alunos. Vejo que podemos chegar nesse consenso ao considerar a transparência na coleta de informações, o consentimento informado dos familiares e estudantes e, principalmente, limites na utilização desse novo "Histórico Escolar 2.0". 

O papel dos pais, educadores, desenvolvedores de tecnologia e formuladores de políticas, na garantia da privacidade dos estudantes e uso de recursos que realmente contribuam com o seu desenvolvimento, é e será cada vez mais importante. É preciso analisar com muito critério o que está sendo incorporado, com qual finalidade e os prós e contras envolvidos.  

Se você está, de alguma forma, envolvido nesse processo, seja como desenvolvedor de tecnologia, gestor escolar, professor, pai ou responsável, fique atento. Busque entender o que está sendo incorporado à rotina escolar. Crie espaços de discussão e avaliação do impacto dos softwares utilizados, seja para fortalecer as oportunidades de aprendizagem ou acompanhar o desenvolvimento socioemocional.  

Precisamos, sim, usufruir das oportunidades que as tecnologias digitais nos trazem para promover a melhoria da qualidade da Educação, mas sempre com um olhar atento para o impacto que elas podem promover no futuro dessas crianças e jovens. 

A IA irá levar o “Big Brother” às escolas? Bom, isso dependerá de nossas ações. 

(*) Luciana Allan é Doutora em Educação pela USP e diretora técnica do Instituto Crescer, onde há mais de 20 anos lidera projetos nacionais e internacionais na área de educação