»Thuinie Daros, mestre em educação e diretora de Planejamento Acadêmico na Vitru Educação
O avanço da inteligência artificial (IA) no setor educacional é inegável, exigindo que profissionais ampliem suas competências para lidar com essas mudanças. A IA não só expande o acesso à educação de qualidade, mas também proporciona experiências de aprendizagem inovadoras. Contudo, é crucial estar atento aos desafios éticos que emergem com essa evolução. Nesse cenário, destaco três estratégias-chave para um uso ético e responsável da IA.
A primeira é a capacitação dos colaboradores e das equipes pedagógicas. Empresas como Netflix e Airbnb levaram mais de dois anos para alcançar um milhão de usuários, enquanto o ChatGPT chegou a essa marca em cinco dias e, em menos de um ano, ultrapassou os 100 milhões, demonstrando o potencial da inteligência artificial generativa. Isso exemplifica como a substituição humana por robôs é uma realidade palpável: carros autônomos podem substituir motoristas, o ensino on-line ameaça palestrantes, e chatbots silenciam call centers.
A automação, fascinante e assustadora, levanta uma questão: quem criará essas tecnologias? A resposta é: nossos estudantes atuais, que precisam de educação de qualidade. Em uma palestra, me questionaram: "Se a automação está assumindo cada vez mais funções, por que devemos continuar investindo na capacitação, em vez de focar exclusivamente em novas tecnologias?"
A resposta é mais profunda do que parece. A automação, ao contrário de diminuir a relevância dos educadores, amplifica significativamente sua importância. São esses profissionais que preparam as mentes capazes de desenvolver as futuras tecnologias, produtos e serviços que permitirão a evolução contínua da automação.
Capacitação é vital para um futuro que prevê a integração entre automação e humanidade, pois, além de ensinar o uso prático da IA, é imprescindível preparar para enfrentar desafios éticos complexos, como deep fakes, desinformação, bolhas de informação em redes sociais e viés algorítmico. Esses temas são cruciais, pois refletem preconceitos e, se mal geridos, podem agravar desigualdades.
A segunda estratégia é a proteção da privacidade e dados. Esse é um aspecto crítico no cenário educacional. Instituições educativas são obrigadas a seguir regulamentos, como a Lei Geral de Proteção de Dados (LGPD) no Brasil, que exigem práticas transparentes na coleta, no uso e na proteção de dados pessoais.
A crescente utilização de grandes volumes de dados para treinar sistemas de IA destaca a importância da segurança dos dados em instituições educacionais. Uma violação significativa de dados pode ter graves repercussões, como perda de privacidade, danos à reputação e consequências legais e financeiras.
Portanto, é vital adotar medidas robustas de segurança, como criptografia e autenticação de dois fatores, além de realizar auditorias frequentes, para garantir a proteção eficaz das informações dos estudantes e manter a confiança na segurança de seus dados.
A última estratégia é a criação de um manifesto para o uso responsável da IA. Proponho a elaboração de um manifesto que oriente o uso ético e responsável no contexto da atuação do segmento educacional. Vale considerar que um manifesto é uma declaração pública de intenções, princípios ou visões, frequentemente relacionado a questões políticas, sociais, culturais ou, no caso específico mencionado, tecnológicas, como o uso da IA na educação.
Concluo com uma reflexão usando as palavras do próprio ChatGPT neste ano: "A IA é uma tecnologia revolucionária que está remodelando nosso mundo. Ela é capaz de automatizar tarefas complexas, prever comportamentos e até tomar decisões. No entanto, com esse grande poder, vem a responsabilidade de utilizar a IA de maneira ética e responsável."
Saiba Mais
Gostou da matéria? Escolha como acompanhar as principais notícias do Correio:
Dê a sua opinião! O Correio tem um espaço na edição impressa para publicar a opinião dos leitores pelo e-mail sredat.df@dabr.com.br