SALVADOR
IA mobiliza debates em ambientes educacionais e corporativos
Empresas e profissionais das mais diversas áreas estudam as melhores formas de usar as ferramentas inteligentes
Por Priscila Dórea

À medida que a inteligência artificial (IA) ganha espaço nos ambientes educacionais e corporativos, cresce também o debate sobre seu uso ético e responsável. Por um lado a IA pode potencializar estudos, tarefas e análise de dados, o seu uso excessivo pode causar uma dependência ligada à ‘preguiça’ de pensar, plágio disfarçado e uma perigosa terceirização do conhecimento humano.
Empresas e profissionais das mais diversas áreas estudam as melhores formas de usar as ferramentas inteligentes, enquanto as universidades já começaram a criar guias de ética, atendendo ao fato que a IA veio para ficar, mas não deve dominar.
De acordo como advogado especialista em direito digital e em Lei Geral de Proteção de Dados (LGPD) José Vinícius Silva de Santana, é preciso compreender a IA por aquilo que ela é: o tipo de sociedade que estamos projetando, pois a IA não apresenta resultados para além dos construídos pelos humanos.
José Vinícius, que também é professor do Centro Universitário UniRuy, explica que é um equívoco comum imaginar que a IA possua criatividade ou autoria própria, mas isso não corresponde à realidade técnica da IA.
“Utilizar um conteúdo gerado por IA como se fosse original equivale, na essência, a uma forma de plágio. O risco ético está não no uso da ferramenta em si, mas na omissão da fonte, na falsa autoria e na ausência de crítica sobre o conteúdo produzido. A IA deve ser compreendida pelo o que ela é: uma ferramenta de apoio, como um motor de busca, por exemplo, e não um agente criador ou substituto do pensamento humano”, explica o professor.
Ficar atento a esse fato é importante, porque as facilidades prometidas pela IA, em especial através dos chatbots, conquistaram a população bem rápido. Para se ter uma ideia, em 2022, demorou apenas cinco dias para o ChatGPT, o chatbot de IA mais popular, alcançar 1 milhão de usuários, de acordo com o Wiser Notify – o número atual de usuários já passou de 200 milhões pelo mundo. Ao perceber o quão rápido a IA estava se popularizando, a Universidade Federal da Bahia (UFBA) montou um grupo de trabalho de sete professores de diversas áreas do conhecimento para criar um guia de uso ético e responsável dessas ferramentas.
“Não é apenas sobre o que ela faz, mas o que ela pode fazer e como ela afeta as coisas que já estão organizadas. Tudo foi bem rápido e não tínhamos tempo para escrever uma política, então optamos por construir um guia com orientações básicas, boas práticas e princípios éticos fundamentais”, explica o psicólogo, administrador e professor Adriano de Lemos Alves Peixoto, superintendente de Avaliação e Desenvolvimento Institucional e presidente do Comitê de Governança Digital da UFBA.
Ética e responsabilidade
O Guia para Uso Ético e Responsável de IA da UFBA pode ser encontrado no site da instituição. Iniciativas como essa são importantes, “pois não há como proibir a utilização de uma tecnologia emergente como essa, sob pena de você se desconectar da realidade e também pelos muitos benefícios que possui, mas não podemos deixar a coisa correr solta de qualquer forma”, salienta Adriano.
Estudante de produção cultural na UFBA, Breno Monteiro conta que só usa IA para coisas que não demandam muito de intelecto, como programar atividades e montar rotinas. “O nosso cérebro é igual a um músculo e a gente treina ele. Com toda a questão da neuroplasticidade, é muito importante não deixar que a IA tome o lugar do nosso pensar e raciocinar. A IA possui muitos benefícios, isso é inegável, mas acho que é um problema essas ferramentas não terem um manual”, diz.
“Só estamos aprendendo de fatos sobre elas agora, entende? Depois de sua popularização. E por mais que a IA ajude em muitas coisas, as pessoas precisam saber usar corretamente”, acrescenta Breno.
“Como toda grande inovação, a IA traz uma promessa e um desafio”, pontua a gerente acadêmica da diretoria Wyden – que tem 12 instituições de ensino superior no Brasil –, Thais de Abreu Lacerda.
A Wyden tem usado a IA como aliada estratégica no ensino e na gestão acadêmica, além de treinar gestores e professores sobre o uso correto e assertivo dessas ferramentas.
A personalização do ensino, na qual os algoritmos identificam lacunas de aprendizagem, sugerem conteúdos sob medida e ampliam o acesso a ferramentas que antes pareciam distantes da realidade de muitos alunos, “estão entre os muitos benefícios”, afirma Thaís de Abreu.
Porém, regras se fazem necessárias. "Temos desenvolvido diretrizes institucionais que dialogam com a LGPD, garantindo segurança para alunos, professores e para a própria instituição", afirma.
Aatriz Sophia Eloy, que costuma usar IA apenas para correções ou para desanuviar alguma ideia, acredita que a IA tem tirado muitas pessoas do processo criativo de criação. “Está me deixando assustada o quanto as pessoas estão perdendo o hábito de pensar, discernir e criticar por elas mesmas, colocando uma inteligência artificial para fazer isso por elas. Ao invés de usar o cérebro para fazer as coisas acontecerem, elas se desdobram para perguntar a um robô como fazer. E isso me dá medo, pois é muito bonito ver a mente humana tendo que viver e pensar para alcançar determinados pensamentos”, desabafa.
Para a estudante de jornalismo da UFBA, Letícia Mendes, que ainda não conseguiu se adaptar direito ao uso de IA, pois observa muitos traços gramaticais problemáticos nas ferramentas, a questão principal é a autoria.
“É realmente uma questão que assusta bastante, principalmente para mim, uma pessoa que quer trabalhar com escrita. E isso faz a gente questionar cada vez mais a origem do que estamos lendo. Para mim é muito frustrante pensar que tem pessoas simplesmente jogando para uma ferramenta escrever em um segundo aquilo que a gente passa horas escrevendo, sabe?”, aponta.
Já na vida do designer gráfico Ricardo Lafene, a IA está bem presente: ChatGPT (ideias de conceito e escrita criativa), Leonardo AI (referências visuais), Vectorizer (criar vetores), Ideogram (tipografia), Dola.AI (prazos e compromissos).
“A IA pode ser muito positiva quando usada com consciência, mas exige responsabilidade, pois é preciso entender de onde vem o que a IA gera para evitar problemas com direitos autorais, e sempre manter transparência com os clientes sobre o uso de IA. Outro ponto é não deixar a criatividade ficar ‘preguiçosa’. A ferramenta ajuda, mas a ideia principal precisa vir de você, seu olhar e sua bagagem”, explica.
Para o designer, o uso de IA, apesar de seus inúmeros benefícios ao otimizar atividades, começa a se tornar um problema – seja nos estudos ou na hora de realizar as tarefas em seu trabalho – quando a pessoa se acomoda. “Se a pessoa passa a depender demais da IA, pode acabar perdendo aquele brilho pessoal, aquele diferencial que só o ser humano tem. A IA entrega opções rápidas, mas não substitui intuição, sensibilidade e vivência. A IA ajuda, mas o toque final ainda tem que ser nosso”, completa.
Utilização da tecnologia em empresas exige cuidado
Indo além das tendências e alcançando fatores estratégicos decisivos, a IA tem redefinido também o mundo corporativo, ao automatizar processos, analisar dados e até atender clientes. No entanto, as empresas precisam tomar cuidado de estabelecer uma política interna específica para o uso de IA, definindo quais atividades admitem o uso dessas ferramentas, em quais condições e com que limites, levando em consideração o tipo de função, a natureza dos dados envolvidos e os riscos inerentes a cada processo.
“A ausência de regras objetivas abre espaço para usos improvisados, muitas vezes sem o conhecimento dos gestores, expondo a organização a falhas e abusos”, alerta o advogado especialista em direito digital e em Lei Geral de Proteção de Dados (LGPD) José Vinícius Silva de Santana, professor do Centro Universitário UniRuy, que salienta ainda dois pontos importantes: a necessidade de reforçar que a IA, embora eficiente, não substitui o juízo humano, e que é preciso garantir a proteção de dados e a confidencialidade.
“Muitas ferramentas de IA generativa são oferecidas por plataformas abertas e operam com processamento em nuvem. Isso significa que qualquer dado inserido por um colaborador pode ser armazenado em servidores de terceiros, o que contraria, em muitos casos, cláusulas contratuais de sigilo, regras da LGPD ou obrigações éticas previstas em códigos setoriais. É de verdadeira empresa treinar seus colaboradores para que não alimentem sistemas de IA com informações sensíveis, como dados pessoais, segredos comerciais ou informações estratégicas”, orienta o advogado.
Compartilhe essa notícia com seus amigos
Siga nossas redes