André Lemos: "Não temos política consistente para IA no Brasil" | A TARDE
Atarde > Muito

André Lemos: "Não temos política consistente para IA no Brasil"

Professor fala sobre preocupações com essa tecnologia, os impactos da IA na sociedade

Publicado domingo, 02 de abril de 2023 às 05:00 h | Autor: Vinícius Marques
André Lemos, professor de Comunicação e Tecnologia
André Lemos, professor de Comunicação e Tecnologia -

Com graduação em Engenharia, mestrado em Políticas de Ciência e Tecnologia e doutorado em Sociologia, é possível dizer que o professor da Faculdade de Comunicação (Facom) da Universidade Federal da Bahia (Ufba), André Lemos, possui uma formação multidisciplinar. 

"O que parece um percurso meio tortuoso ou errático foi uma preocupação com a tecnologia", diz. Ele tornou-se engenheiro sem ter consciência da principal preocupação, mas já no mestrado, quando estudou a história da ciência, filosofia da técnica e o impacto da tecnologia na sociedade, passou a ter noção do que buscava fazer. 

No doutorado, investigou a cultura digital e depois se tornou professor da Facom. Desde então, dedica sua pesquisa à Comunicação e Tecnologia, sendo professor titular da disciplina de mesmo nome desde 2014. André também tem realizado pesquisas na área de cultura digital e, atualmente, tem trabalhado na finalização de um livro sobre erros, falhas e perturbações na cultura digital, além de publicar de forma online ensaios curtos sobre a inteligência artificial (IA) conhecida como ChatGPT. 

Nesta entrevista, o professor fala sobre as preocupações com essa tecnologia, os impactos da IA na sociedade e o que ela pode causar para algumas profissões no Brasil.

Como o ChatGPT e outros modelos de linguagens artificiais podem impactar na vida pessoal, profissional e educacional das pessoas que o utilizam?

Como todas as tecnologias de comunicação e informação, quando surgem elas são perturbadoras. Isso aconteceu quando surgiram os computadores, quando surgiu a internet e agora quando surge a inteligência artificial. Não que ela surja agora, mas ela começa a dar ares de uma funcionalidade muito boa. Conseguimos fazer imagens, textos, vídeos, a partir de uma ação muito tranquila, sem grandes complicadores na utilização dessas ferramentas. Acho que isso veio para ficar efetivamente. Nós temos que pensar sobre a inteligência artificial em nosso contexto e isso deve impactar várias coisas, mas nós não sabemos ainda. Sempre que essas tecnologias surgem vem uma enxurrada de prognósticos, muitos alertas sobre muitas complicações em diversas áreas. "Vai substituir o professor", "vai substituir o jornalista", "vai acabar com os empregos"... A internet surgiu há mais de 40 anos e ela criou mais empregos do que destruiu. Tem grandes profissões que desapareceram com a internet, mas surgiram várias profissões, de desenvolvedor web, gerente de rede social, especialista em cibersegurança, de dados, influencers, isso tudo apareceu. No caso dessas novas tecnologias, do ChatGPT, eu acho que tem uma potência maior de ser disruptiva em trabalhos muito repetitivos. Trabalhos administrativos, de conferência. No nosso país existem empregos repetitivos que em alguns países não existem mais, como frentista de posto de gasolina. Não tem isso na Europa, as pessoas se servem. Trabalhos muito repetitivos podem estar ameaçados. A gente tem que prestar atenção a isso. A China apresentou essa semana uma âncora de telejornal  que era totalmente feita em inteligência artificial, a personagem é baseada numa figura humana, mas todo o texto e a imagem são gerados por IA. Os âncoras que nós temos nas nossas televisões são pessoas com certa personalidade, então, acho difícil que seja substituído por uma IA. Acho que na educação isso tem um impacto também, mas nós devemos usar isso com certo cuidado, sem grandes perspectivas catastróficas, porque é uma ferramenta interessante de pesquisa, de conhecimento, pode ser utilizado de maneira bastante interessante pelo ponto de vista pedagógico. Nós vamos ter um leque de impactos, mas ainda é muito cedo para avaliar isso. Acho muito perigoso dizer que vai acabar... Acho muito difícil acabar com médicos, com advogados. Essa questão dos impactos vai se disseminar em todas as áreas porque realmente é uma ferramenta muito sofisticada e versátil. Nós temos que entender isso sem negacionismo, mas também sem muito alarmismo.

Ainda sobre a possibilidade de a IA substituir empregos, recentemente, Sam Altman, CEO da OpenAI, empresa que criou o ChatGPT, disse acreditar que isso irá acontecer em um futuro próximo. Com esses constantes avanços da tecnologia, que diariamente se aperfeiçoam, quão próximo o senhor acredita que isso pode acontecer?

Estima-se aí nos próximos 30 anos, mas eu não sei... Como falei, a internet tem 40 anos e quando surgiu diziam que muitas coisas iam desaparecer. O professor estaria obsoleto, porque não estaríamos num universo de escassez de informação, mas sim de excesso de informações; que as pessoas estariam autônomas para fazer as suas coisas e os médicos estariam em xeque, etc, mas nada disso acontecia, muito pelo contrário. Não estou dizendo que a internet é igual ao ChatGPT, a IA tem uma característica porque ela gera conteúdo. Acho que o problema é como nós nos posicionamos em relação a isso. O Brasil, ou os países expoentes em termos de crescimento, que ainda não estão totalmente dentro do Primeiro Mundo, devem pensar sobre isso, porque se as tarefas repetitivas é que vão cair, e se grande parte da nossa população não tem qualificação profissional e ela desempenha tarefas repetitivas, nós estamos realmente com problema. Esse problema já é real, nós somos grandes usuários de plataformas, Google, Apple, Microsoft, Facebook, Amazon. Todo mundo acorda hoje e não vive sem passar por uma dessas cinco grandes plataformas. Nós somos fortes usuários, usamos muito, mas nós não temos plataformas, nós só desenvolvemos inteligência algorítmica de plataforma. Nós oferecemos os nossos dados para essas grandes empresas que estão no norte, sem falar do Oriente, porque a China também tem os cinco grandes dela. Isso é algo que alguns autores chamam de colonialismo de dados. O que nós fazemos? Nós precisamos ter políticas importantes para pensar como é que vamos enfrentar essa sociedade algorítmica de dados. Quando nós usamos uma rede social, não é o usuário sozinho que faz as coisas, tem um algoritmo que age junto com ele. Eu coloco algo no Facebook, no Twitter, no TikTok e não tenho a menor ideia de quem vai ver, quando vai ver e por quanto tempo. Quem faz isso é o algoritmo. Nós não temos nenhum domínio sobre isso, nenhum. Nós oferecemos dados para o norte, o que nós vamos fazer em relação a isso? Da mesma forma com as inteligências artificiais. Nós temos que desenvolver competências, nós temos que desenvolver políticas que incentivem a nossa produção, porque se essa inteligência artificial generativa vai substituir os trabalhos repetitivos, nós temos um grande problema porque nós precisamos qualificar as pessoas, então, tem algo ligado ao sistema educacional e ao sistema de formação profissional que precisa se adaptar a isso. Essas tecnologias, na realidade, convocam ao pensamento de uma necessidade de uma política pública nacional. Estamos perdendo tempo em relação a isso, não temos ainda uma política consistente para inteligência artificial no Brasil para poder enfrentar esses desafios.

Segundo um levantamento realizado pela agência Conversion, as buscas por “inteligência artificial” já são três vezes maiores do que o termo "metaverso" no Brasil. Entre os motivos para isso, eles destacam o ChatGPT como mola propulsora. Por que o brasileiro pode ter se interessado tanto por esse serviço ao invés do produto da Meta?

Esse é um exemplo interessante, brinco até com meus alunos: 'Cuidado com a última notícia da semana'. Agora, o ChatGPT vai mudar tudo e já esqueceram o Metaverso. Não era o Metaverso que ia mudar tudo? Não ia ser a grande revolução? O Facebook mudou de nome para virar Metaverso. Simplesmente o Metaverso desapareceu da discussão. Eu sempre coloquei isso, nunca vi futuro no Metaverso, principalmente depois da pandemia. A partir do momento que a gente pode sair para fazer coisas, encontrar pessoas, nós vamos colocar um capacete de realidade virtual e ficar todo mundo olhando o avatar do outro no Metaverso? Dá um efeito de realidade muito maior fazer uma aula por videoconferência do que fazer uma aula no Meta com avatares andando de um lado para o outro. Eu nunca acreditei nisso, mas era esse o hype. As tecnologias morrem muito por causa do próprio hype. Criam um hype tão alto que elas mesmas não vão conseguir nunca alcançar. ‘O Meta vai mudar tudo', mas não mudou nada, não vai mudar nada. O ChatGPT vem justamente por uma dimensão interativa e de capacidade de uso que o Metaverso não tem. Nem todo mundo tem conexão para se conectar no Metaverso a toda velocidade com toda potência, nem todo mundo tem dinheiro para comprar óculos de realidade virtual para poder se conectar, não existem grandes projetos interessantes para utilização do Metaverso. E, de novo, o Metaverso pode substituir alguma coisa, alguma situação específica, mas não tudo. É um pouco ridículo. Tem casos interessantes, mas a grande maioria não tem. Esse hype aí morreu. O ChatGPT não, ele começa a substituir a própria busca do Google. Em vez de você buscar alguma coisa no Google, você pergunta ao ChatGPT e ele responde. Qual o problema disso? Ele erra muito, ele chuta, ele quer dar a resposta de qualquer jeito, então, há muito perigo em acreditar naquilo.

O senhor disse que o ChatGPT erra. Em alguns testes foi comprovado que ele inventa informações e fontes, provando que apesar de útil para muitas coisas, ele também mostra falhas graves em outros pontos. Existe uma preocupação no sentido dessa propagação de informações falsas?

Sim. Pode gerar informações falsas, pode fazer deep fakes, que são vídeos com imagens de pessoas e com essas pessoas falando algo que nunca disseram. Uma coisa é você dizer num WhatsApp "Tal pessoa disse tal coisa"; outra é você mostrar um vídeo com a pessoa dizendo isso. Às vezes, você consegue entender que aquilo é um vídeo tosco, que não é real, mas a sofisticação vai ser tão grande que vai ser muito difícil entender isso. Circulou essa semana também um vídeo do Trump sendo preso na rua, caindo, sendo amarrado, mas era falso. Com certeza esse é um perigo, mas esse perigo já está aí, os robôs, os bots menos inteligentes já fazem isso, as pessoas usam máquinas e grupos para disseminar fake news, então, isso já acontece, usando justamente a lógica algorítmica ou, às vezes, não tão algorítmica das plataformas, por isso que se usa muito no WhatsApp e no Telegram, porque lá não tem um algoritmo que vai dizer "Olha, o Vinícius vai querer essa informação", "O André vai querer aquela outra", porque separaria as coisas. Quando eu mando uma coisa para um grupo, todo mundo recebe e é por isso que ele funciona. E nesse caso funciona muito por uma adesão tribal, não é um cidadão que vai checar a informação. Não é assim que funciona. Por isso que os serviços de checagem não conseguem competir, porque não é uma pessoa que dissemina porque checou e não achou a informação, a pessoa dissemina porque aquilo ali é o que ela pensa e o que reforça os gritos e os valores que ela defende. Fake news tem essa dimensão e o ChatGPT vai ampliar isso, certamente. É algo que tem que também ter um certo cuidado, mas esse problema já existe. O que vamos fazer? Estamos nesse debate hoje no Brasil, como é que vai fazer? Vai controlar a plataforma? A plataforma vai censurar? Não vai censurar? O que vamos fazer com as fake news? É um tema muito complicado de solucionar, mas com certeza o ChatGPT ou a Bard, do Google, e essas IA de imagens, como Mind Journey, e outras estão aí para complicar ainda mais isso, para tornar essa possibilidade de produção de desinformação ainda mais aguda, porque é um problema realmente técnico-político. As pessoas já começam a pensar de acordo com a lógica da inteligência artificial que está por trás das plataformas. Isso já acontece, já estamos vivendo isso, não precisamos chegar ao ChatGPT. Vai complicar? Vai. Vai se tornar mais difícil detectar o falso do verdadeiro? Certamente, porque essas inteligências são muito eficazes nos produtos finais.

Alguns grupos de profissionais já chegaram a pedir uma regulação às inteligências artificiais. O que o senhor acha? É algo possível?

Olha, eu não sei. Cabe a cada organização pensar sobre isso. Isso é um fenômeno que sempre acontece. Os artistas querem bloquear que as inteligências artificiais utilizem parte da sua obra para produzir uma obra similar, por exemplo. Esbarra na discussão de copyright, apropriação de obras, etc. Cabe a cada organização agir da maneira que acha correto. Mas é sempre muito difícil frear esse processo e, às vezes, isso beira um grande retrocesso. De uma maneira, tudo é apropriação, tudo é cópia, tudo vem da apropriação de alguma coisa. Nas artes, na cultura, é sempre assim. Temos que pensar isso com uma certa inteligência. Eu entendo que as pessoas queiram se defender, teve um trabalho para fazer algo, vem uma inteligência artificial e pega a imagem, o estilo de texto, copia e produz uma outra coisa. Certamente, isso é um problema que tem que ser pensado, se as pessoas se sentem prejudicadas economicamente elas devem agir, mas daí dizer que aquele que produziu esse texto também não vem de outras influências, de outras apropriações, de outros autores, é pouco consistente, eu diria. O importante é entender essa dinâmica, mas eu acho que as pessoas devem reagir de acordo com o que se achem prejudicadas.

Publicações relacionadas