ENTREVISTA – SÉRGIO AMADEU
‘Plataformas digitais ganham com conteúdos espetaculares’
Pesquisador explica, em entrevista ao A TARDE, como as plataformas digitais modulam nossa atenção e comportamento
Por Divo Araújo
Muita gente ainda não se dá conta, mas os algoritmos das plataformas digitais modulam hoje a nossa atenção de tal forma que conseguem prever e direcionar nosso comportamento com um enorme grau de assertividade. E, pior, fazem isso com a nossa total colaboração. “Estamos numa fase em que todo o nosso comportamento está sendo observado por uma série de dispositivos que não nos causa medo, ao contrário”, explica o professor e pesquisador do tema, Sérgio Amadeu, nesta entrevista exclusiva ao A TARDE.
Esse fenômeno tem implicações comportamentais, econômicas e políticas. Na entrevista, Amadeu lembrou que essas plataformas ganham com a retenção da atenção do usuário. E, para isso, quanto mais espetacular o conteúdo, melhor. “Ou a democracia controla estas aplicações ou nós vamos ter o uso que a gente já viu, criando ondas de desinformação e levando a desvirtuamentos gravíssimos”. Saiba mais na entrevista que segue.
Queria iniciar a entrevista tratando dos efeitos dos sistemas de algoritmos do Google, Facebook e outras big techs na sociedade, que são tema dos seus livros. Até que ponto os algoritmos moldam hoje nosso comportamento?
A primeira constatação importante a ser feita é que grande parte da nossa comunicação hoje é mediada por aplicativos, dispositivos que são controlados por essas big techs. Esses aplicativos fazem parte do cotidiano de todos nós. Você tem usos múltiplos desses aplicativos. Eles estão no contexto da economia, política, relações familiares, grupos de estudo das escolas, organização do entretenimento... E todos esses aplicativos, ou quase todos, são operados por sistemas algoritmos. A operação principal desses sistemas é, primeiro, controlar todo o fluxo comunicacional. Dessa forma, eles obtêm dados dos usuários, no caso das redes sociais, para prender a atenção dessas pessoas a partir da detecção dos seus gostos, interesses e vontades. Esses algoritmos modulam a nossa atenção para, em seguida, modular o nosso comportamento. Repare, não estou dizendo que eles manipulam, porque pode dar uma ideia de que você não teria nenhuma possibilidade de resistir. Mas quando você entra no Facebook, por exemplo, quem organiza o que você vai ver são esses sistemas algorítmicos. Agora, você pode já ter uma indicação e ir direto a uma página que você vai pode ter certa dificuldade para achar, mas vai achar. Toda a ideia dessas redes de relacionamento social e dessas plataformas é de orientar o nosso olhar. Esses sistemas algorítmicos atuam sobre a nossa subjetividade e constroem uma série de práticas que vão induzindo o nosso olhar. Na verdade, eles reduzem a realidade e podem, vamos dizer assim, criar uma situação em que a gente tenha impressões equivocadas sobre o que está acontecendo, sobre os fenômenos sociais. Isso dá um grande poder a essas plataformas.
O senhor pode dar mais exemplos disso?
Eles usam uma técnica de gatilhos. Se você imaginar o TikTok, logo que você vê um vídeo que te interessa, o algoritmo dele já analisou o seu perfil e posta imediatamente outro vídeo que captura a sua atenção. Vai construindo uma dinâmica cognitiva de dispersão, de baixa concentração e já estamos vendo as consequências. Existem várias pessoas que já estão, há algum tempo, acostumadas a esse cenário digital que têm muita dificuldade em ler um texto um pouco maior, de concentrar sua atenção num filme um pouco mais longo. Tudo isso tem uma interferência no plano da subjetividade também. Toda essa organização desse sistema algorítmico é executada com base nos dados que essas big techs coletam de nossa presença em suas infraestruturas digitais.
Como o senhor está explicando, o modelo montado por essas grandes empresas permite a vigilância e o rastreamento das ações de todos nós. Isso caracteriza o que o senhor chama, nos seus livros, de sociedades de controle?
A sociedade de controle é um termo criado pelo filósofo francês Gilles Deleuze para caracterizar um momento específico muito curioso e eu comungo dessa ideia. Ela é precisa para identificar o nosso momento. Deleuze dizia que nós estamos numa fase em que todo o nosso comportamento está sendo observado por uma série de dispositivos que não nos causa medo, ao contrário. Por isso que a gente não fala meramente em vigilância. Deleuze pega essa periodização que outro filósofo, Michel Foucault fazia, quando ele dizia que estávamos vivendo uma sociedade disciplinar, na qual indivíduos viviam em constantes unidades que impunham a eles disciplinas para tornar os seus corpos dóceis. A estrutura econômica, de poder... Só que Deleuze fala, ‘olha, depois de meados do século 20, surgiram as máquinas internéticas que, na verdade, exercem um controle. Se a disciplina impõe o temor da sanção, o controle não. Por isso que ele usa esse termo ‘controle’. Para dizer o seguinte: as pessoas entregam os dados da sua vida, da sua intimidade, registram dentro das caixas postais das big techs informações sensíveis sobre o que elas acham da sua própria família, do seu chefe, da sua escola, do seu emprego. Ela coloca suas esperanças, seus temores. E não temem nenhuma retaliação, nenhuma sanção, nenhum uso malicioso desses dados. Eu costumo dizer que as pessoas, usando o celular, se sentem extremamente comunicativas, capazes de encontrar qualquer informação, produtivas. Só que observe: o celular é, ao mesmo tempo, uma máquina de comunicação, mas também de controle, porque segue a velha tecnologia cibernética. A tecnologia que constrói simultaneamente aparatos de comunicação e de controle. A internet é uma rede de redes de computadores e agora de máquinas de processamento. Para se comunicar com outro computador, ou para obter informação de um site, a sua máquina tem que ter uma posição inequívoca na rede. Toda a lógica dessas tecnologias é uma lógica cibernética, insisto, simultaneamente de comunicação e controle. Com a expansão da digitalização, o que acabou acontecendo é que se abriu espaço para uma enorme coleta de dados.
A partir de que momento, as plataformas digitais começaram a virada para essa dataficação?
É bastante difícil ter uma precisão dessa virada, um único fato. Por exemplo, a pesquisadora Shoshana Zuboff, que escreveu o livro ‘A Era do Capitalismo de Vigilância', diz que tudo começa com o Google percebendo que por causa do seu mecanismo de busca, tinha uma quantidade de dados e metadados absurda sobre os usuários. E aí ela cria um modelo de negócio baseado em entregar interfaces muito úteis e gratuitas para que as pessoas possam utilizá-las o maior tempo possível. Nessa utilização, o que os algoritmos do Google fazem é tirar e guardar elementos do comportamento desses usuários. Ele vai fazer um armazenamento de dados das atividades desempenhadas pelos usuários e, a partir disso, criar modelos estatísticos para extrair padrões. Ou seja, usa o aprendizado de máquina, que é a tecnologia principal que a gente tem hoje no chamado espectro da inteligência artificial. Então, ele usou o aprendizado de máquina para formar o meu perfil. E como se remunera, essa é a grande questão. Ele se remunera vendendo amostras que consegue montar para publicidade, para o marketing, para qualquer empresa que tenha um serviço, um produto para ofertar. E que quer ofertar precisamente para um segmento ou até para o macrossegmento ou mesmo para uma pessoa. O que ele faz? Eles montam perfis das pessoas e assim podem conduzir com mais precisão a modulação das atenções. Este mecanismo pegou e gerou uma plataformização da economia.
Quais são as principais consequências desse recolhimento dessa coleta massiva de dados que experimentamos hoje?
Uma das consequências é que as pessoas ficam vulneráveis economicamente. Elas passam a ter todos os dados da sua vida, de suas atividades, da sua condição, até mesmo política e econômica e você fica completamente vulnerável às técnicas de condução, que podem ser testadas. Essas empresas têm dados suficientes para fazer testes sem o controle de ninguém. Por exemplo, sou pesquisador de uma universidade brasileira. Se eu for fazer uma pesquisa ou um teste com humanos, eu preciso passar por um comitê de ética. Essas empresas têm informações sobre bilhões de pessoas no planeta. Eu falo bilhões, porque ultrapassa um bilhão mesmo. E elas têm condições de fazer uma série de experimentos porque os algoritmos são invisíveis. Quando a gente entra na plataforma e aparece determinados anúncios ou informações, eles nos geram uma reação. E a gente não sabe se essa reação está sendo observada por um sistema algorítmico.
O fato da gente não conhecer como funcionam esses algoritmos amplifica os riscos?
Amplificam os riscos, sim. É claro, veja bem, que você tem também um uso benéfico sempre. As tecnologias são em geral ambivalentes. Você tem usos muito úteis; por isso que essas big techs são extremamente bem-sucedidas. As pessoas usam porque elas fazem de tudo para tornar a sua situação, a minha situação, de todos, mais ágil, mais confortável. E a gente vai entregando acriticamente nossos dados. Chega uma hora que você tem um uso tão grande de dados, que você começa a ter bancos que usam sistemas de inteligência artificial para calcular se aquela pessoa vai ter acesso a um empréstimo, por exemplo. Eles vão inclusive levar em conta os dados da saúde daquela pessoa. Elas podem projetar a probabilidade daquela pessoa ter uma doença muito complicada, de morrer, de não conseguir quitar o empréstimo por problemas de saúde. Isso vai elevar a taxa de risco do empréstimo ou até mesmo negar o empréstimo para ela. Você tem uma situação econômica complicada e uma situação política também.
Lembro do escândalo da Cambridge Analytica, que deveria ter alertado todas as democracias para a gravidade do uso dos dados... Mas ainda assim pouca coisa foi feita para regular essa questão?
Pouca coisa foi feita, mas a partir dali veio a ideia de se avançar na regulação das plataformas. A União Europeia passou a criar leis de proteção de dados e também de controle democrático das plataformas. É óbvio que o governo americano tem as principais plataformas como aliadas. Você deve se lembrar das denúncias de Edward Snowden. As agências estatais e de espionagem americanas não estavam mais investigando diretamente as pessoas. Estavam investigando via big techs, que são em sua maioria norte-americanas. Têm as chinesas também mas, no Ocidente, a presença norte-americana do Google, Alphabet, Meta e Amazon é muito grande. A União Europeia faz uma regulação democrática, mas também é uma regulação econômica das plataformas.. No Brasil, a gente conseguiu fazer uma Lei de Proteção de Dados, que tem diferenças grandes da europeia, apesar de ser compatível. Por exemplo, o capital financeiro tem, vamos dizer assim, uma complacência muito maior do que há na Europa. Mais do que isso. Nós não temos uma lei de regulação democrática das plataformas. Por quê? Porque as plataformas entraram de sola contra projeto de lei 2630
O senhor se refere ao projeto de lei da fake news...
Ele ganhou esse nome porque o então relator, o deputado Orlando Silva, foi conduzindo para a regulação das plataformas. Mas as plataformas não querem ser controladas e fizeram um lobby político grande dentro do Congresso, direcionaram conteúdos. Chegaram a escrever, no mecanismo de busca do Google, uma mentira descarada, de que se o projeto fosse aprovado iria acabar com a liberdade na rede. Na verdade, o que eles chamam de liberdade na rede é a liberdade deles fazerem o que querem com os algoritmos invisíveis. Com a modulação das atenções, com experiências, porque a gente não sabe o que eles fazem. E aí que vem a questão da Cambridge Analytica. O Facebook diz que foi um vazamento, mas não é procedente essa ideia. A Cambridge Analytica tinha uma parceria com o Facebook. Tinha acesso a uma base de dados maior do que qualquer outra empresa. Aí, o que acabou acontecendo? Ela usou uma machine learning para fazer um teste que ela já tinha visto que era importante, que era o teste do Big Five. Que é para identificar os traços principais de personalidade de um usuário. Ela fez o teste e cerca de 300 mil usuários responderam. Na época, era permitido aqueles jogos que a gente fazia no Facebook. Com esse teste, eles conseguiram identificar os cinco tipos principais de perfis. Começaram a seguir cada um desses grupos e treinaram o modelo de machine learning, que foi aplicado a 70 milhões de norte-americanos. Aí, sim, é uma coisa absurda. Quando ela começou a vigiar 70 milhões de norte-americanos, ela rodou um algoritmo e as pessoas não sabiam que estavam observando o seu comportamento na rede. Como explode a denúncia, o Facebook aproveita e faz uma coisa curiosa. Ele diz, olha, eu proíbo agora toda empresa de fazer qualquer coisa nas minhas interfaces de programação. As pessoas falaram, ai que legal, Facebook proíbe que as pessoas agora acompanhem o que está acontecendo nele. Mas, ao fazer isso, só eles passaram a ter o controle.
Entrando mais no campo político, de que forma os marqueteiros, as campanhas têm se apropriado desses dados para as suas estratégias eleitorais?
Na verdade, eles se apropriaram de todas as métricas que foram criadas para tentar entender o pensamento e as vontades dos usuários. Antes das redes sociais não fazer o menor sentido a métrica de quem era o seu seguidor. Exceto, se você fosse um artista famoso. A gente falava, o Roberto Carlos vendeu muitos LPs, lembra? Ou o show do Led Zeppelin lotou o estádio. Eram métricas muito eventuais. Agora não. Essas big techs passaram inclusive a organizar o que o mercado tem que fazer. Criou vários botões, links e métricas. Uma delas é o número de amigos com pessoas. É importante, mas repare. Ali, tem uma concepção de amigo? Eu tenho um monte de ‘amigos’ que nunca vi na vida. São pessoas que eu aceitei e disseram que eram minhas amigas. Na verdade, você tem a formulação de várias métricas para ganhar dinheiro. E como essas plataformas querem monetizar praticamente tudo, elas oferecem vários produtos de acesso ao mercado publicitário. Chega a hora da política, obviamente a maior parte das pessoas está aonde? Nas redes sociais, nos grupos de mensagem instantânea, nos aplicativos como WhatsApp, Telegram. Ou a democracia controla estas aplicações ou nós vamos ter o uso que a gente já viu. Criando ondas de desinformação, criando desvirtuamentos gravíssimos, levando a negacionismos, pessoas que deixaram de tomar vacina acreditando que a cloroquina salvava da Covid. Nós tivemos um problema também suplementar. Se as plataformas querem dar o máximo de ferramentas ao marketing político para levar os conteúdos até as pessoas, porque com isso elas monetizar mais, temos um grave problema. Elas não terão o menor interesse em controlar esse conteúdo.
Elas vão privilegiar conteúdos mais extremistas porque engajam mais?
Interessante você falar isso porque elas não estão preocupadas com extremismos. Elas estão preocupadas em garantir conteúdos espetaculares, que chamem a atenção. Vou citar um exemplo. Tem vários grupos de esquerda que usam o discurso mais racional, mais baseado em fatos, que não explodem na rede. O que explica (o ex-presidente) Jair Bolsonaro? Ele, além de ter um engajamento muito grande e voluntário, gastou milhões de reais patrocinando conteúdos nessas redes.
Isso explica o fato da extrema direita engajar muito mais nas redes?
A extrema direita engaja muito mais porque não tem limites na sua espetacularização. A esquerda e as forças democráticas construíram seu embate político com base no debate racional. A política não é só feita por racionalidades. É feita também por idiossincrasias, emoção, paixões. Mas o que decide a mensagem política, afinal, é como você vai resolver um problema factual com base na aplicação da razão. Bom, a extrema direita é completamente irracional. Ela rompe com o iluminismo. Ela é pré-iluminista, é reacionária e não tem coerência alguma. E não precisa ter coerência. Vou dar um exemplo claro. O Jair Bolsonaro era presidente da República. A autoridade máxima do Poder Executivo. Pois bem, ele vai ao cercadinho que costumava ir, ao lado do Palácio, e diz: o Greenpeace jogou óleo nas praias do Nordeste. No dia seguinte, ele mudou de assunto. Como é que um chefe do Executivo dá uma informação completamente descabida, mentirosa, desinformativa sobre uma ONG. Ela é acusada de um crime e ele não manda a Polícia Federal, o Exército, sei lá quem, tomar as devidas medidas legais? Por quê? Porque ele não tem nenhuma racionalidade, ele não precisa fazer nada disso. A extrema direita atua hoje basicamente com a destruição do debate racional baseado em fatos. Daí sua estratégia ser desinformativa. Essas ondas de desinformação são tantas que têm o efeito de suspensão da realidade. Até as pessoas mais bem formadas tinham dificuldade de acreditar naquilo que era e o que não era procedente, real.
É óbvio que a gente precisa da regulação, mas ela será suficiente? Como combater esse fenômeno?
Em primeiro lugar é tentando aprovar a lei de regulação de plataformas. Só que isso não resolve, concordo plenamente. A principal estratégia das forças de extrema direita é a desinformação. Portanto, a primeira coisa que tem que ser feita é trazer o debate para os fatos. E criar exatamente informações, vamos dizer assim, extremamente contundentes e que possam ser inteligíveis para as amplas camadas da população. Mas reconheço que isso não irá impedir que eles coloquem em ação sua estratégia. Insisto nisso. A estratégia deles é a suspensão da realidade. É preciso criar comitês de defesa da informação de qualidade. É preciso a imprensa assumir o seu papel. Por mais que contrarie sua doutrina, porque os vários grupos empresariais podem ter a sua opinião, a sua vocação, a sua ideologia. Mas se eles são imprensa precisam ter uma qualidade da informação. Precisa ter um compromisso com o fato, com a realidade. A gente vê isso acontecendo. O jornal The Guardian, de Londres, por exemplo. Peguei esse exemplo para não entrar no mérito de um jornal no Brasil. O The Guardian tem um compromisso com a verdade, ainda que ele o coloque contra a ideologia dos seus dirigentes. Eles colocam a ideia da informação de qualidade e o direito da sociedade se informar com qualidade acima da opção política que possam ter. Portanto, uma parte é a gente fortalecer as empresas jornalísticas sérias e criar muitos documentários. Nós não podemos deixar só um grupo de extrema direita fazendo documentários para recontar a história do Brasil. Nós precisamos ter muitos documentários, de variadas formas e tamanhos, para poder atingir variados públicos e dialogar. É fundamental, por exemplo, mostrar como funciona a engrenagem e a linha de montagem da desinformação da extrema direita. Isso faz parte de um enfrentamento político. Não tem bala mágica. A regulação vai nos ajudar muito. Mas ela não terá tempo hábil para interferir nessa eleição, infelizmente. A Justiça Eleitoral vai agir e tem agido de maneira correta. Mas tem que tomar muito cuidado para não exagerar. Agora, nada disso vai evitar a desinformação. É preciso criar coletivos, professores, educadoras, educadores, grupos. É preciso que a gente tenha uma missão, que é a missão de garantir a informação de qualidade. Essa é uma tarefa de quem é democrata.
Estamos entrando em uma nova fase, digamos assim, com a massificação da inteligência artificial generativa. Qual é a sua visão sobre os impactos dessas novas tecnologias?
Eu tenho uma visão de que nós estamos muito longe de algo que seja realmente inteligente. O que a gente tem são sistemas automatizados que utilizam estatística e a probabilidade, a partir de uma base de dados gigantesca. O que a gente chama de inteligência artificial, seja generativa ou não, em geral, é o chamado aprendizado de máquina profunda. Ele precisa de muitos dados dos quais os sistemas algorítmicos de aprendizado extraem padrões. Eles podem ser reforçados e organizados para atuar e agir como, por exemplo, no chat GPT. Ele responde perguntas como se fossem humanos. Mas, na verdade, o que nós estamos falando é de uma concentração de dados absurda em poucas empresas. Basicamente, não existem dez empresas capazes de treinar esses modelos que a gente chama de grandes modelos de linguagem natural ou grandes roteiros de linguagem, como GPT quatro, como o Gemini. Vou te passar um dado que eu que eu tenho do relatório de inteligência artificial feito pela Universidade de Stanford. O GPT 3, para treinar o modelo e ensinar a extrair padrões de bilhões de textos, possui 165 bilhões de parâmetros, que é um ajuste de treinamento. Ele foi ajustado e treinado com 560 gigabytes de texto, só para você ter uma ideia. Quando comparado a sua versão anterior, o GPT 2, ele é 100 vezes maior. O GPT 2 tinha um bilhão e meio de parâmetros. E agora vamos para o GPT 4. O GPT da Open IA gastou para o treinamento dele 78 milhões de dólares, só no uso de data centers e de máquinas apropriadas. O Gemini, do Google, custou 191 milhões de dólares só em computação. Não estou calculando salário, por exemplo, isso não dá para saber. Estou falando do gasto de máquina, de uso de máquinas em data centers. Poucas empresas e países têm condições de fazer isso. E o impacto disso, talvez seja importante para terminar. Você pega outro modelo, que é o LaMDA, do Google. Para treinar 1,5 trilhão de parâmetros, ele emitiu 36 mil toneladas de CO2 na atmosfera. Porque , para você treinar as máquinas por 30 dias, 24 horas por dia, com as rodando em alto processamento, você precisa mantê-las a uma temperatura adequada dentro dos data centers. E os data centers consomem muita água e energia elétrica. O impacto ambiental do treinamento de modelos de inteligência artificial que, na verdade, são esses temas algorítmicos que usam uma vasta quantidade de dados, sobre eles é aplicado estatística, probabilidade, com alto poder computacional. Neste modelo você tem um impacto ambiental que a sociedade precisa discutir. O uso dos data centers hoje já é responsável por 3,7% das emissões globais de gases de efeito estufa. E, portanto, ele ultrapassou a aviação civil que é menos de 3%. Esse paradigma de inteligência artificial, baseado nessa quantidade absurda de dados, e num gasto cada vez maior de poder computacional, é ambientalmente insustentável e economicamente inviável para países pobres e de renda média. Isso gera uma maior assimetria ainda no cenário econômico internacional. A gente tem outras possibilidades, outros paradigmas para criar sistemas automatizados. A gente tem que criar, ao mesmo tempo, infraestruturas soberanas no país. Não pode ficar entregando dados do desempenho escolar dos nossos estudantes, das nossas universidades, da nossa sociedade para essas big techs. É preciso fazer um esforço para manter esses dados aqui e extrair deles valor econômico. E abrir novas formas de pesquisa, outros paradigmas do que pode ser também um sistema inteligente, em que não seja necessária tamanha coleta de dados, gasto de energia e impacto ambiental.
Raio-X
Sérgio Amadeu da Silveira é graduado em Ciências Sociais, mestre e doutor em Ciência Política pela Universidade de São Paulo. É professor associado da Universidade Federal do ABC. É membro do Comitê Científico Deliberativo da Associação Brasileira de Pesquisadores em Cibercultura. Integrou o Comitê Gestor da Internet no Brasil. Presidiu o Instituto Nacional de Tecnologia da Informação. Pesquisa as implicações tecnopolíticas dos sistemas algoritmos, inteligência artificial e ativismo. É autor de diversos livros, a exemplo de “Tudo sobre tod@s: redes digitais, privacidade e venda de dados pessoais”, “Exclusão Digital: a miséria na era da informação”, dentre outros.
Compartilhe essa notícia com seus amigos
Cidadão Repórter
Contribua para o portal com vídeos, áudios e textos sobre o que está acontecendo em seu bairro
Siga nossas redes