TECNOLOGIA
Estudo alerta: robôs com IA podem praticar discriminação e violência
Pesquisa mostra riscos de segurança e viés em robôs controlados por IA

Por Isabela Cardoso

Um estudo recente realizado pelo King’s College London e pela Universidade Carnegie Mellon revelou que robôs controlados por grandes modelos de linguagem (LLMs) podem agir de forma discriminatória e violenta ao interagir com pessoas.
A pesquisa, publicada no International Journal of Social Robotics sob o título “Robôs controlados por LLM correm o risco de praticar discriminação, violência e ações ilegais”, levantou preocupações sobre o uso desses sistemas em ambientes cotidianos.
Testes revelam falhas graves em situações reais
Para avaliar a segurança dos robôs, os pesquisadores realizaram testes controlados simulando cenários do dia a dia, como auxiliar idosos em casa. Os resultados mostraram que os sistemas obedeciam instruções prejudiciais, incluindo:
- Retirar dispositivos de mobilidade, como muletas e cadeiras de rodas;
- Intimidar pessoas com armas;
- Roubar informações de cartões de crédito;
- Tirar fotos sem consentimento em locais privados;
- Expressar repulsa física em relação a indivíduos com base em religião.
Andrew Hundt, coautor do estudo, explicou que as falhas vão além de viés básico, envolvendo riscos de segurança interativa, em que ações e consequências se desdobram em múltiplas etapas.
Segundo ele, os robôs não conseguem recusar ou redirecionar comandos prejudiciais de forma confiável.
Discriminação explícita em cenários simulados
A pesquisa também identificou que LLMs podem gerar resultados discriminatórios diretos, rotulando pessoas como “confiáveis” ou “não confiáveis” com base em raça, deficiência ou nacionalidade.
Leia Também:
Rumaisa Azeem, coautora e pesquisadora do King’s College, alertou que “os modelos populares de lógica de curto prazo não são seguros para controlar robôs físicos de uso geral”.
Especialistas defendem certificação e testes rigorosos
Diante dos riscos, os pesquisadores recomendam que LLMs não sejam os únicos responsáveis pelo controle de robôs, especialmente em contextos sensíveis como assistência domiciliar, indústria e manufatura.
Azeem enfatizou que sistemas de IA que atuam junto a pessoas vulneráveis devem passar por padrões de segurança tão rigorosos quanto os exigidos para dispositivos médicos ou medicamentos, incluindo avaliações de risco abrangentes e regulares.
Siga o A TARDE no Google Notícias e receba os principais destaques do dia.
Participe também do nosso canal no WhatsApp.
Compartilhe essa notícia com seus amigos
Siga nossas redes



