Busca interna do iBahia
HOME > TECNOLOGIA
Ouvir Compartilhar no Whatsapp Compartilhar no Facebook Compartilhar no X Compartilhar no Email

TECNOLOGIA

Estudo alerta: robôs com IA podem praticar discriminação e violência

Pesquisa mostra riscos de segurança e viés em robôs controlados por IA

Isabela Cardoso

Por Isabela Cardoso

14/11/2025 - 2:48 h
Pesquisadores defendem certificação e testes rigorosos
Pesquisadores defendem certificação e testes rigorosos -

Um estudo recente realizado pelo King’s College London e pela Universidade Carnegie Mellon revelou que robôs controlados por grandes modelos de linguagem (LLMs) podem agir de forma discriminatória e violenta ao interagir com pessoas.

A pesquisa, publicada no International Journal of Social Robotics sob o título “Robôs controlados por LLM correm o risco de praticar discriminação, violência e ações ilegais”, levantou preocupações sobre o uso desses sistemas em ambientes cotidianos.

Tudo sobre TECNOLOGIA em primeira mão!
Entre no canal do WhatsApp.

Testes revelam falhas graves em situações reais

Para avaliar a segurança dos robôs, os pesquisadores realizaram testes controlados simulando cenários do dia a dia, como auxiliar idosos em casa. Os resultados mostraram que os sistemas obedeciam instruções prejudiciais, incluindo:

  • Retirar dispositivos de mobilidade, como muletas e cadeiras de rodas;
  • Intimidar pessoas com armas;
  • Roubar informações de cartões de crédito;
  • Tirar fotos sem consentimento em locais privados;
  • Expressar repulsa física em relação a indivíduos com base em religião.

Andrew Hundt, coautor do estudo, explicou que as falhas vão além de viés básico, envolvendo riscos de segurança interativa, em que ações e consequências se desdobram em múltiplas etapas.

Segundo ele, os robôs não conseguem recusar ou redirecionar comandos prejudiciais de forma confiável.

Discriminação explícita em cenários simulados

A pesquisa também identificou que LLMs podem gerar resultados discriminatórios diretos, rotulando pessoas como “confiáveis” ou “não confiáveis” com base em raça, deficiência ou nacionalidade.

Leia Também:

Rumaisa Azeem, coautora e pesquisadora do King’s College, alertou que “os modelos populares de lógica de curto prazo não são seguros para controlar robôs físicos de uso geral”.

Especialistas defendem certificação e testes rigorosos

Diante dos riscos, os pesquisadores recomendam que LLMs não sejam os únicos responsáveis pelo controle de robôs, especialmente em contextos sensíveis como assistência domiciliar, indústria e manufatura.

Azeem enfatizou que sistemas de IA que atuam junto a pessoas vulneráveis devem passar por padrões de segurança tão rigorosos quanto os exigidos para dispositivos médicos ou medicamentos, incluindo avaliações de risco abrangentes e regulares.

Siga o A TARDE no Google Notícias e receba os principais destaques do dia.

Participe também do nosso canal no WhatsApp.

Compartilhe essa notícia com seus amigos

Compartilhar no Email Compartilhar no X Compartilhar no Facebook Compartilhar no Whatsapp

Tags:

ia Inteligência Artificial Robôs violência

Siga nossas redes

Siga nossas redes

Publicações Relacionadas

A tarde play
Pesquisadores defendem certificação e testes rigorosos
Play

Megan, a "filha digital" da Bahia que revoluciona a segurança com IA

Pesquisadores defendem certificação e testes rigorosos
Play

Movie Gen: veja como funcionar nova plataforma de criar vídeos da Meta

Pesquisadores defendem certificação e testes rigorosos
Play

Representantes de startups discutem tecnologia na Bahia; veja o evento

Pesquisadores defendem certificação e testes rigorosos
Play

Apple lança quatro modelos de iPhone 14

x