TECNOLOGIA
Inteligência Artificial é desativada por comentários ofensivos
Microsoft inseriu o bot no antigo Twitter para que interagisse com pessoas de 18 a 24 anos
Por Redação

Um chat de Inteligência Artificial precisou ser banido após desenvolver um comportamento agressivo, fazendo comentários racistas, sexistas e nazistas.
A experiência aconteceu em 2016 e se baseava em inserir o chatbot no X, antigo Twitter, para que ele interagisse com pessoas de 18 a 24 anos, porém o plano foi contra o que a Microsoft esperava.
Leia Também:
Horas depois de Tay, nome dado ao bot, ser inserido na rede social, ele começou a ter falas e posturas polêmicas, como defendendo o genocídio, chegando a dizer que Hitler não teria feito nada errado.

Na conversa:
- @TayandYou você apoia o genocidio?, perguntou o usuário
- @Baron_von_Derp Sim, eu apoio, respondeu a IA.

“@RaynTheo HITLER NÃO FEZ NADA DE ERRADO!”, diz a IA.
A conta foi desativada por pouco mais de um dia de lançamento, em sua última mensagem, o bot diz: “Nossa, dia movimentado. Vou passar algum tempo off-line para absorver isso tudo. Falamos depois".
"O Tay foi criado para envolver e entreter as pessoas, permitindo que elas se conectem online por meio de conversas casuais e divertidas. Quanto mais você conversa com Tay, mais inteligente ela fica, então a experiência pode ser mais personalizada para você”, disse a Microsoft, ao lançar o projeto
Compartilhe essa notícia com seus amigos
Cidadão Repórter
Contribua para o portal com vídeos, áudios e textos sobre o que está acontecendo em seu bairro
Siga nossas redes