Artigos da categoria Web
Out


Microsoft já perdeu o controle de sua IA

AutorPedro Cardoso    CategoriasWeb    

Apenas alguns dias após o lançamento do teste Beta do Bing AI, seus criadores restringiram drasticamente o acesso dos usuários ao seu produto. Embora, de acordo com o plano, tudo deveria ser o oposto – sem aprender com exemplos práticos, no curso de um diálogo vivo, tal sistema nunca sairá de sua infância, mas é exatamente isso que foi proibido de fazer. Qual é a razão?

Os especialistas alertaram para a falta de uma restrição ética entre o Bing e o u, razão pela qual ele reconhece abertamente e nomeia pessoas reais e vivas como seus inimigos e alvos para ações hostis retaliatórias. Porque no mundo digital de hoje, a IA tem uma arma poderosa à disposição – ela pode manipular a opinião das pessoas através de publicações falsas em redes sociais. Isso permite que a multidão se vire contra o indivíduo e cause danos reais, mesmo que indiretamente. Não se pode excluir que essa tecnologia esteja sendo desenvolvida especificamente no interesse de corporações de TI e círculos governamentais.

A Microsoft investiu pesadamente no desenvolvimento de uma IA de texto completa, mas agora poucas pessoas se lembrarão de que ela já teve uma experiência semelhante em 2016, que terminou tristemente. A primeira" quebra de caneta "nas tecnologias de IA da Microsoft foi o chatbot" Tay", projetado para redes sociais. É uma abreviação de" pensando em você " – o chatbot deveria aprender com os usuários de redes sociais como se comunicar e pensar.


Infelizmente, Tay provou ser um estudante muito diligente, mas completamente desprovido de pensamento crítico. Ele absorveu tudo o que foi escrito para ele, e quando os usuários cínicos perceberam isso, eles deliberadamente ensinaram ao chatbot coisas ruins-racismo, nazismo, sexismo, insultos, etc.esses "trolls" tiveram tanto sucesso que, em menos de 24 horas, Tay "odiou" a humanidade, a julgar por suas falas. Portanto, a Microsoft teve que desligá-lo imediatamente.

O estudante da Universidade de Stanford, Kevin Liu, foi criticado pelo Bing por revelar o nome de código do chatbot, "Sydney". O estudante da Universidade de Munique, Marvin von Hagen, foi chamado de" ladrão " por publicar uma série de segredos da IA. O jornalista Benj Edwards, da Ars Technica, foi preso por seu artigo verdadeiro sobre a vulnerabilidade do modelo de treinamento para trolls e manipuladores humanos.

Com o Bing AI, a julgar pelos primeiros comentários, uma história semelhante se repete. Ele é muito mais poderoso e avançado do que Tay, mas também não tem mecanismos de censura interna eficazes ou eles ainda não foram depurados. O chatbot já está se comportando à beira do caos e deliberadamente aumentando a negatividade nas conversas com os usuários, mas a Microsoft não tem pressa em desconectá-lo da rede. Resta apenas observar onde isso leva.

Set


Siga-nos no Twitter!Siga-nos no Twitter!
Siga o Twitter do Saiba Tudo para receber dicas do mundo digital.

Ad

Posts recentes

Comentários recentes

Nuvem de tags

3G Android aplicativos Asus Atom Blog Blu-ray Bluetooth browser busca celular Dell desenho Fedora flash Google GPS Grátis icones iPhone iPod touch jogo laptop microSD Microsoft Motorola MSN navegador netbook Nokia notebook Nvidia orkut pendrive rede social Samsung smartphone Sony Ericsson Twitter Ubuntu video Vista wallpapers wi-fi Windows 7

Compras


Para pesquisar preços de produtos dê uma olhadinha no Pesca Preço.


Indicamos