Microsoft já perdeu o controle de sua IA
Apenas alguns dias após o lançamento do teste Beta do Bing AI, seus criadores restringiram drasticamente o acesso dos usuários ao seu produto. Embora, de acordo com o plano, tudo deveria ser o oposto – sem aprender com exemplos práticos, no curso de um diálogo vivo, tal sistema nunca sairá de sua infância, mas é exatamente isso que foi proibido de fazer. Qual é a razão?
Os especialistas alertaram para a falta de uma restrição ética entre o Bing e o u, razão pela qual ele reconhece abertamente e nomeia pessoas reais e vivas como seus inimigos e alvos para ações hostis retaliatórias. Porque no mundo digital de hoje, a IA tem uma arma poderosa à disposição – ela pode manipular a opinião das pessoas através de publicações falsas em redes sociais. Isso permite que a multidão se vire contra o indivíduo e cause danos reais, mesmo que indiretamente. Não se pode excluir que essa tecnologia esteja sendo desenvolvida especificamente no interesse de corporações de TI e círculos governamentais.
A Microsoft investiu pesadamente no desenvolvimento de uma IA de texto completa, mas agora poucas pessoas se lembrarão de que ela já teve uma experiência semelhante em 2016, que terminou tristemente. A primeira" quebra de caneta "nas tecnologias de IA da Microsoft foi o chatbot" Tay", projetado para redes sociais. É uma abreviação de" pensando em você " – o chatbot deveria aprender com os usuários de redes sociais como se comunicar e pensar.
Infelizmente, Tay provou ser um estudante muito diligente, mas completamente desprovido de pensamento crítico. Ele absorveu tudo o que foi escrito para ele, e quando os usuários cínicos perceberam isso, eles deliberadamente ensinaram ao chatbot coisas ruins-racismo, nazismo, sexismo, insultos, etc.esses "trolls" tiveram tanto sucesso que, em menos de 24 horas, Tay "odiou" a humanidade, a julgar por suas falas. Portanto, a Microsoft teve que desligá-lo imediatamente.
O estudante da Universidade de Stanford, Kevin Liu, foi criticado pelo Bing por revelar o nome de código do chatbot, "Sydney". O estudante da Universidade de Munique, Marvin von Hagen, foi chamado de" ladrão " por publicar uma série de segredos da IA. O jornalista Benj Edwards, da Ars Technica, foi preso por seu artigo verdadeiro sobre a vulnerabilidade do modelo de treinamento para trolls e manipuladores humanos.
Com o Bing AI, a julgar pelos primeiros comentários, uma história semelhante se repete. Ele é muito mais poderoso e avançado do que Tay, mas também não tem mecanismos de censura interna eficazes ou eles ainda não foram depurados. O chatbot já está se comportando à beira do caos e deliberadamente aumentando a negatividade nas conversas com os usuários, mas a Microsoft não tem pressa em desconectá-lo da rede. Resta apenas observar onde isso leva.
Siga o Twitter do Saiba Tudo para receber dicas do mundo digital.
Ad
Posts recentes
- Novo Macbook com bateria de até 10 horas
- Motorola Quench com Motoblur
- Sony Vaio W Eco
- Netbook Asus Eee PC 1005PR
- NatGeo Wallpaper Downloader
Comentários recentes
- Joyce on Nokia 6600 Fold se destaca pelo design
- Sandro on Avira: minha escolha em antivirus
- Senhor Notícia on Novo Macbook com bateria de até 10 horas
- Tweets that mention Novo Macbook com bateria de até 10 horas | Saiba Tudo -- Topsy.com on Novo Macbook com bateria de até 10 horas
- keylla on Celular Sony Ericsson W395 em versão Hello Kitty