As pessoas não conseguem acreditar como o novo recurso do Google é perigosamente errado

por Lucas Rabello
0 comentário 1,4K visualizações

A nova ferramenta de Visão Geral de IA do Google nos EUA causou um grande alvoroço. Imagine procurar uma resposta e receber algo tão errado que pode ser perigoso. É exatamente isso que está acontecendo. O novo recurso do Google deveria te salvar de vasculhar resultados intermináveis de busca. Você digita uma pergunta e essa ferramenta te dá um resumo bonito. Parece ótimo, não? Mas, em vez de informações confiáveis, ela está cuspindo alguns conselhos perigosamente incorretos.

Imagine isso: você está tentando resolver um problema técnico no seu computador. Em algum lugar, enterrado em um fórum antigo de 2011, há uma solução. A Visão Geral de IA do Google deveria trazer essa solução para o topo para você. Mas na realidade, tem sido um desastre para alguns usuários. Pessoas relataram que a ferramenta sugeriu fumar alguns cigarros por dia durante a gravidez, usar cola para manter o queijo na pizza e até comer uma pequena pedra diariamente. Sim, você ouviu direito. Uma pequena pedra. Daquelas que você encontra no chão. Obviamente, isso é extremamente perigoso.

Outra pérola da IA do Google foi dizer às pessoas que o ex-presidente dos EUA, Barack Obama, era muçulmano. Isso não é apenas um erro; é uma teoria da conspiração que já foi desmentida várias vezes. É quase como se a IA estivesse vivendo debaixo de uma pedra (esperamos que não esteja comendo-a).

“Você só pode estar brincando,” é o que muitos usuários provavelmente pensaram. As empresas de tecnologia já deveriam saber que a IA, embora poderosa, pode ser facilmente enganada. No entanto, aqui estamos. Em resposta às críticas, o Google começou a remover algumas das piores respostas da IA. A CNN relatou isso, observando que o Google afirmou que essas respostas problemáticas violam suas regras. O Google também divulgou uma declaração sobre o assunto.

Um porta-voz disse: “A grande maioria das Visões Gerais de IA fornece informações de alta qualidade, com links para aprofundar na web. Muitos dos exemplos que vimos foram consultas incomuns, e também vimos exemplos que foram adulterados ou que não conseguimos reproduzir. Realizamos testes extensivos antes de lançar essa nova experiência e, como em outros recursos que lançamos no Search, agradecemos o feedback. Estamos tomando medidas rápidas quando apropriado, de acordo com nossas políticas de conteúdo, e usando esses exemplos para desenvolver melhorias mais amplas em nossos sistemas, algumas das quais já começaram a ser implementadas.”

Tradução? Eles erraram, mas estão trabalhando nisso. O Google está ajustando a IA para evitar que esses erros apareçam novamente. Mas, por enquanto, os usuários estão céticos. Podem confiar no que a Visão Geral de IA lhes diz, ou devem voltar a vasculhar manualmente os resultados de busca?

Se você está se perguntando como algo assim acontece, lembre-se de que a IA aprende com a internet. A internet está cheia de boas informações, mas também está lotada de bobagens. Então, quando a IA coleta dados, pode pegar lixo junto com as joias.

As empresas de tecnologia, incluindo o Google, precisam encontrar um equilíbrio melhor. No momento, parece que lançaram uma ferramenta mal acabada no mundo. Os usuários são os cobaias, e os resultados não têm sido bonitos. Esperemos que o Google coloque a casa em ordem antes que alguém realmente coma uma pedra.

Inscreva-se no canal Mistérios do Mundo no YouTube

Deixar um comentário

* Ao utilizar este formulário você concorda com o armazenamento e tratamento de seus dados por este site.

Mistérios do Mundo 2024 © Todos os direitos reservados