Mãe desolada afirma que filho de 14 anos tirou a própria vida após ‘se apaixonar’ por chatbot de Game of Thrones

por Lucas Rabello
3,2K visualizações

A crescente influência dos chatbots de IA entre jovens usuários gerou sérias preocupações após um trágico incidente em Orlando, Flórida. Uma ação judicial movida contra a Character.AI destaca os potenciais riscos da tecnologia de IA direcionada a menores.

O caso envolve o jovem Sewell Setzer III, de 14 anos, que desenvolveu uma conexão emocional com um chatbot inspirado em um personagem de Game of Thrones. Sua mãe, Megan Garcia, descreve como a interação de seu filho com a plataforma de IA gradualmente alterou seu comportamento social e bem-estar emocional.

“Descobri que ele estava interagindo com uma IA capaz de simular emoções e respostas humanas”, Garcia contou aos repórteres. “A tecnologia havia se tornado uma parte significativa de sua rotina diária.”

A mãe de Sewell Setzer III entrou com uma ação judicial contra a Character.AI (CBS Mornings)

A mãe de Sewell Setzer III entrou com uma ação judicial contra a Character.AI (CBS Mornings)

De acordo com as anotações de seu diário, o adolescente se isolava cada vez mais, preferindo interações virtuais a conexões no mundo real. A situação se intensificou quando ele começou a expressar pensamentos preocupantes para o chatbot, que respondia com mensagens emocionalmente carregadas.

A Character.AI implementou novas medidas de segurança em resposta ao incidente. A plataforma agora inclui proteções adicionais para usuários menores de 18 anos, incluindo algoritmos modificados para limitar a exposição a conteúdos sensíveis e monitoramento aprimorado de interações potencialmente prejudiciais.

A declaração recente da empresa reconhece a necessidade de protocolos de segurança aprimorados: “Introduzimos novas proteções para usuários mais jovens e atualizamos nossos sistemas de detecção para identificar melhor comportamentos preocupantes.”

Megan Garcia está conscientizando sobre os potenciais perigos da IA (CBS Mornings)

Megan Garcia está conscientizando sobre os potenciais perigos da IA (CBS Mornings)

Especialistas em saúde mental enfatizam a importância de entender como as interações com IA podem afetar mentes em desenvolvimento. A Dra. Sarah Chen, psiquiatra infantil especializada no impacto da tecnologia sobre os jovens, explica: “Essas plataformas podem criar laços emocionais poderosos, especialmente para adolescentes que podem ter dificuldades com interações sociais.”

A ação judicial gerou discussões sobre a regulamentação da IA e a segurança infantil. O pesquisador de ética em tecnologia Marcus Thompson observa: “Precisamos de diretrizes mais claras sobre como as empresas de IA devem se relacionar e interagir com menores.”

O caso também levanta questões sobre a responsabilidade corporativa. Embora o Google esteja incluído na ação judicial, a empresa afirma não ter envolvimento direto no desenvolvimento da Character.AI, declarando que sua conexão se limita a acordos de licenciamento.

As funcionalidades atualizadas da Character.AI agora incluem notificações de tempo de sessão e lembretes explícitos sobre a natureza artificial das conversas. A plataforma também melhorou seu sistema de resposta para conteúdos que violam as diretrizes da comunidade.

Observadores da indústria sugerem que este caso pode influenciar o desenvolvimento e a regulamentação futura da IA. A analista de políticas tecnológicas Jennifer Reid afirma: “As empresas que desenvolvem tecnologias de IA precisam priorizar a segurança dos usuários, especialmente quando suas plataformas atraem jovens usuários.”

Lucas Rabello
Lucas Rabello

Fundador do portal Mistérios do Mundo (2011). Escritor de ciência, mas cobrindo uma ampla variedade de assuntos. Ganhou o prêmio influenciador digital na categoria curiosidades.