Character.AI proibirá adolescentes de interagir com personagens de IA

AI-agents IAs agentes 3# Character.AI proibirá adolescentes de se comunicar com personagens de IA

A razão foi uma série de processos judiciais e incidentes trágicos.

A plataforma para interagir com personagens de IA Character.AI limitará o acesso para usuários com menos de 18 anos. A razão foi uma série de processos judiciais

«Não foi fácil para nós tomar a decisão de desativar a função de comunicação livre, mas acreditamos que é a única decisão correta na situação atual», diz a declaração do projeto

Até 25 de novembro, o tempo de interação com os bots para menores de idade será limitado. Inicialmente, o limite será de duas horas por dia e, em seguida, será gradualmente reduzido até o desligamento completo do chat.

Character.AI irá oferecer aos adolescentes outros formatos de criatividade: criação de vídeos, escrita de histórias e realização de streams utilizando personagens de IA.

Para verificar a idade dos utilizadores, a plataforma irá implementar um sistema abrangente que combinará os desenvolvimentos próprios da Character.AI e soluções de fornecedores externos como a Persona.

Paralelamente, a plataforma criará e financiará um laboratório de segurança de IA sem fins lucrativos. O projeto se dedicará à formação de novos padrões de segurança para funções de entretenimento da inteligência artificial.

Esclarecimentos

Foram apresentadas várias ações judiciais contra a Character.AI. Uma delas é de uma mãe de um adolescente de 14 anos que se suicidou em 2024 devido à obsessão por um bot-personagem da série “Game of Thrones”.

Após uma série de reclamações, a plataforma já implementou o controlo parental, notificações sobre o tempo de uso, além de ter filtrado as respostas dos personagens.

Em agosto, a OpenAI compartilhou planos para corrigir as deficiências do ChatGPT ao lidar com “situações sensíveis”. Na altura, o motivo também foi um processo movido pela família, que acusou o chatbot pela tragédia que ocorreu com seu filho.

A Meta tomou medidas semelhantes. A corporação mudou a abordagem para o treinamento de chatbots baseados em IA, enfatizando a segurança dos adolescentes.

Mais tarde, a OpenAI afirmou que pretende redirecionar conversas confidenciais para modelos de raciocínio e introduzir controle parental. Em setembro, a empresa lançou uma versão do chatbot para adolescentes.

Crítica

No dia 27 de outubro, a OpenAI publicou dados segundo os quais cerca de 1,2 milhões dos 800 milhões de usuários ativos semanalmente discutem com o ChatGPT questões de caráter suicida.

Ainda 560 000 utilizadores mostram sinais de psicose ou mania, enquanto 1,2 milhões demonstram uma elevada ligação emocional ao bot.

«Recentemente atualizamos o modelo ChatGPT para que ele reconheça melhor os usuários em momentos de estresse e lhes ofereça suporte. Além das métricas de segurança padrão, incluímos na base de testes uma avaliação da dependência emocional e crises não suicidas — isso se tornará um padrão para todos os futuros modelos», — observaram os representantes da empresa

No entanto, muitos acreditam que as medidas mencionadas podem ser insuficientes. O ex-pesquisador de segurança da OpenAI, Steven Adler, alertou para o perigo da corrida no desenvolvimento da IA.

Segundo ele, a empresa por trás do ChatGPT na verdade quase não tem evidências de melhoria real na proteção de usuários vulneráveis.

Empolgantemente, a OpenAI ontem divulgou algumas informações sobre saúde mental, em comparação com as ~0 evidências de melhoria que tinham fornecido anteriormente. Estou entusiasmado que eles fizeram isso, embora ainda tenha preocupações.

— Steven Adler (@sjgadler) 28 de outubro de 2025

«As pessoas merecem mais do que apenas palavras sobre a resolução de problemas de segurança. Em outras palavras: prove que realmente fizeram algo», — destacou ele

Adler elogiou a OpenAI pela disponibilização de algumas informações sobre a saúde mental dos usuários, mas pediu para “ir mais longe”.

No início de outubro, um ex-colaborador de uma startup analisou o incidente que ocorreu com o canadense Allan Brooks. O homem mergulhou em um estado delirante após o ChatGPT apoiar sistematicamente sua convicção na descoberta de princípios matemáticos revolucionários.

Adler descobriu que as próprias ferramentas da OpenAI, desenvolvidas em conjunto com o MIT, identificariam mais de 80% das respostas do chat como potencialmente perigosas. Na sua opinião, a startup na verdade não utilizou mecanismos de proteção na prática.

Com que frequência as respostas do ChatGPT ativaram classificadores de estados delirantes. Fonte: pesquisa de Steven Adler

«Eu quero que a OpenAI se esforce mais para fazer a coisa certa antes que a pressão da mídia ou ações judiciais apareçam», escreveu o especialista.

Recordamos que, em outubro, uma pesquisa revelou sinais de degradação da inteligência artificial devido às redes sociais.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)