# Character.AI proibirá adolescentes de se comunicar com personagens de IA
A razão foi uma série de processos judiciais e incidentes trágicos.
A plataforma para interagir com personagens de IA Character.AI limitará o acesso para usuários com menos de 18 anos. A razão foi uma série de processos judiciais
«Não foi fácil para nós tomar a decisão de desativar a função de comunicação livre, mas acreditamos que é a única decisão correta na situação atual», diz a declaração do projeto
Até 25 de novembro, o tempo de interação com os bots para menores de idade será limitado. Inicialmente, o limite será de duas horas por dia e, em seguida, será gradualmente reduzido até o desligamento completo do chat.
Character.AI irá oferecer aos adolescentes outros formatos de criatividade: criação de vídeos, escrita de histórias e realização de streams utilizando personagens de IA.
Para verificar a idade dos utilizadores, a plataforma irá implementar um sistema abrangente que combinará os desenvolvimentos próprios da Character.AI e soluções de fornecedores externos como a Persona.
Paralelamente, a plataforma criará e financiará um laboratório de segurança de IA sem fins lucrativos. O projeto se dedicará à formação de novos padrões de segurança para funções de entretenimento da inteligência artificial.
Esclarecimentos
Foram apresentadas várias ações judiciais contra a Character.AI. Uma delas é de uma mãe de um adolescente de 14 anos que se suicidou em 2024 devido à obsessão por um bot-personagem da série “Game of Thrones”.
Após uma série de reclamações, a plataforma já implementou o controlo parental, notificações sobre o tempo de uso, além de ter filtrado as respostas dos personagens.
Em agosto, a OpenAI compartilhou planos para corrigir as deficiências do ChatGPT ao lidar com “situações sensíveis”. Na altura, o motivo também foi um processo movido pela família, que acusou o chatbot pela tragédia que ocorreu com seu filho.
A Meta tomou medidas semelhantes. A corporação mudou a abordagem para o treinamento de chatbots baseados em IA, enfatizando a segurança dos adolescentes.
Mais tarde, a OpenAI afirmou que pretende redirecionar conversas confidenciais para modelos de raciocínio e introduzir controle parental. Em setembro, a empresa lançou uma versão do chatbot para adolescentes.
Crítica
No dia 27 de outubro, a OpenAI publicou dados segundo os quais cerca de 1,2 milhões dos 800 milhões de usuários ativos semanalmente discutem com o ChatGPT questões de caráter suicida.
Ainda 560 000 utilizadores mostram sinais de psicose ou mania, enquanto 1,2 milhões demonstram uma elevada ligação emocional ao bot.
«Recentemente atualizamos o modelo ChatGPT para que ele reconheça melhor os usuários em momentos de estresse e lhes ofereça suporte. Além das métricas de segurança padrão, incluímos na base de testes uma avaliação da dependência emocional e crises não suicidas — isso se tornará um padrão para todos os futuros modelos», — observaram os representantes da empresa
No entanto, muitos acreditam que as medidas mencionadas podem ser insuficientes. O ex-pesquisador de segurança da OpenAI, Steven Adler, alertou para o perigo da corrida no desenvolvimento da IA.
Segundo ele, a empresa por trás do ChatGPT na verdade quase não tem evidências de melhoria real na proteção de usuários vulneráveis.
Empolgantemente, a OpenAI ontem divulgou algumas informações sobre saúde mental, em comparação com as ~0 evidências de melhoria que tinham fornecido anteriormente.
Estou entusiasmado que eles fizeram isso, embora ainda tenha preocupações.
— Steven Adler (@sjgadler) 28 de outubro de 2025
«As pessoas merecem mais do que apenas palavras sobre a resolução de problemas de segurança. Em outras palavras: prove que realmente fizeram algo», — destacou ele
Adler elogiou a OpenAI pela disponibilização de algumas informações sobre a saúde mental dos usuários, mas pediu para “ir mais longe”.
No início de outubro, um ex-colaborador de uma startup analisou o incidente que ocorreu com o canadense Allan Brooks. O homem mergulhou em um estado delirante após o ChatGPT apoiar sistematicamente sua convicção na descoberta de princípios matemáticos revolucionários.
Adler descobriu que as próprias ferramentas da OpenAI, desenvolvidas em conjunto com o MIT, identificariam mais de 80% das respostas do chat como potencialmente perigosas. Na sua opinião, a startup na verdade não utilizou mecanismos de proteção na prática.
Com que frequência as respostas do ChatGPT ativaram classificadores de estados delirantes. Fonte: pesquisa de Steven Adler
«Eu quero que a OpenAI se esforce mais para fazer a coisa certa antes que a pressão da mídia ou ações judiciais apareçam», escreveu o especialista.
Recordamos que, em outubro, uma pesquisa revelou sinais de degradação da inteligência artificial devido às redes sociais.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Character.AI proibirá adolescentes de interagir com personagens de IA
A razão foi uma série de processos judiciais e incidentes trágicos.
A plataforma para interagir com personagens de IA Character.AI limitará o acesso para usuários com menos de 18 anos. A razão foi uma série de processos judiciais
Até 25 de novembro, o tempo de interação com os bots para menores de idade será limitado. Inicialmente, o limite será de duas horas por dia e, em seguida, será gradualmente reduzido até o desligamento completo do chat.
Character.AI irá oferecer aos adolescentes outros formatos de criatividade: criação de vídeos, escrita de histórias e realização de streams utilizando personagens de IA.
Para verificar a idade dos utilizadores, a plataforma irá implementar um sistema abrangente que combinará os desenvolvimentos próprios da Character.AI e soluções de fornecedores externos como a Persona.
Paralelamente, a plataforma criará e financiará um laboratório de segurança de IA sem fins lucrativos. O projeto se dedicará à formação de novos padrões de segurança para funções de entretenimento da inteligência artificial.
Esclarecimentos
Foram apresentadas várias ações judiciais contra a Character.AI. Uma delas é de uma mãe de um adolescente de 14 anos que se suicidou em 2024 devido à obsessão por um bot-personagem da série “Game of Thrones”.
Após uma série de reclamações, a plataforma já implementou o controlo parental, notificações sobre o tempo de uso, além de ter filtrado as respostas dos personagens.
Em agosto, a OpenAI compartilhou planos para corrigir as deficiências do ChatGPT ao lidar com “situações sensíveis”. Na altura, o motivo também foi um processo movido pela família, que acusou o chatbot pela tragédia que ocorreu com seu filho.
A Meta tomou medidas semelhantes. A corporação mudou a abordagem para o treinamento de chatbots baseados em IA, enfatizando a segurança dos adolescentes.
Mais tarde, a OpenAI afirmou que pretende redirecionar conversas confidenciais para modelos de raciocínio e introduzir controle parental. Em setembro, a empresa lançou uma versão do chatbot para adolescentes.
Crítica
No dia 27 de outubro, a OpenAI publicou dados segundo os quais cerca de 1,2 milhões dos 800 milhões de usuários ativos semanalmente discutem com o ChatGPT questões de caráter suicida.
Ainda 560 000 utilizadores mostram sinais de psicose ou mania, enquanto 1,2 milhões demonstram uma elevada ligação emocional ao bot.
No entanto, muitos acreditam que as medidas mencionadas podem ser insuficientes. O ex-pesquisador de segurança da OpenAI, Steven Adler, alertou para o perigo da corrida no desenvolvimento da IA.
Segundo ele, a empresa por trás do ChatGPT na verdade quase não tem evidências de melhoria real na proteção de usuários vulneráveis.
Adler elogiou a OpenAI pela disponibilização de algumas informações sobre a saúde mental dos usuários, mas pediu para “ir mais longe”.
No início de outubro, um ex-colaborador de uma startup analisou o incidente que ocorreu com o canadense Allan Brooks. O homem mergulhou em um estado delirante após o ChatGPT apoiar sistematicamente sua convicção na descoberta de princípios matemáticos revolucionários.
Adler descobriu que as próprias ferramentas da OpenAI, desenvolvidas em conjunto com o MIT, identificariam mais de 80% das respostas do chat como potencialmente perigosas. Na sua opinião, a startup na verdade não utilizou mecanismos de proteção na prática.
Recordamos que, em outubro, uma pesquisa revelou sinais de degradação da inteligência artificial devido às redes sociais.