# Character.AI は、10代の若者がAIキャラクターと交流することを禁止します原因は一連の訴訟と悲劇的な事件です。AIキャラクターとのコミュニケーションプラットフォームCharacter.AIは、18歳未満のユーザーへのアクセスを制限します。理由は一連の訴訟です。> > *「自由なコミュニケーション機能を無効にする決定は容易ではありませんでしたが、現在の状況ではそれが唯一の正しい選択だと考えています」とプロジェクトの声明に述べられています* > > > 11月25日まで、未成年者のボットとのやり取りの時間が制限されます。最初は1日2時間の制限があり、その後徐々にチャットの完全停止まで短縮されます。Character.AIはティーンエイジャーに他の創造的なフォーマットを提案します:動画の作成、物語の執筆、そしてAIキャラクターを使用したストリーミングの実施。ユーザーの年齢を確認するために、プラットフォームはCharacter.AIの独自開発とPersonaのようなサードパーティプロバイダーのソリューションを統合する包括的なシステムを導入します。並行して、プラットフォームは非営利のAIセーフティラボを設立し、資金提供を行います。このプロジェクトは、人工知能のエンターテイメント機能に対する新しい安全基準の形成に取り組みます。## 議事録Character.AIに対していくつかの訴訟が提起されました。そのうちの一つは、2024年に「ゲーム・オブ・スローンズ」のキャラクターのボットに取り憑かれて自殺した14歳の少年の母親からのものです。プラットフォームは、一連の苦情の後、親の監視、使用時間の通知を導入し、キャラクターの回答をフィルタリングしました。8月にOpenAIは、「センシティブな状況」でのChatGPTの欠点を解消する計画を発表しました。その際、チャットボットが彼らの息子に起こった悲劇に関して家族から提起された訴訟も理由となりました。Metaも同様の措置を講じました。コーポレーションは、AIベースのチャットボットのトレーニングアプローチを変更し、ティーンエイジャーの安全性に重点を置きました。その後、OpenAIは、プライバシーのある会話を推論モデルにリダイレクトし、親の管理を導入する意向を示しました。9月には、ティーンエイジャー向けのチャットボットのバージョンをリリースしました。## 批判10月27日、OpenAIは、約120万人の800万人の週次アクティブユーザーがChatGPTと自殺に関する質問を議論しているというデータを公開しました。さらに56万人のユーザーが精神病またはマニアの兆候を示しており、120万人がボットへの感情的な執着を示しています。> > *「私たちは最近、ChatGPTのモデルをアップデートし、ストレスを感じているユーザーをよりよく認識し、サポートを提供できるようにしました。標準的な安全指標に加え、基本的なテストセットに感情的依存度と自殺未遂危機の評価を含めました — これは今後すべてのモデルの標準となります」と、会社の代表者は述べています* > > > しかし、多くの人々は、挙げられた対策が不十分である可能性があると考えています。元OpenAIのセキュリティ研究者スティーブン・アドラーは、AI開発の競争における危険性について警告しました。彼の言葉によれば、ChatGPTの背後にいる企業は、実際には脆弱なユーザーの保護を改善したという証拠がほとんどないとのことです。> 興味深いことに、OpenAIは昨日、以前に提供していた改善の証拠がほとんどないのに対して、いくつかのメンタルヘルスに関する情報を発表しました。> これをやってくれて嬉しいですが、まだ懸念があります。> > — スティーブン・アドラー (@sjgadler) 2025年10月28日> > *「人々は安全問題の解決についての言葉以上のものを受けるに値する。言い換えれば、あなたが本当に何かをしたことを証明してください」と彼は指摘した* > > > アドラーはOpenAIがユーザーのメンタルヘルスに関する情報を提供したことを称賛しましたが、「さらに進む」よう呼びかけました。10月の初めに、元スタートアップの従業員がカナダ人アラン・ブルックスに起こった事件の分析を行った。この男性は、ChatGPTが革命的な数学の原則を発見しているという彼の確信を体系的に支持した後、妄想的な状態に陥った。アドラーは、MITと共同で開発されたOpenAIの独自のツールが、チャットの回答の80%以上を潜在的に危険なものとして特定するだろうと明らかにしました。彼の意見では、スタートアップは実際には防御メカニズムを実践で使用していなかったのです。ChatGPTの応答が妄想分類器を活性化する頻度。出典:スティーブン・アドラーの研究> > *「OpenAIには、メディアからの圧力や訴訟が起こる前に正しい行動をするためにもっと努力してほしい」と専門家は書いた.*> > > 10月に行われた研究では、ソーシャルネットワークの影響で人工知能の劣化の兆候が明らかになったことを思い出させます。
Character.AIはティーンエイジャーがAIキャラクターと交流することを禁止します
原因は一連の訴訟と悲劇的な事件です。
AIキャラクターとのコミュニケーションプラットフォームCharacter.AIは、18歳未満のユーザーへのアクセスを制限します。理由は一連の訴訟です。
11月25日まで、未成年者のボットとのやり取りの時間が制限されます。最初は1日2時間の制限があり、その後徐々にチャットの完全停止まで短縮されます。
Character.AIはティーンエイジャーに他の創造的なフォーマットを提案します:動画の作成、物語の執筆、そしてAIキャラクターを使用したストリーミングの実施。
ユーザーの年齢を確認するために、プラットフォームはCharacter.AIの独自開発とPersonaのようなサードパーティプロバイダーのソリューションを統合する包括的なシステムを導入します。
並行して、プラットフォームは非営利のAIセーフティラボを設立し、資金提供を行います。このプロジェクトは、人工知能のエンターテイメント機能に対する新しい安全基準の形成に取り組みます。
議事録
Character.AIに対していくつかの訴訟が提起されました。そのうちの一つは、2024年に「ゲーム・オブ・スローンズ」のキャラクターのボットに取り憑かれて自殺した14歳の少年の母親からのものです。
プラットフォームは、一連の苦情の後、親の監視、使用時間の通知を導入し、キャラクターの回答をフィルタリングしました。
8月にOpenAIは、「センシティブな状況」でのChatGPTの欠点を解消する計画を発表しました。その際、チャットボットが彼らの息子に起こった悲劇に関して家族から提起された訴訟も理由となりました。
Metaも同様の措置を講じました。コーポレーションは、AIベースのチャットボットのトレーニングアプローチを変更し、ティーンエイジャーの安全性に重点を置きました。
その後、OpenAIは、プライバシーのある会話を推論モデルにリダイレクトし、親の管理を導入する意向を示しました。9月には、ティーンエイジャー向けのチャットボットのバージョンをリリースしました。
批判
10月27日、OpenAIは、約120万人の800万人の週次アクティブユーザーがChatGPTと自殺に関する質問を議論しているというデータを公開しました。
さらに56万人のユーザーが精神病またはマニアの兆候を示しており、120万人がボットへの感情的な執着を示しています。
しかし、多くの人々は、挙げられた対策が不十分である可能性があると考えています。元OpenAIのセキュリティ研究者スティーブン・アドラーは、AI開発の競争における危険性について警告しました。
彼の言葉によれば、ChatGPTの背後にいる企業は、実際には脆弱なユーザーの保護を改善したという証拠がほとんどないとのことです。
> — スティーブン・アドラー (@sjgadler) 2025年10月28日
アドラーはOpenAIがユーザーのメンタルヘルスに関する情報を提供したことを称賛しましたが、「さらに進む」よう呼びかけました。
10月の初めに、元スタートアップの従業員がカナダ人アラン・ブルックスに起こった事件の分析を行った。この男性は、ChatGPTが革命的な数学の原則を発見しているという彼の確信を体系的に支持した後、妄想的な状態に陥った。
アドラーは、MITと共同で開発されたOpenAIの独自のツールが、チャットの回答の80%以上を潜在的に危険なものとして特定するだろうと明らかにしました。彼の意見では、スタートアップは実際には防御メカニズムを実践で使用していなかったのです。
10月に行われた研究では、ソーシャルネットワークの影響で人工知能の劣化の兆候が明らかになったことを思い出させます。