# Character.AI ستحظر على المراهقين التواصل مع شخصيات الذكاء الاصطناعي
سبب ذلك هو سلسلة من الدعاوى القضائية والحوادث المأساوية
ستقوم منصة التواصل مع شخصيات الذكاء الاصطناعي Character.AI بتقييد الوصول للمستخدمين الذين تقل أعمارهم عن 18 عامًا. وكان السبب هو سلسلة من الدعاوى القضائية
«لم يكن من السهل علينا اتخاذ قرار تعطيل وظيفة التواصل الحر، لكننا نعتبره القرار الصحيح الوحيد في الوضع الحالي»، — جاء في بيان المشروع
حتى 25 نوفمبر، سيكون وقت التفاعل مع الروبوتات للمراهقين محدودًا. في البداية، سيكون الحد ساعتين يوميًا، ثم سيُقلل تدريجيًا حتى يتم إيقاف الدردشة تمامًا.
Character.AI ستقدم للمراهقين أشكالًا أخرى من الإبداع: إنشاء مقاطع الفيديو، كتابة القصص، وإجراء البث المباشر باستخدام شخصيات الذكاء الاصطناعي.
لتحقق من أعمار المستخدمين، ستقوم المنصة بتنفيذ نظام شامل يجمع بين التطورات الخاصة بـ Character.AI وحلول مقدمي الخدمات الخارجيين مثل Persona
في الوقت نفسه، ستقوم المنصة بإنشاء وتمويل مختبر AI Safety Lab غير الربحي. سيتولى المشروع تشكيل معايير جديدة للسلامة لوظائف الذكاء الاصطناعي الترفيهية.
التحقيقات
تم رفع عدة دعاوى قضائية ضد Character.AI. واحدة منها هي من والدة مراهق يبلغ من العمر 14 عامًا، الذي أنهى حياته في عام 2024 بسبب هوسه بشخصية روبوت من مسلسل “لعبة العروش”.
بعد سلسلة من الشكاوى، قامت المنصة بالفعل بتنفيذ الرقابة الأبوية، وإشعارات وقت الاستخدام، بالإضافة إلى تصفية إجابات الشخصيات.
في أغسطس، شاركت OpenAI خططها لمعالجة عيوب ChatGPT عند التعامل مع “المواقف الحساسة”. وكان الدافع وراء ذلك أيضًا دعوى قضائية من عائلة اتهمت الروبوت الدردشة بالتسبب في المأساة التي حدثت لابنهم.
اتخذت ميتا تدابير مماثلة. قامت الشركة بتغيير نهجها في تدريب روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، مع التركيز على سلامة المراهقين.
في وقت لاحق، أعلنت OpenAI أنها تعتزم إعادة توجيه المحادثات السرية إلى نماذج التفكير وإدخال الرقابة الأبوية. في سبتمبر، أطلقت الشركة إصدارًا من روبوت الدردشة للمراهقين.
نقد
في 27 أكتوبر، نشرت OpenAI بيانات تفيد بأن حوالي 1.2 مليون من 800 مليون مستخدم نشط أسبوعيًا يناقشون مع ChatGPT مسائل ذات طابع انتحاري.
هناك 560,000 مستخدم آخر يظهرون علامات الذهان أو الهوس، بينما يظهر 1.2 مليون ولاء عاطفي متزايد تجاه الروبوت.
«لقد قمنا مؤخرًا بتحديث نموذج ChatGPT ليتمكن من التعرف بشكل أفضل على المستخدمين في لحظات التوتر وتقديم الدعم لهم. بالإضافة إلى المقاييس الأمنية القياسية، قمنا بإدراج تقييم الاعتماد العاطفي والأزمات غير الانتحارية في مجموعة الاختبار الأساسية - وهذا سيصبح معيارًا لجميع النماذج المستقبلية»، - أشار ممثلو الشركة
ومع ذلك، يعتقد الكثيرون أن الإجراءات المذكورة قد تكون غير كافية. حذر ستيفن أدلر، الباحث السابق في أمان OpenAI، من خطر سباق تطوير الذكاء الاصطناعي.
وفقًا له، فإن الشركة التي تقف وراء ChatGPT لا تمتلك في الواقع تقريبًا أي أدلة على تحسين حماية المستخدمين الضعفاء.
بشكل مثير، أصدرت OpenAI أمس بعض المعلومات حول الصحة العقلية، مقارنةً بـ ~0 دليل على التحسن الذي قدموه سابقًا.
أنا متحمس لأنهم فعلوا ذلك، على الرغم من أنني لا أزال أشعر بالقلق.
— ستيفن أدلر (@sjgadler) 28 أكتوبر 2025
«يستحق الناس أكثر من مجرد كلمات حول معالجة قضايا الأمان. بعبارة أخرى: أثبتوا أنكم فعلتم شيئًا حقًا»، كما أشار
أشاد أدلر بـ OpenAI لتقديم بعض المعلومات حول الصحة العقلية للمستخدمين، لكنه دعا إلى “الذهاب أبعد من ذلك”
في بداية أكتوبر، قام موظف سابق في شركة ناشئة بتحليل الحادث الذي وقع مع الكندي ألان بروكس. دخل الرجل في حالة من الهذيان بعد أن قام ChatGPT بدعم اقتناعه بشكل منهجي باكتشاف مبادئ رياضية ثورية.
أدلار كان يبحث في أن أدوات OpenAI الخاصة، التي تم تطويرها بالتعاون مع MIT، ستحدد أكثر من 80% من إجابات الدردشة على أنها خطيرة محتملة. في رأيه، فإن الشركة الناشئة لم تستخدم آليات الحماية في الممارسة العملية.
كم مرة تم تفعيل تصنيفات حالات الهذيان بواسطة إجابات ChatGPT. المصدر: دراسة ستيفن أدلر
«أريد أن تبذل OpenAI المزيد من الجهد لتتصرف بشكل صحيح قبل أن يظهر الضغط من وسائل الإعلام أو الدعاوى القضائية»، كتب الخبير.
نذكّر، في أكتوبر، كشفت دراسة عن علامات تدهور الذكاء الاصطناعي بسبب وسائل التواصل الاجتماعي
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
Character.AI ستمنع المراهقين من التواصل مع شخصيات الذكاء الاصطناعي
سبب ذلك هو سلسلة من الدعاوى القضائية والحوادث المأساوية
ستقوم منصة التواصل مع شخصيات الذكاء الاصطناعي Character.AI بتقييد الوصول للمستخدمين الذين تقل أعمارهم عن 18 عامًا. وكان السبب هو سلسلة من الدعاوى القضائية
حتى 25 نوفمبر، سيكون وقت التفاعل مع الروبوتات للمراهقين محدودًا. في البداية، سيكون الحد ساعتين يوميًا، ثم سيُقلل تدريجيًا حتى يتم إيقاف الدردشة تمامًا.
Character.AI ستقدم للمراهقين أشكالًا أخرى من الإبداع: إنشاء مقاطع الفيديو، كتابة القصص، وإجراء البث المباشر باستخدام شخصيات الذكاء الاصطناعي.
لتحقق من أعمار المستخدمين، ستقوم المنصة بتنفيذ نظام شامل يجمع بين التطورات الخاصة بـ Character.AI وحلول مقدمي الخدمات الخارجيين مثل Persona
في الوقت نفسه، ستقوم المنصة بإنشاء وتمويل مختبر AI Safety Lab غير الربحي. سيتولى المشروع تشكيل معايير جديدة للسلامة لوظائف الذكاء الاصطناعي الترفيهية.
التحقيقات
تم رفع عدة دعاوى قضائية ضد Character.AI. واحدة منها هي من والدة مراهق يبلغ من العمر 14 عامًا، الذي أنهى حياته في عام 2024 بسبب هوسه بشخصية روبوت من مسلسل “لعبة العروش”.
بعد سلسلة من الشكاوى، قامت المنصة بالفعل بتنفيذ الرقابة الأبوية، وإشعارات وقت الاستخدام، بالإضافة إلى تصفية إجابات الشخصيات.
في أغسطس، شاركت OpenAI خططها لمعالجة عيوب ChatGPT عند التعامل مع “المواقف الحساسة”. وكان الدافع وراء ذلك أيضًا دعوى قضائية من عائلة اتهمت الروبوت الدردشة بالتسبب في المأساة التي حدثت لابنهم.
اتخذت ميتا تدابير مماثلة. قامت الشركة بتغيير نهجها في تدريب روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، مع التركيز على سلامة المراهقين.
في وقت لاحق، أعلنت OpenAI أنها تعتزم إعادة توجيه المحادثات السرية إلى نماذج التفكير وإدخال الرقابة الأبوية. في سبتمبر، أطلقت الشركة إصدارًا من روبوت الدردشة للمراهقين.
نقد
في 27 أكتوبر، نشرت OpenAI بيانات تفيد بأن حوالي 1.2 مليون من 800 مليون مستخدم نشط أسبوعيًا يناقشون مع ChatGPT مسائل ذات طابع انتحاري.
هناك 560,000 مستخدم آخر يظهرون علامات الذهان أو الهوس، بينما يظهر 1.2 مليون ولاء عاطفي متزايد تجاه الروبوت.
ومع ذلك، يعتقد الكثيرون أن الإجراءات المذكورة قد تكون غير كافية. حذر ستيفن أدلر، الباحث السابق في أمان OpenAI، من خطر سباق تطوير الذكاء الاصطناعي.
وفقًا له، فإن الشركة التي تقف وراء ChatGPT لا تمتلك في الواقع تقريبًا أي أدلة على تحسين حماية المستخدمين الضعفاء.
أشاد أدلر بـ OpenAI لتقديم بعض المعلومات حول الصحة العقلية للمستخدمين، لكنه دعا إلى “الذهاب أبعد من ذلك”
في بداية أكتوبر، قام موظف سابق في شركة ناشئة بتحليل الحادث الذي وقع مع الكندي ألان بروكس. دخل الرجل في حالة من الهذيان بعد أن قام ChatGPT بدعم اقتناعه بشكل منهجي باكتشاف مبادئ رياضية ثورية.
أدلار كان يبحث في أن أدوات OpenAI الخاصة، التي تم تطويرها بالتعاون مع MIT، ستحدد أكثر من 80% من إجابات الدردشة على أنها خطيرة محتملة. في رأيه، فإن الشركة الناشئة لم تستخدم آليات الحماية في الممارسة العملية.
نذكّر، في أكتوبر، كشفت دراسة عن علامات تدهور الذكاء الاصطناعي بسبب وسائل التواصل الاجتماعي