Character.AI, ergenlerin yapay zeka karakterleriyle iletişim kurmasını yasaklayacak.

AI-agents İI ajanları 3# Character.AI, gençlerin İI karakterleriyle iletişim kurmasını yasaklayacak

Sebep, bir dizi dava ve trajik olaylar oldu.

Character.AI ile yapay zeka karakterleriyle iletişim kurma platformu, 18 yaşından küçük kullanıcılar için erişimi kısıtlayacak. Sebep, bir dizi mahkeme davası oldu.

«Serbest iletişim fonksiyonunu devre dışı bırakma kararını vermek bizim için kolay olmadı, ancak mevcut durumda bunun tek doğru karar olduğunu düşünüyoruz», — projeden yapılan açıklamada belirtiliyor

25 Kasım'a kadar, reşit olmayanlar için botlarla etkileşim süresi sınırlı olacaktır. İlk olarak, limit günde iki saat olacaktır, ardından bu süre kademeli olarak tamamen devre dışı bırakılana kadar azaltılacaktır.

Character.AI, gençlere diğer yaratıcı formatlar sunacak: video oluşturma, hikaye yazma ve AI karakterleri kullanarak yayın yapma.

Kullanıcıların yaşını kontrol etmek için platform, Character.AI'nin kendi geliştirmelerini ve Persona gibi üçüncü taraf sağlayıcıların çözümlerini bir araya getiren kapsamlı bir sistem uygulayacak.

Paralel olarak platform, kar amacı gütmeyen bir AI Güvenlik Laboratuvarı oluşturacak ve finanse edecektir. Proje, yapay zekanın eğlence işlevleri için yeni güvenlik standartlarının oluşturulmasıyla ilgilenecektir.

Soruşturmalar

Character.AI'ye karşı birkaç dava açıldı. Bunlardan biri, 2024 yılında “Game of Thrones” dizisindeki bir karakter botuna olan takıntısı nedeniyle intihar eden 14 yaşındaki bir gencin annesinden.

Bir dizi şikayetten sonra, platform artık ebeveyn kontrolü, kullanım süresi bildirimleri uyguladı ve karakterlerin yanıtlarını filtreledi.

Ağustos ayında OpenAI, ChatGPT'nin “hassas durumlar” ile çalışırken eksikliklerini gidermeye yönelik planlarını paylaştı. O zaman da bir ailenin, sohbet botunu oğullarının başına gelen trajediyle suçladığı dava nedeniyle gündeme geldi.

Meta da benzer önlemler aldı. Şirket, gençlerin güvenliğine vurgu yaparak AI tabanlı sohbet botlarının eğitimine yaklaşımını değiştirdi.

Daha sonra OpenAI, gizli konuşmaları akıl yürütme modellerine yönlendirmeyi ve ebeveyn kontrolü getirmeyi planladığını açıkladı. Eylül ayında şirket, gençler için bir sohbet botu sürümünü başlattı.

Eleştiri

27 Ekim'de OpenAI, haftalık 800 milyon aktif kullanıcının yaklaşık 1,2 milyonunun ChatGPT ile intihar konularını tartıştığını bildiren verileri yayımladı.

Yine 560.000 kullanıcı psikoz veya mani belirtileri gösteriyor, 1,2 milyon kişi ise bota artan duygusal bağlılık sergiliyor.

«Son zamanlarda ChatGPT modelimizi, kullanıcıların stres anlarında daha iyi tanınmasını ve onlara destek olmasını sağlamak için güncelledik. Standart güvenlik metriklerinin yanı sıra, temel test setine duygusal bağımlılık ve intihar etmeyen krizlerin değerlendirmesini ekledik - bu, tüm gelecekteki modeller için bir standart haline gelecektir», - şirket temsilcileri belirtti

Ancak birçok kişi, belirtilen önlemlerin yetersiz olabileceğini düşünüyor. Eski OpenAI güvenlik araştırmacısı Steven Adler, yapay zeka geliştirme yarışının tehlikesine dikkat çekti.

Onun sözlerine göre, ChatGPT'nin arkasındaki şirketin aslında savunmasız kullanıcıların korunmasında gerçek bir iyileşme sağladığına dair neredeyse hiçbir kanıtı yok.

Heyecan verici bir şekilde, OpenAI dün bazı zihinsel sağlık verileri paylaştı, daha önce sağladıkları ~0 iyileşme kanıtına karşı. Bunun için heyecanlıyım, ama yine de endişelerim var.

— Steven Adler (@sjgadler) 28 Ekim 2025

«İnsanlar, güvenlik sorunlarının giderilmesine dair sadece sözlerden daha fazlasını hak ediyor. Başka bir deyişle: gerçekten bir şeyler yaptığınızı kanıtlayın» dedi

Adler, OpenAI'i kullanıcıların mental sağlığı hakkında bazı bilgiler sağladığı için övdü, ancak “daha ileri gitmeye” çağırdı.

Ekim ayının başında, eski bir start-up çalışanı Kanadalı Allan Brooks ile yaşanan olayı analiz etti. Adam, ChatGPT'nin devrim niteliğindeki matematiksel prensiplerin keşfi konusundaki inancını sistematik olarak desteklemesinin ardından bir delilik durumuna girdi.

Adler, OpenAI'nin MIT ile birlikte geliştirdiği kendi araçlarının, sohbetin %80'inden fazlasını potansiyel olarak tehlikeli olarak tanımlayacağını belirtti. Ona göre, startup aslında pratikte koruma mekanizmalarını kullanmamış.

ChatGPT cevapları ne sıklıkla safsata sınıflandırıcılarını aktive etti. Kaynak: Stephen Adler'in araştırması

«OpenAI'nın medya baskısı veya dava açılmadan önce doğru davranmak için daha fazla çaba göstermesini istiyorum», — diye yazdı uzman.

Ekim'de yapılan bir araştırma, sosyal medya nedeniyle yapay zekanın bozulma belirtilerini ortaya çıkardığını hatırlatalım.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Repost
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)