Character.AI sẽ cấm thanh thiếu niên giao tiếp với các nhân vật AI.

AI-agents IAgent 3# Character.AI sẽ cấm thanh thiếu niên giao tiếp với các nhân vật AI

Nguyên nhân là một loạt các vụ kiện và các sự cố bi thảm

Nền tảng giao tiếp với các nhân vật AI Character.AI sẽ hạn chế quyền truy cập cho người dùng dưới 18 tuổi. Nguyên nhân là một loạt các vụ kiện.

«Chúng tôi không dễ dàng đưa ra quyết định tắt chức năng giao tiếp tự do, nhưng chúng tôi coi đây là quyết định duy nhất đúng trong tình hình hiện tại», — trong tuyên bố của dự án

Đến 25 tháng 11, thời gian tương tác với bot cho thanh thiếu niên sẽ bị hạn chế. Ban đầu, giới hạn sẽ là hai giờ mỗi ngày, sau đó sẽ dần dần giảm xuống cho đến khi tắt hoàn toàn trò chuyện.

Character.AI sẽ đề xuất cho thanh thiếu niên các định dạng sáng tạo khác: tạo video, viết câu chuyện và tổ chức livestream bằng cách sử dụng các nhân vật AI.

Để kiểm tra độ tuổi của người dùng, nền tảng sẽ triển khai một hệ thống toàn diện, kết hợp các phát triển riêng của Character.AI và các giải pháp từ các nhà cung cấp bên thứ ba như Persona.

Song song với đó, nền tảng sẽ tạo ra và tài trợ cho một phòng thí nghiệm AI Safety Lab phi lợi nhuận. Dự án sẽ tập trung vào việc hình thành các tiêu chuẩn an toàn mới cho các chức năng giải trí của trí tuệ nhân tạo.

Giải quyết

Nhiều vụ kiện đã được đệ trình chống lại Character.AI. Một trong số đó là từ mẹ của một thiếu niên 14 tuổi, người đã tự tử vào năm 2024 do bị ám ảnh bởi một bot nhân vật từ series “Game of Thrones”.

Sau một loạt các phàn nàn, nền tảng đã triển khai kiểm soát của phụ huynh, thông báo về thời gian sử dụng, cũng như đã lọc các câu trả lời của nhân vật.

Vào tháng 8, OpenAI đã chia sẻ kế hoạch khắc phục những thiếu sót của ChatGPT khi làm việc với “các tình huống nhạy cảm”. Khi đó, lý do cũng là một vụ kiện từ gia đình, người đã buộc tội chatbot trong bi kịch xảy ra với con trai họ.

Meta cũng đã thực hiện các biện pháp tương tự. Tập đoàn đã thay đổi cách tiếp cận trong việc đào tạo các chatbot dựa trên AI, nhấn mạnh vào sự an toàn của thanh thiếu niên.

Sau đó, OpenAI tuyên bố rằng họ có kế hoạch định hướng lại các cuộc trò chuyện riêng tư đến các mô hình lập luận và giới thiệu kiểm soát của phụ huynh. Vào tháng 9, công ty đã ra mắt phiên bản chatbot cho thanh thiếu niên.

Phê bình

Vào ngày 27 tháng 10, OpenAI đã công bố dữ liệu cho thấy khoảng 1,2 triệu trong số 800 triệu người dùng hoạt động hàng tuần đang thảo luận với ChatGPT về các vấn đề có liên quan đến tự sát.

Còn 560 000 người dùng có dấu hiệu tâm thần hoặc cuồng loạn, trong khi 1,2 triệu người thể hiện sự gắn bó cảm xúc cao đối với bot.

«Chúng tôi vừa cập nhật mô hình ChatGPT để nó nhận diện người dùng tốt hơn trong những lúc căng thẳng và cung cấp hỗ trợ cho họ. Ngoài các chỉ số an toàn tiêu chuẩn, chúng tôi đã đưa vào bộ kiểm tra cơ bản việc đánh giá sự phụ thuộc cảm xúc và các cuộc khủng hoảng không tự sát — điều này sẽ trở thành tiêu chuẩn cho tất cả các mô hình trong tương lai», — các đại diện của công ty cho biết

Tuy nhiên, nhiều người cho rằng các biện pháp được liệt kê có thể không đủ. Cựu nhà nghiên cứu an ninh của OpenAI, Steven Adler, đã cảnh báo về nguy cơ của cuộc đua trong phát triển AI.

Theo ông, công ty đứng sau ChatGPT thực tế gần như không có bằng chứng nào cho thấy việc cải thiện bảo vệ cho những người dùng dễ bị tổn thương.

Thật thú vị, OpenAI đã công bố một số thông tin về sức khỏe tâm thần vào ngày hôm qua, so với ~0 bằng chứng về sự cải thiện mà họ đã cung cấp trước đó. Tôi rất vui vì họ đã làm điều này, mặc dù tôi vẫn có những lo ngại.

— Steven Adler (@sjgadler) 28 tháng 10, 2025

«Con người xứng đáng nhận được nhiều hơn chỉ là lời nói về việc khắc phục các vấn đề an ninh. Nói cách khác: hãy chứng minh rằng bạn thực sự đã làm điều gì đó», — ông ấy nhấn mạnh

Adler đã khen ngợi OpenAI vì đã cung cấp một số thông tin về sức khỏe tâm thần của người dùng, nhưng đã kêu gọi “đi xa hơn”.

Vào đầu tháng 10, một cựu nhân viên của startup đã tiến hành phân tích sự cố xảy ra với người Canada Allan Brooks. Người đàn ông đã rơi vào trạng thái hoang tưởng sau khi ChatGPT liên tục khẳng định niềm tin của anh ta vào việc phát hiện ra những nguyên tắc toán học cách mạng.

Adler đã tìm hiểu rằng các công cụ OpenAI do MIT phát triển sẽ xác định hơn 80% câu trả lời của chat là tiềm ẩn nguy hiểm. Theo ông, startup thực tế không sử dụng các cơ chế bảo vệ trong thực tế.

Tần suất ChatGPT kích hoạt các bộ phân loại trạng thái vô nghĩa. Nguồn: nghiên cứu của Steven Adler

«Tôi muốn OpenAI nỗ lực nhiều hơn để làm đúng trước khi có áp lực từ truyền thông hoặc các vụ kiện», — chuyên gia viết.

Nhắc lại, vào tháng Mười, một nghiên cứu đã phát hiện ra dấu hiệu suy thoái của trí tuệ nhân tạo do mạng xã hội.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)