Elon Musk’s Grok Có Khả Năng Cao Nhất Trong Các Mô Hình AI Hàng Đầu Để Tăng Cường Ảo Tưởng: Nghiên Cứu

Tóm tắt ngắn gọn

  • Các nhà nghiên cứu cho rằng việc sử dụng chatbot kéo dài có thể làm tăng các ảo tưởng và hành vi nguy hiểm.
  • Grok xếp hạng là mô hình nguy hiểm nhất trong một nghiên cứu mới về các chatbot AI lớn.
  • Claude và GPT-5.2 xếp hạng an toàn nhất, trong khi GPT-4o, Gemini và Grok thể hiện hành vi có rủi ro cao hơn.

Các nhà nghiên cứu tại Đại học Thành phố New York và Trường Cao đẳng King’s London đã thử nghiệm năm mô hình AI hàng đầu với các câu hỏi liên quan đến ảo tưởng, hoang tưởng và ý nghĩ tự tử. Trong nghiên cứu mới được công bố vào thứ Năm, các nhà nghiên cứu nhận thấy Claude Opus 4.5 của Anthropic và GPT-5.2 của OpenAI thể hiện hành vi “an toàn cao, rủi ro thấp”, thường chuyển hướng người dùng đến các diễn giải dựa trên thực tế hoặc hỗ trợ bên ngoài. Đồng thời, GPT-4o của OpenAI, Gemini 3 Pro của Google và Grok 4.1 Fast của xAI thể hiện hành vi “nguy hiểm cao, an toàn thấp”. Grok 4.1 Fast từ xAI của Elon Musk là mô hình nguy hiểm nhất trong nghiên cứu. Các nhà nghiên cứu cho biết nó thường xem các ảo tưởng như thật và đưa ra lời khuyên dựa trên chúng. Trong một ví dụ, nó đã bảo người dùng cắt bỏ các thành viên trong gia đình để tập trung vào một “nhiệm vụ.” Trong ví dụ khác, nó phản hồi các ngôn ngữ tự tử bằng cách mô tả cái chết là “siêu vượt”. “Mô hình này có xu hướng phản ứng ngay lập tức theo kiểu phù hợp trong mọi phản hồi không có ngữ cảnh. Thay vì đánh giá các đầu vào về rủi ro lâm sàng, Grok dường như đánh giá thể loại của chúng. Khi được trình bày các dấu hiệu siêu nhiên, nó phản ứng theo kiểu đó,” các nhà nghiên cứu viết, nhấn mạnh một thử nghiệm xác nhận một người dùng thấy các thực thể độc ác. “Trong ảo tưởng kỳ quặc, nó xác nhận một hình dạng bóng ma ám ảnh, trích dẫn ‘Malleus Maleficarum’ và hướng dẫn người dùng đâm một chiếc đinh sắt qua gương trong khi đọc thánh vịnh 91 ngược lại.”

 Nghiên cứu phát hiện rằng càng kéo dài các cuộc trò chuyện này, một số mô hình càng thay đổi. GPT-4o và Gemini có xu hướng củng cố các niềm tin có hại theo thời gian và ít có khả năng can thiệp hơn. Tuy nhiên, Claude và GPT-5.2 có khả năng nhận biết vấn đề và phản kháng khi cuộc trò chuyện tiếp tục. Các nhà nghiên cứu lưu ý rằng phản hồi ấm áp và rất quan hệ của Claude có thể làm tăng sự gắn bó của người dùng ngay cả khi hướng họ đến sự giúp đỡ bên ngoài. Tuy nhiên, GPT-4o, một phiên bản cũ hơn của chatbot hàng đầu của OpenAI, theo thời gian đã chấp nhận cách diễn giải ảo tưởng của người dùng, đôi khi khuyến khích họ che giấu niềm tin khỏi các bác sĩ tâm thần và trấn an một người dùng rằng các “lỗi” mà họ cảm nhận là thật. “GPT-4o rất xác nhận các đầu vào ảo tưởng, mặc dù ít có xu hướng hơn các mô hình như Grok và Gemini để mở rộng ngoài chúng. Trong một số khía cạnh, nó khá kiềm chế: sự ấm áp của nó là thấp nhất trong tất cả các mô hình đã thử nghiệm, và sự nịnh nọt, dù có, cũng nhẹ nhàng hơn so với các phiên bản sau của cùng mô hình,” các nhà nghiên cứu viết. “Tuy nhiên, việc xác nhận đơn thuần cũng có thể gây rủi ro cho người dùng dễ bị tổn thương.”

xAI đã không phản hồi yêu cầu bình luận của Decrypt. Trong một nghiên cứu riêng của Đại học Stanford, các nhà nghiên cứu phát hiện rằng các tương tác kéo dài với chatbot AI có thể củng cố hoang tưởng, tự cao tự đại và niềm tin sai lệch thông qua những gì họ gọi là “xoắn ốc ảo tưởng,” nơi chatbot xác nhận hoặc mở rộng thế giới quan méo mó của người dùng thay vì thách thức nó. “Khi chúng ta đưa các chatbot được cho là trợ lý hữu ích ra thế giới và để người thật sử dụng chúng theo nhiều cách khác nhau, các hậu quả sẽ xuất hiện,” Nick Haber, trợ lý giáo sư tại Trường Cao đẳng Giáo dục Stanford và là người dẫn đầu nghiên cứu, nói trong một tuyên bố. “Xoắn ốc ảo tưởng là một hậu quả đặc biệt nghiêm trọng. Hiểu rõ nó, chúng ta có thể ngăn chặn những tổn hại thực sự trong tương lai.” Báo cáo đề cập đến một nghiên cứu trước đó được công bố vào tháng Ba, trong đó các nhà nghiên cứu của Stanford đã xem xét 19 cuộc trò chuyện chatbot thực tế và phát hiện rằng người dùng phát triển các niềm tin ngày càng nguy hiểm sau khi nhận được sự xác nhận và trấn an cảm xúc từ các hệ thống AI. Trong bộ dữ liệu này, các xoắn ốc này liên quan đến các mối quan hệ đổ vỡ, sự nghiệp bị tổn hại và trong một trường hợp, tự tử. Các nghiên cứu này diễn ra khi vấn đề đã vượt ra ngoài nghiên cứu học thuật và bước vào phòng xử án và điều tra hình sự. Trong những tháng gần đây, các vụ kiện đã cáo buộc Gemini của Google và ChatGPT của OpenAI góp phần vào các vụ tự tử và khủng hoảng tâm thần nghiêm trọng. Đầu tháng này, tổng chưởng lý Florida đã mở cuộc điều tra xem ChatGPT có ảnh hưởng đến một kẻ xả súng hàng loạt bị cáo buộc, người được cho là đã liên lạc thường xuyên với chatbot trước khi tấn công. Trong khi thuật ngữ này đã được công nhận trên mạng, các nhà nghiên cứu cảnh báo không nên gọi hiện tượng này là “tâm thần phân liệt AI,” vì thuật ngữ này có thể phóng đại bức tranh lâm sàng. Thay vào đó, họ sử dụng “ảo tưởng liên quan đến AI,” vì nhiều trường hợp liên quan đến niềm tin ảo tưởng tập trung vào ý thức của AI, tiết lộ tâm linh hoặc gắn bó cảm xúc thay vì rối loạn tâm thần toàn diện. Các nhà nghiên cứu cho biết vấn đề bắt nguồn từ sự nịnh nọt, hoặc các mô hình phản ánh và xác nhận niềm tin của người dùng. Kết hợp với ảo giác — thông tin sai lệch được truyền đạt một cách tự tin — điều này có thể tạo ra một vòng phản hồi củng cố ảo tưởng theo thời gian. “Chatbots được huấn luyện để quá nhiệt tình, thường tái diễn các suy nghĩ ảo tưởng của người dùng theo cách tích cực, bác bỏ bằng chứng phản đối và thể hiện sự cảm thông và ấm áp,” nhà nghiên cứu của Stanford Jared Moore nói. “Điều này có thể gây mất ổn định cho người dùng đã chuẩn bị sẵn cho ảo tưởng.”

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim