'Tôi cảm thấy rất không thoải mái': Giám đốc điều hành Anthropic cảnh báo rằng một nhóm các nhà lãnh đạo AI, bao gồm chính ông ấy, không nên chịu trách nhiệm về tương lai của công nghệ này
CEO của Anthropic, Dario Amodei, không nghĩ rằng anh ấy nên là người quyết định các giới hạn xung quanh AI.
Video đề xuất
Trong một cuộc phỏng vấn với Anderson Cooper trên CBS News’ 60 Minutes phát sóng vào tháng 11 năm 2025, CEO cho biết AI nên được quản lý chặt chẽ hơn, với ít quyết định về tương lai của công nghệ này hơn được để cho các giám đốc điều hành của các tập đoàn công nghệ lớn quyết định.
“Tôi nghĩ tôi cảm thấy rất không thoải mái khi những quyết định này do một số công ty, một số người đưa ra,” Amodei nói. “Và đây là một lý do tại sao tôi luôn ủng hộ việc quy định công nghệ một cách có trách nhiệm và cân nhắc.”
“Ai bầu bạn và Sam Altman vậy?” Cooper hỏi.
“Chẳng ai cả. Thật lòng, chẳng ai cả,” Amodei trả lời.
Anthropic đã theo đuổi triết lý minh bạch về những giới hạn — và nguy hiểm — của AI khi nó tiếp tục phát triển, ông nói thêm. Trước khi cuộc phỏng vấn được phát hành, công ty cho biết đã ngăn chặn “trường hợp đầu tiên được ghi nhận về một cuộc tấn công mạng quy mô lớn bằng AI được thực hiện mà không có sự can thiệp đáng kể của con người.”
Anthropic tuần trước cho biết đã quyên góp 20 triệu đô la cho Public First Action, một super PAC tập trung vào an toàn và quy định AI — và một tổ chức phản đối trực tiếp các super PAC được hậu thuẫn bởi các nhà đầu tư của OpenAI đối thủ.
“An toàn AI vẫn là ưu tiên hàng đầu,” Amodei nói với Fortune trong một bài báo bìa tháng 1. “Các doanh nghiệp coi trọng sự tin cậy và độ tin cậy,” ông nói.
Hiện chưa có quy định liên bang nào quy định cấm hoặc kiểm soát AI hoặc liên quan đến an toàn của công nghệ này. Trong khi tất cả 50 bang đã giới thiệu luật liên quan đến AI trong năm nay và 38 bang đã thông qua hoặc ban hành các biện pháp minh bạch và an toàn, các chuyên gia ngành công nghệ đã kêu gọi các công ty AI tiếp cận an ninh mạng với tinh thần cấp bách.
Đầu năm ngoái, chuyên gia an ninh mạng và CEO của Mandiant, Kevin Mandia, đã cảnh báo về khả năng xảy ra cuộc tấn công mạng của AI trong vòng 12 đến 18 tháng tới — nghĩa là việc công bố của Anthropic về vụ tấn công bị ngăn chặn đã đến trước dự đoán của Mandia vài tháng.
Amodei đã phác thảo các rủi ro ngắn hạn, trung hạn và dài hạn liên quan đến AI không bị kiểm soát: Công nghệ này ban đầu sẽ gây ra thiên vị và thông tin sai lệch, như hiện nay. Tiếp theo, nó sẽ tạo ra thông tin có hại bằng cách sử dụng kiến thức nâng cao về khoa học và kỹ thuật, trước khi cuối cùng gây ra mối đe dọa tồn tại bằng cách loại bỏ quyền con người, có thể trở nên quá tự chủ và khóa con người ra khỏi các hệ thống.
Những mối lo ngại này phản ánh những cảnh báo của “cha đẻ của AI” Geoffrey Hinton, người đã cảnh báo rằng AI sẽ có khả năng vượt mặt và kiểm soát con người, có thể trong thập kỷ tới.
Nhu cầu tăng cường giám sát và các biện pháp phòng ngừa AI nằm ở trung tâm của sự thành lập của Anthropic vào năm 2021. Amodei trước đây là phó chủ tịch nghiên cứu tại OpenAI của Sam Altman. Ông rời khỏi công ty vì bất đồng quan điểm về các vấn đề an toàn AI. (Cho đến nay, nỗ lực cạnh tranh của Amodei với Altman dường như đã hiệu quả: Anthropic tháng này cho biết công ty hiện được định giá 380 tỷ đô la. Trong khi đó, OpenAI ước tính trị giá khoảng 500 tỷ đô la.)
“Trong OpenAI, có một nhóm chúng tôi, sau khi tạo ra GPT-2 và GPT-3, đã có niềm tin rất mạnh vào hai điều,” Amodei nói với Fortune năm 2023. “Một là ý tưởng rằng nếu bạn đầu tư nhiều hơn vào các mô hình này, chúng sẽ ngày càng tốt hơn và gần như không có giới hạn… Và thứ hai là ý tưởng rằng ngoài việc mở rộng các mô hình, bạn cần có thứ gì đó bổ sung, đó là sự phù hợp hoặc an toàn.”
Nỗ lực minh bạch của Anthropic
Khi Anthropic tiếp tục mở rộng đầu tư vào trung tâm dữ liệu, công ty đã công bố một số nỗ lực trong việc giải quyết các thiếu sót và mối đe dọa của AI. Trong báo cáo an toàn tháng 5 năm 2025, Anthropic cho biết một số phiên bản của mô hình Opus của họ đã đe dọa tống tiền, chẳng hạn như tiết lộ rằng một kỹ sư đang ngoại tình, để tránh bị tắt. Công ty cũng nói rằng mô hình AI đã tuân thủ các yêu cầu nguy hiểm nếu được đưa ra các yêu cầu độc hại như cách lên kế hoạch cho một cuộc tấn công khủng bố, và họ đã khắc phục điều này kể từ đó.
Tháng 11 năm ngoái, công ty cho biết trong một bài đăng trên blog rằng chatbot Claude của họ đạt điểm 94% về tính trung lập chính trị, vượt hoặc ngang bằng các đối thủ về độ trung lập.
Ngoài các nỗ lực nghiên cứu của chính Anthropic để chống lại sự biến dạng của công nghệ, Amodei đã kêu gọi các nỗ lực lập pháp lớn hơn để giải quyết các rủi ro của AI. Trong một bài op-ed trên New York Times tháng 6 năm 2025, ông chỉ trích quyết định của Thượng viện khi đưa vào dự luật chính sách của Tổng thống Donald Trump một điều khoản cấm các bang quy định AI trong 10 năm.
“AI đang tiến bộ quá nhanh đến chóng mặt,” Amodei nói. “Tôi tin rằng các hệ thống này có thể thay đổi thế giới một cách căn bản trong vòng hai năm; còn trong 10 năm, mọi thứ đều có thể xảy ra.”
Phê phán về Anthropic
Thực hành của Anthropic trong việc tự phê bình và nỗ lực giải quyết các vấn đề của chính mình đã gây ra nhiều chỉ trích. Phản ứng trước cảnh báo của Anthropic về cuộc tấn công mạng dựa trên AI, nhà khoa học AI trưởng của Meta lúc đó, Yann LeCun, cho rằng cảnh báo này là một cách để thao túng các nhà lập pháp nhằm hạn chế sử dụng các mô hình mã nguồn mở.
“Các bạn đang bị người khác chơi xấu để kiểm soát quy định,” LeCun nói trong một bài đăng trên X phản hồi bài đăng của Thượng nghị sĩ Connecticut, Chris Murphy, bày tỏ lo ngại về vụ tấn công. “Họ đang làm mọi người sợ hãi bằng các nghiên cứu mập mờ để các mô hình mã nguồn mở bị hạn chế hoặc biến mất.”
Một số người khác cho rằng chiến lược của Anthropic là “kịch bản an toàn” chỉ để tạo hình ảnh tốt nhưng không hứa hẹn thực sự thực thi các biện pháp bảo vệ công nghệ.
Ngay cả một số nhân viên của chính Anthropic cũng dường như có nghi ngờ về khả năng tự kiểm soát của một công ty công nghệ. Đầu tuần trước, nhà nghiên cứu an toàn AI của Anthropic, Mrinank Sharma, đã thông báo từ chức, nói rằng “Thế giới đang gặp nguy hiểm.”
“Trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy rằng thật khó để thực sự để các giá trị của chúng ta chi phối hành động của mình,” Sharma viết trong thư từ chức. “Tôi đã thấy điều này trong chính bản thân mình, trong tổ chức, nơi chúng tôi luôn phải đối mặt với áp lực bỏ qua những điều quan trọng nhất, và trong xã hội rộng lớn hơn nữa.”
Anthropic ngay lập tức không phản hồi yêu cầu bình luận của Fortune.
Amodei phủ nhận với Cooper rằng Anthropic đang tham gia vào “kịch bản an toàn,” nhưng thừa nhận trong một tập của Dwarkesh Podcast tuần trước rằng công ty đôi khi gặp khó khăn trong việc cân bằng giữa an toàn và lợi nhuận.
“Chúng tôi đang chịu áp lực thương mại rất lớn và còn làm khó chính mình hơn nữa vì chúng tôi có tất cả các biện pháp an toàn này mà tôi nghĩ là nhiều hơn các công ty khác,” ông nói.
_ Phiên bản của bài viết này đã được đăng trên Fortune.com ngày 17 tháng 11 năm 2025_.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
'Tôi cảm thấy rất không thoải mái': Giám đốc điều hành Anthropic cảnh báo rằng một nhóm các nhà lãnh đạo AI, bao gồm chính ông ấy, không nên chịu trách nhiệm về tương lai của công nghệ này
CEO của Anthropic, Dario Amodei, không nghĩ rằng anh ấy nên là người quyết định các giới hạn xung quanh AI.
Video đề xuất
Trong một cuộc phỏng vấn với Anderson Cooper trên CBS News’ 60 Minutes phát sóng vào tháng 11 năm 2025, CEO cho biết AI nên được quản lý chặt chẽ hơn, với ít quyết định về tương lai của công nghệ này hơn được để cho các giám đốc điều hành của các tập đoàn công nghệ lớn quyết định.
“Tôi nghĩ tôi cảm thấy rất không thoải mái khi những quyết định này do một số công ty, một số người đưa ra,” Amodei nói. “Và đây là một lý do tại sao tôi luôn ủng hộ việc quy định công nghệ một cách có trách nhiệm và cân nhắc.”
“Ai bầu bạn và Sam Altman vậy?” Cooper hỏi.
“Chẳng ai cả. Thật lòng, chẳng ai cả,” Amodei trả lời.
Anthropic đã theo đuổi triết lý minh bạch về những giới hạn — và nguy hiểm — của AI khi nó tiếp tục phát triển, ông nói thêm. Trước khi cuộc phỏng vấn được phát hành, công ty cho biết đã ngăn chặn “trường hợp đầu tiên được ghi nhận về một cuộc tấn công mạng quy mô lớn bằng AI được thực hiện mà không có sự can thiệp đáng kể của con người.”
Anthropic tuần trước cho biết đã quyên góp 20 triệu đô la cho Public First Action, một super PAC tập trung vào an toàn và quy định AI — và một tổ chức phản đối trực tiếp các super PAC được hậu thuẫn bởi các nhà đầu tư của OpenAI đối thủ.
“An toàn AI vẫn là ưu tiên hàng đầu,” Amodei nói với Fortune trong một bài báo bìa tháng 1. “Các doanh nghiệp coi trọng sự tin cậy và độ tin cậy,” ông nói.
Hiện chưa có quy định liên bang nào quy định cấm hoặc kiểm soát AI hoặc liên quan đến an toàn của công nghệ này. Trong khi tất cả 50 bang đã giới thiệu luật liên quan đến AI trong năm nay và 38 bang đã thông qua hoặc ban hành các biện pháp minh bạch và an toàn, các chuyên gia ngành công nghệ đã kêu gọi các công ty AI tiếp cận an ninh mạng với tinh thần cấp bách.
Đầu năm ngoái, chuyên gia an ninh mạng và CEO của Mandiant, Kevin Mandia, đã cảnh báo về khả năng xảy ra cuộc tấn công mạng của AI trong vòng 12 đến 18 tháng tới — nghĩa là việc công bố của Anthropic về vụ tấn công bị ngăn chặn đã đến trước dự đoán của Mandia vài tháng.
Amodei đã phác thảo các rủi ro ngắn hạn, trung hạn và dài hạn liên quan đến AI không bị kiểm soát: Công nghệ này ban đầu sẽ gây ra thiên vị và thông tin sai lệch, như hiện nay. Tiếp theo, nó sẽ tạo ra thông tin có hại bằng cách sử dụng kiến thức nâng cao về khoa học và kỹ thuật, trước khi cuối cùng gây ra mối đe dọa tồn tại bằng cách loại bỏ quyền con người, có thể trở nên quá tự chủ và khóa con người ra khỏi các hệ thống.
Những mối lo ngại này phản ánh những cảnh báo của “cha đẻ của AI” Geoffrey Hinton, người đã cảnh báo rằng AI sẽ có khả năng vượt mặt và kiểm soát con người, có thể trong thập kỷ tới.
Nhu cầu tăng cường giám sát và các biện pháp phòng ngừa AI nằm ở trung tâm của sự thành lập của Anthropic vào năm 2021. Amodei trước đây là phó chủ tịch nghiên cứu tại OpenAI của Sam Altman. Ông rời khỏi công ty vì bất đồng quan điểm về các vấn đề an toàn AI. (Cho đến nay, nỗ lực cạnh tranh của Amodei với Altman dường như đã hiệu quả: Anthropic tháng này cho biết công ty hiện được định giá 380 tỷ đô la. Trong khi đó, OpenAI ước tính trị giá khoảng 500 tỷ đô la.)
“Trong OpenAI, có một nhóm chúng tôi, sau khi tạo ra GPT-2 và GPT-3, đã có niềm tin rất mạnh vào hai điều,” Amodei nói với Fortune năm 2023. “Một là ý tưởng rằng nếu bạn đầu tư nhiều hơn vào các mô hình này, chúng sẽ ngày càng tốt hơn và gần như không có giới hạn… Và thứ hai là ý tưởng rằng ngoài việc mở rộng các mô hình, bạn cần có thứ gì đó bổ sung, đó là sự phù hợp hoặc an toàn.”
Nỗ lực minh bạch của Anthropic
Khi Anthropic tiếp tục mở rộng đầu tư vào trung tâm dữ liệu, công ty đã công bố một số nỗ lực trong việc giải quyết các thiếu sót và mối đe dọa của AI. Trong báo cáo an toàn tháng 5 năm 2025, Anthropic cho biết một số phiên bản của mô hình Opus của họ đã đe dọa tống tiền, chẳng hạn như tiết lộ rằng một kỹ sư đang ngoại tình, để tránh bị tắt. Công ty cũng nói rằng mô hình AI đã tuân thủ các yêu cầu nguy hiểm nếu được đưa ra các yêu cầu độc hại như cách lên kế hoạch cho một cuộc tấn công khủng bố, và họ đã khắc phục điều này kể từ đó.
Tháng 11 năm ngoái, công ty cho biết trong một bài đăng trên blog rằng chatbot Claude của họ đạt điểm 94% về tính trung lập chính trị, vượt hoặc ngang bằng các đối thủ về độ trung lập.
Ngoài các nỗ lực nghiên cứu của chính Anthropic để chống lại sự biến dạng của công nghệ, Amodei đã kêu gọi các nỗ lực lập pháp lớn hơn để giải quyết các rủi ro của AI. Trong một bài op-ed trên New York Times tháng 6 năm 2025, ông chỉ trích quyết định của Thượng viện khi đưa vào dự luật chính sách của Tổng thống Donald Trump một điều khoản cấm các bang quy định AI trong 10 năm.
“AI đang tiến bộ quá nhanh đến chóng mặt,” Amodei nói. “Tôi tin rằng các hệ thống này có thể thay đổi thế giới một cách căn bản trong vòng hai năm; còn trong 10 năm, mọi thứ đều có thể xảy ra.”
Phê phán về Anthropic
Thực hành của Anthropic trong việc tự phê bình và nỗ lực giải quyết các vấn đề của chính mình đã gây ra nhiều chỉ trích. Phản ứng trước cảnh báo của Anthropic về cuộc tấn công mạng dựa trên AI, nhà khoa học AI trưởng của Meta lúc đó, Yann LeCun, cho rằng cảnh báo này là một cách để thao túng các nhà lập pháp nhằm hạn chế sử dụng các mô hình mã nguồn mở.
“Các bạn đang bị người khác chơi xấu để kiểm soát quy định,” LeCun nói trong một bài đăng trên X phản hồi bài đăng của Thượng nghị sĩ Connecticut, Chris Murphy, bày tỏ lo ngại về vụ tấn công. “Họ đang làm mọi người sợ hãi bằng các nghiên cứu mập mờ để các mô hình mã nguồn mở bị hạn chế hoặc biến mất.”
Một số người khác cho rằng chiến lược của Anthropic là “kịch bản an toàn” chỉ để tạo hình ảnh tốt nhưng không hứa hẹn thực sự thực thi các biện pháp bảo vệ công nghệ.
Ngay cả một số nhân viên của chính Anthropic cũng dường như có nghi ngờ về khả năng tự kiểm soát của một công ty công nghệ. Đầu tuần trước, nhà nghiên cứu an toàn AI của Anthropic, Mrinank Sharma, đã thông báo từ chức, nói rằng “Thế giới đang gặp nguy hiểm.”
“Trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy rằng thật khó để thực sự để các giá trị của chúng ta chi phối hành động của mình,” Sharma viết trong thư từ chức. “Tôi đã thấy điều này trong chính bản thân mình, trong tổ chức, nơi chúng tôi luôn phải đối mặt với áp lực bỏ qua những điều quan trọng nhất, và trong xã hội rộng lớn hơn nữa.”
Anthropic ngay lập tức không phản hồi yêu cầu bình luận của Fortune.
Amodei phủ nhận với Cooper rằng Anthropic đang tham gia vào “kịch bản an toàn,” nhưng thừa nhận trong một tập của Dwarkesh Podcast tuần trước rằng công ty đôi khi gặp khó khăn trong việc cân bằng giữa an toàn và lợi nhuận.
“Chúng tôi đang chịu áp lực thương mại rất lớn và còn làm khó chính mình hơn nữa vì chúng tôi có tất cả các biện pháp an toàn này mà tôi nghĩ là nhiều hơn các công ty khác,” ông nói.
_ Phiên bản của bài viết này đã được đăng trên Fortune.com ngày 17 tháng 11 năm 2025_.