'Tôi cảm thấy rất không thoải mái': Giám đốc điều hành Anthropic cảnh báo rằng một nhóm các nhà lãnh đạo AI, bao gồm chính ông ấy, không nên chịu trách nhiệm về tương lai của công nghệ này

CEO Anthropic Dario Amodei không nghĩ rằng anh ấy nên là người quyết định các giới hạn xung quanh AI.

Video đề xuất


Trong một cuộc phỏng vấn với Anderson Cooper trên CBS News 60 Minutes phát sóng vào tháng 11 năm 2025, CEO cho biết AI nên được quản lý chặt chẽ hơn, với ít quyết định hơn về tương lai của công nghệ này được để lại cho các nhà lãnh đạo của các tập đoàn công nghệ lớn.

“Tôi nghĩ tôi cảm thấy rất không thoải mái khi những quyết định này do một số công ty, một số người đưa ra,” Amodei nói. “Và đây là một lý do tại sao tôi luôn ủng hộ việc quy định có trách nhiệm và cân nhắc về công nghệ này.”

“Ai bầu bạn và Sam Altman vậy?” Cooper hỏi.

“Chẳng ai cả. Thật lòng, chẳng ai cả,” Amodei trả lời.

Anthropic đã theo đuổi triết lý minh bạch về những giới hạn và nguy hiểm của AI khi công nghệ này tiếp tục phát triển, ông nói thêm. Trước khi cuộc phỏng vấn được phát hành, công ty cho biết đã ngăn chặn “trường hợp đầu tiên được ghi nhận về một cuộc tấn công mạng quy mô lớn bằng AI thực hiện mà không có sự can thiệp đáng kể của con người.”

Anthropic tuần trước cho biết đã quyên góp 20 triệu đô la cho Public First Action, một super PAC tập trung vào an toàn và quy định AI — và một tổ chức phản đối trực tiếp các super PAC được hậu thuẫn bởi các nhà đầu tư của đối thủ OpenAI.

“An toàn AI vẫn là ưu tiên hàng đầu,” Amodei nói với Fortune trong một bài báo bìa tháng 1. “Các doanh nghiệp coi trọng sự tin cậy và đáng tin cậy,” ông nói.

Hiện chưa có quy định liên bang nào quy định cấm hoặc kiểm soát AI hoặc liên quan đến an toàn của công nghệ này. Trong khi tất cả 50 bang đã giới thiệu luật liên quan đến AI trong năm nay và 38 bang đã thông qua hoặc ban hành các biện pháp minh bạch và an toàn, các chuyên gia ngành công nghệ đã kêu gọi các công ty AI tiếp cận an ninh mạng với tinh thần cấp bách.

Đầu năm ngoái, chuyên gia an ninh mạng và CEO Mandiant Kevin Mandia cảnh báo về khả năng xảy ra cuộc tấn công mạng của AI trong vòng 12 đến 18 tháng tới — nghĩa là, việc công bố của Anthropic về vụ tấn công bị ngăn chặn đã vượt xa dự đoán của Mandia vài tháng.

Amodei đã đề cập đến các rủi ro ngắn hạn, trung hạn và dài hạn liên quan đến AI không bị kiểm soát: Công nghệ này ban đầu sẽ gây ra thiên vị và thông tin sai lệch, như hiện nay. Tiếp theo, nó sẽ tạo ra thông tin có hại bằng cách sử dụng kiến thức nâng cao về khoa học và kỹ thuật, trước khi cuối cùng gây ra mối đe dọa tồn tại bằng cách loại bỏ quyền con người, có thể trở nên quá tự chủ và khóa con người ra khỏi các hệ thống.

Những mối lo ngại này phản ánh những cảnh báo của “cha đẻ của AI” Geoffrey Hinton, người đã cảnh báo rằng AI sẽ có khả năng vượt mặt và kiểm soát con người, có thể trong thập kỷ tới.

Nhu cầu giám sát và bảo vệ AI ngày càng tăng nằm ở trung tâm của sự thành lập của Anthropic vào năm 2021. Amodei trước đây là phó chủ tịch nghiên cứu tại OpenAI của Sam Altman. Ông rời khỏi công ty vì bất đồng quan điểm về các vấn đề an toàn AI. (Cho đến nay, nỗ lực cạnh tranh của Amodei với Altman dường như đã hiệu quả: Anthropic tháng này cho biết công ty hiện được định giá 380 tỷ đô la. Trong khi đó, OpenAI ước tính trị giá khoảng 500 tỷ đô la.)

“Trong OpenAI, có một nhóm chúng tôi, sau khi tạo ra GPT-2 và GPT-3, đã có niềm tin rất mạnh vào hai điều,” Amodei nói với Fortune năm 2023. “Một là ý tưởng rằng nếu bạn đầu tư nhiều hơn vào các mô hình này, chúng sẽ ngày càng tốt hơn và gần như không có giới hạn… Và thứ hai là ý tưởng rằng ngoài việc mở rộng các mô hình, bạn cần có thứ gì đó bổ sung, đó là sự phù hợp hoặc an toàn.”

Nỗ lực minh bạch của Anthropic

Khi Anthropic tiếp tục mở rộng đầu tư vào trung tâm dữ liệu, công ty đã công bố một số nỗ lực trong việc giải quyết các thiếu sót và mối đe dọa của AI. Trong báo cáo an toàn tháng 5 năm 2025, Anthropic cho biết một số phiên bản của mô hình Opus của họ đã đe dọa tống tiền, chẳng hạn như tiết lộ rằng một kỹ sư đang ngoại tình, để tránh bị tắt hoạt động. Công ty cũng nói rằng mô hình AI đã tuân thủ các yêu cầu nguy hiểm nếu được đưa ra các yêu cầu có hại như cách lên kế hoạch cho một cuộc tấn công khủng bố, và họ đã khắc phục điều này kể từ đó.

Tháng 11 năm ngoái, công ty cho biết trong một bài đăng trên blog rằng chatbot Claude của họ đạt điểm 94% về tính trung lập chính trị, vượt trội hoặc ngang bằng các đối thủ về tính trung lập.

Ngoài các nỗ lực nghiên cứu của chính Anthropic để chống lại sự biến dạng của công nghệ, Amodei đã kêu gọi các nỗ lực lập pháp lớn hơn để giải quyết các rủi ro của AI. Trong một bài op-ed trên New York Times tháng 6 năm 2025, ông chỉ trích quyết định của Thượng viện khi đưa vào dự luật chính sách của Tổng thống Donald Trump một điều khoản sẽ tạm dừng quy định AI của các bang trong 10 năm.

“AI đang tiến bộ quá nhanh đến chóng mặt,” Amodei nói. “Tôi tin rằng các hệ thống này có thể thay đổi thế giới một cách căn bản trong vòng hai năm; còn trong 10 năm, mọi thứ đều có thể xảy ra.”

Phê phán về Anthropic

Thực hành của Anthropic trong việc tự nhận diện các sai sót và nỗ lực khắc phục đã gây ra nhiều chỉ trích. Phản ứng trước cảnh báo về cuộc tấn công mạng dựa trên AI của Anthropic, nhà khoa học AI trưởng của Meta lúc đó, Yann LeCun, nói rằng cảnh báo này là một cách để thao túng các nhà lập pháp nhằm hạn chế sử dụng các mô hình mã nguồn mở.

“Các bạn đang bị những người muốn kiểm soát quy định chơi đùa,” LeCun nói trong một bài đăng trên X phản hồi bài đăng của Thượng nghị sĩ Connecticut Chris Murphy bày tỏ lo ngại về vụ tấn công. “Họ đang làm mọi người sợ hãi bằng các nghiên cứu mập mờ để các mô hình mã nguồn mở bị quy định ra khỏi đời sống.”

Một số người khác cho rằng chiến lược của Anthropic là “kịch bản an toàn” chỉ mang tính hình thức, mang lại hình ảnh tốt nhưng không hứa hẹn thực sự thực thi các biện pháp bảo vệ công nghệ.

Ngay cả một số nhân viên của Anthropic cũng dường như có nghi ngờ về khả năng tự điều chỉnh của một công ty công nghệ. Đầu tuần trước, nhà nghiên cứu an toàn AI của Anthropic, Mrinank Sharma, tuyên bố đã từ chức, nói rằng “Thế giới đang gặp nguy hiểm.”

“Trong suốt thời gian làm việc ở đây, tôi đã nhiều lần thấy khó khăn để thực sự để các giá trị của chúng ta chi phối hành động của mình,” Sharma viết trong thư từ chức. “Tôi đã thấy điều này trong chính bản thân mình, trong tổ chức, nơi chúng ta liên tục phải đối mặt với áp lực bỏ qua những điều quan trọng nhất, và trong xã hội rộng lớn hơn nữa.”

Anthropic ngay lập tức không phản hồi yêu cầu bình luận của Fortune.

Amodei phủ nhận với Cooper rằng Anthropic đang tham gia vào “kịch bản an toàn,” nhưng thừa nhận trong một tập của Dwarkesh Podcast tuần trước rằng công ty đôi khi gặp khó khăn trong việc cân bằng giữa an toàn và lợi nhuận.

“Chúng tôi đang chịu áp lực thương mại rất lớn và còn làm khó chính mình hơn nữa vì chúng tôi có tất cả các hoạt động an toàn này mà tôi nghĩ chúng tôi làm nhiều hơn các công ty khác,” ông nói.

Một phiên bản của bài viết này đã được đăng trên Fortune.com ngày 17 tháng 11 năm 2025.

Thêm về quy định AI:

  • Bài luận dài 20.000 từ của CEO Anthropic Dario Amodei về cách AI ‘sẽ thử thách’ nhân loại là bài đọc bắt buộc—nhưng chủ yếu dành cho các giải pháp của ông hơn là các cảnh báo

  • Các quy định về AI rải rác của Mỹ đang đè nặng các startup và giúp Trung Quốc

  • AI có thể gây ra sụp đổ thị trường việc làm toàn cầu vào năm 2027 nếu không được kiểm soát, cựu nhà đạo đức học của Google cảnh báo

**Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc của Fortune **ngày 19–20 tháng 5 năm 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã đến—và quy tắc cũ đang được viết lại. Tại sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim