Chợt nhận ra rằng cả Anthropic lẫn OpenAI đã điều chỉnh lời hứa về an toàn của họ khá rõ ràng. Ở Anthropic, một lời hứa trung tâm trong hướng dẫn về phát triển có trách nhiệm đã bị bỏ qua — cụ thể: cam kết tạm dừng đào tạo AI nếu các biện pháp giảm rủi ro không đủ. Jared Kaplan, Giám đốc Khoa học của Anthropic, lý giải điều này dựa trên thực tế của thị trường cạnh tranh cao. Một đợt tạm dừng đơn phương thì không khả thi dưới áp lực cạnh tranh.



Tương tự ở OpenAI: Sứ mệnh đã được diễn đạt lại và từ 'an toàn' đã bị loại bỏ. Thay vào đó, trọng tâm hiện nay là AI phải mang lại lợi ích cho nhân loại. Điều này tất nhiên phù hợp với kỳ vọng của các nhà đầu tư và chính trị gia, nhưng cũng cho thấy các công ty này giờ đây nghĩ một cách thực dụng hơn.

Thời điểm này thật thú vị: Anthropic đang hoàn tất một vòng gọi vốn trị giá 30 tỷ đô la và được định giá 380 tỷ. OpenAI hướng tới mức 100 tỷ, với sự hỗ trợ của Amazon, Microsoft và Nvidia. Rõ ràng lý do tại sao các tuyên bố về an toàn như vậy lại bị bỏ qua — áp lực là rất lớn.

Một điểm nữa: Anthropic đã từ chối Pentagon quyền truy cập đầy đủ vào Claude, điều này đã gây ra căng thẳng với Bộ trưởng Quốc phòng Mỹ Pete Hegseth. Điều này đặt ra câu hỏi về các hợp đồng quốc phòng và cho thấy rằng các mối lo ngại về an toàn và thực tế địa chính trị đôi khi mâu thuẫn nhau. Thật thú vị khi quan sát cách ngành này đang tự định nghĩa lại chính mình.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim