Toàn văn tại đây! Zhang Hongjiang nói chuyện với OpenAI Altman: AGI sẽ thay đổi căn bản nền văn minh và sẽ sớm không có GPT-5

Nguồn: Tin tức Phố Wall

Tác giả: Cát Gia Minh

Vào ngày 10 tháng 6, người sáng lập OpenAI Sam Altman đã xuất hiện tại Hội nghị trí tuệ nhân tạo Zhiyuan năm 2023 được tổ chức tại Bắc Kinh, Trung Quốc thông qua liên kết video.Đây là lần đầu tiên Altman có bài phát biểu trước khán giả Trung Quốc.

Trong bài phát biểu của mình, Altman đã trích dẫn "Đạo đức kinh" và nói về sự hợp tác giữa các nước lớn, nói rằng an ninh AI bắt đầu từ một bước duy nhất, và sự hợp tác và phối hợp giữa các quốc gia phải được thực hiện.

Sau đó, Altman chấp nhận hỏi đáp trực tiếp với Zhang Hongjiang, chủ tịch Viện nghiên cứu Zhiyuan.

Tiến sĩ Zhang Hongjiang hiện là chủ tịch của Viện Nghiên cứu Trí tuệ Nhân tạo Zhiyuan Bắc Kinh, đồng thời cũng là giám đốc và nhà tư vấn độc lập cho một số công ty. Ông từng là giám đốc điều hành kiêm CEO của Kingsoft Group và CEO của Kingsoft Cloud, là một trong những người sáng lập ra Viện Nghiên cứu Microsoft Châu Á (Microsoft Asia Research Institute) (Trưởng khoa) và "Nhà khoa học lỗi lạc" của Microsoft.

Trước khi gia nhập Microsoft, Zhang Hongjiang là quản lý của Hewlett-Packard Labs tại Thung lũng Silicon, Hoa Kỳ, trước đó, ông cũng làm việc tại Viện Khoa học Hệ thống, Đại học Quốc gia Singapore. Nội dung cốt lõi của bài phát biểu của Altman:

  1. Lý do tại sao cuộc cách mạng AI hiện nay có tác động mạnh mẽ không chỉ là quy mô tác động mà còn là tốc độ tiến triển của nó. Điều này mang lại cả cổ tức và rủi ro.
  2. Với sự ra đời của các hệ thống AI ngày càng mạnh mẽ, tầm quan trọng của hợp tác toàn cầu chưa bao giờ lớn hơn thế. Trong một số sự kiện quan trọng, các nước phải hợp tác và phối hợp. Nâng cao sự an toàn của AGI là một trong những lĩnh vực quan trọng nhất mà chúng ta cần tìm ra những lợi ích chung.
  3. Sự liên kết vẫn là một vấn đề chưa được giải quyết. GPT-4 đã mất tám tháng để thực hiện việc căn chỉnh. Tuy nhiên, nghiên cứu liên quan vẫn đang được nâng cấp, chủ yếu được chia thành hai khía cạnh: khả năng mở rộng và khả năng diễn giải.

Nội dung chính của phiên chất vấn và trả lời:

  1. Con người sẽ có một hệ thống trí tuệ nhân tạo (AI) mạnh mẽ trong vòng mười năm nữa.
  2. OpenAI không có thời gian biểu nguồn mở mới phù hợp Mô hình nguồn mở có những ưu điểm, nhưng nguồn mở có thể không phải là con đường tốt nhất (để thúc đẩy sự phát triển của AI).
  3. Mạng lưới thần kinh dễ hiểu hơn nhiều so với bộ não con người.
  4. Tại một thời điểm nào đó, sẽ cố gắng tạo một mẫu GPT-5, nhưng sẽ không sớm. Tôi không biết khi nào GPT-5 cụ thể sẽ xuất hiện.
  5. Bảo mật AI cần có sự tham gia và đóng góp của các nhà nghiên cứu Trung Quốc.

Lưu ý: "Sự liên kết của AI" là vấn đề quan trọng nhất trong các vấn đề kiểm soát AI, tức là mục tiêu của hệ thống AI được yêu cầu phải phù hợp (nhất quán) với các giá trị và lợi ích của con người.

Nội dung bài phát biểu của Sam Altman:

Với sự ra đời của các hệ thống trí tuệ nhân tạo ngày càng mạnh mẽ, rủi ro cho sự hợp tác toàn cầu chưa bao giờ cao hơn thế.

Nếu chúng ta không cẩn thận, một hệ thống AI được thiết kế để cải thiện kết quả sức khỏe cộng đồng bị đặt sai vị trí có thể phá vỡ toàn bộ hệ thống chăm sóc sức khỏe bằng cách đưa ra các khuyến nghị vô căn cứ. Tương tự như vậy, các hệ thống AI được thiết kế để tối ưu hóa sản xuất nông nghiệp có thể vô tình làm cạn kiệt tài nguyên thiên nhiên hoặc hủy hoại hệ sinh thái do thiếu cân nhắc đến tính bền vững lâu dài, ảnh hưởng đến sản xuất lương thực, cân bằng môi trường.

Tôi hy vọng tất cả chúng ta có thể đồng ý rằng nâng cao an toàn AGI là một trong những lĩnh vực quan trọng nhất mà chúng ta cần làm việc cùng nhau và tìm ra điểm chung.

Phần còn lại của bài trình bày của tôi sẽ tập trung vào nơi chúng ta có thể bắt đầu: 1. Lĩnh vực đầu tiên là quản trị AGI, AGI về cơ bản đã trở thành một lực lượng mạnh mẽ để thay đổi nền văn minh của chúng ta, nhấn mạnh sự cần thiết của sự hợp tác và phối hợp quốc tế có ý nghĩa. Mọi người đều được hưởng lợi từ cách tiếp cận quản trị hợp tác. Nếu chúng ta điều hướng con đường này một cách an toàn và có trách nhiệm, các hệ thống AgI có thể tạo ra sự thịnh vượng kinh tế chưa từng có cho nền kinh tế toàn cầu, giải quyết các thách thức chung như biến đổi khí hậu và an ninh y tế toàn cầu, đồng thời nâng cao phúc lợi xã hội.

Tôi cũng tin tưởng sâu sắc vào tương lai. Chúng ta cần đầu tư vào sự an toàn của AGI để đến được nơi chúng ta muốn và tận hưởng điều đó ở đó.

Để làm được điều này chúng ta cần có sự phối hợp cẩn thận. Đây là một công nghệ toàn cầu với phạm vi toàn cầu. Chi phí cho các tai nạn do phát triển và triển khai thiếu thận trọng sẽ ảnh hưởng đến tất cả chúng ta.

Trong hợp tác quốc tế, tôi cho rằng có hai lĩnh vực then chốt là quan trọng nhất.

Trước hết chúng ta cần thiết lập các quy tắc và tiêu chuẩn quốc tế, đồng thời chú ý đến tính toàn diện trong quy trình. Việc sử dụng các hệ thống AGI ở bất kỳ quốc gia nào cũng phải tuân theo các tiêu chuẩn và quy tắc quốc tế như vậy một cách bình đẳng và nhất quán. Trong những hàng rào an toàn này, chúng tôi tin rằng mọi người có nhiều cơ hội để đưa ra lựa chọn của riêng mình.

Thứ hai, chúng ta thực sự cần sự hợp tác quốc tế để xây dựng niềm tin quốc tế một cách có thể kiểm chứng về sự phát triển an toàn của các hệ thống AI ngày càng mạnh mẽ. Tôi không ảo tưởng rằng đây là một nhiệm vụ dễ dàng đòi hỏi rất nhiều sự chú ý tận tâm và lâu dài. **

Đạo Đức Kinh nói với chúng ta: Một cuộc hành trình ngàn dặm bắt đầu bằng một bước duy nhất. Chúng tôi tin rằng bước đầu tiên mang tính xây dựng nhất về vấn đề này là hợp tác với cộng đồng khoa học và công nghệ quốc tế.

Điều cần nhấn mạnh là chúng ta cần tăng cường cơ chế minh bạch và chia sẻ tri thức trong việc thúc đẩy tiến bộ công nghệ. Khi nói đến vấn đề an toàn AGI, các nhà nghiên cứu phát hiện ra các vấn đề an toàn mới nổi nên chia sẻ những hiểu biết của họ vì lợi ích lớn hơn.

Chúng ta cần suy nghĩ kỹ về cách chúng ta có thể tôn trọng và bảo vệ tài sản trí tuệ đồng thời khuyến khích quy tắc này. Nếu chúng ta làm được điều này, thì nó sẽ mở ra những cánh cửa mới để chúng ta tăng cường hợp tác sâu sắc hơn.

Nói rộng hơn, chúng ta nên đầu tư vào việc thúc đẩy và hướng dẫn nghiên cứu về sự liên kết và an toàn của AI.

Tại Open AI, nghiên cứu của chúng tôi hôm nay tập trung vào các vấn đề kỹ thuật cho phép AI đóng vai trò hữu ích và an toàn hơn trong các hệ thống hiện tại của chúng tôi. Điều này cũng có thể có nghĩa là chúng tôi đào tạo ChatGPT theo cách mà ChatGPT không tạo ra các mối đe dọa bạo lực hoặc hỗ trợ người dùng trong các hoạt động có hại.

Nhưng khi chúng ta tiến gần hơn đến thời đại của AGI, tác động tiềm ẩn và quy mô tác động của các hệ thống AI không được phân bổ sẽ tăng theo cấp số nhân. Chủ động giải quyết những thách thức này hiện nay sẽ giảm thiểu rủi ro dẫn đến hậu quả thảm khốc trong tương lai.

Đối với hệ thống hiện tại, chúng tôi chủ yếu sử dụng phương pháp học tăng cường với phản hồi của con người để huấn luyện mô hình của mình trở thành một trợ lý bảo mật hữu ích. Đây chỉ là một ví dụ về các kỹ thuật điều chỉnh sau đào tạo khác nhau. Và chúng tôi cũng đang nỗ lực nghiên cứu các công nghệ mới, đòi hỏi rất nhiều công việc kỹ thuật khó khăn.

Từ khi GPT4 kết thúc quá trình đào tạo trước cho đến khi triển khai, chúng tôi dành 8 tháng cho công việc điều chỉnh. Nhìn chung, chúng tôi nghĩ rằng chúng tôi đang làm tốt công việc ở đây. GPT4 phù hợp với con người hơn bất kỳ mô hình nào trước đây của chúng tôi.

Tuy nhiên, sự liên kết vẫn là một vấn đề mở đối với các hệ thống tiên tiến hơn, mà chúng tôi cho rằng cần có các phương pháp kỹ thuật mới với khả năng quản trị và giám sát nâng cao.

Đối với các hệ thống AGI trong tương lai, nó đề xuất 100.000 dòng mã nhị phân. Những người giám sát con người khó có thể phát hiện ra liệu một mô hình như vậy có đang làm điều gì đó bất chính hay không. Vì vậy, chúng tôi đang đầu tư vào một số hướng nghiên cứu mới, bổ sung mà chúng tôi hy vọng sẽ dẫn đến những bước đột phá.

** **Một là giám sát có thể mở rộng. Chúng ta có thể thử sử dụng các hệ thống AI để hỗ trợ con người giám sát các hệ thống AI khác. Ví dụ: chúng ta có thể đào tạo một mô hình để giúp giám sát con người tìm ra các sai sót trong đầu ra của các mô hình khác. ** Thứ hai là khả năng diễn giải. Chúng tôi muốn cố gắng hiểu rõ hơn những gì đang diễn ra bên trong những mô hình này. Gần đây, chúng tôi đã xuất bản một bài báo sử dụng GPT-4 để diễn giải các nơ-ron trong GPT-2. **Trong một bài báo khác, chúng tôi sử dụng Model Internals để phát hiện khi một mô hình nói dối. **Chúng ta vẫn còn một chặng đường dài để đi. Chúng tôi tin rằng các kỹ thuật học máy tiên tiến có thể cải thiện hơn nữa khả năng giải thích của chúng tôi.

Cuối cùng, mục tiêu của chúng tôi là đào tạo các hệ thống AI để hỗ trợ các nghiên cứu về sự liên kết. **Cái hay của phương pháp này là nó có thể mở rộng theo tốc độ phát triển của AI.

Gặt hái những lợi ích đặc biệt của AGI trong khi giảm thiểu rủi ro là một trong những thách thức quan trọng của thời đại chúng ta. Chúng tôi thấy tiềm năng to lớn cho các nhà nghiên cứu ở Trung Quốc, Hoa Kỳ và trên toàn thế giới để cùng nhau hướng tới một mục tiêu và làm việc chăm chỉ để giải quyết các thách thức kỹ thuật do sự liên kết AGI đặt ra.

Nếu làm được điều này, tôi tin rằng chúng ta sẽ có thể sử dụng AGI để giải quyết những vấn đề quan trọng nhất của thế giới và cải thiện đáng kể chất lượng cuộc sống của con người. Cảm ơn bạn rất nhiều.

Sau đây là nội dung cuộc trò chuyện:

Trong mười năm tới chúng ta sẽ có một hệ thống AI rất mạnh

Zhang Hongjiang, Chủ tịch Viện nghiên cứu Zhiyuan, đã hỏi: ** Chúng ta còn cách trí tuệ nhân tạo chung (AGI) bao xa? Là rủi ro khẩn cấp, hay chúng ta còn xa nó? **

Sam Altman: Thật khó để ước tính khi nào. **Rất có khả năng chúng ta sẽ có các hệ thống AI rất mạnh trong mười năm tới và các công nghệ mới sẽ thay đổi thế giới về cơ bản nhanh hơn chúng ta nghĩ. **Trong thế giới đó, tôi nghĩ điều quan trọng và cấp bách là phải làm đúng điều này (các quy tắc an toàn cho AI), đó là lý do tại sao tôi kêu gọi cộng đồng quốc tế cùng hợp tác.

Theo một nghĩa nào đó, tốc độ tăng tốc và tác động mang tính hệ thống của các công nghệ mới mà chúng ta đang thấy hiện nay là chưa từng có. Vì vậy, tôi nghĩ rằng đó là việc chuẩn bị cho những gì sắp tới và nhận thức được những lo ngại về an toàn. Với quy mô tuyệt đối của AI, cổ phần là rất đáng kể.

Theo ông, trong lĩnh vực bảo mật AGI, đâu là lợi thế của các quốc gia khác nhau để giải quyết vấn đề này, đặc biệt là giải quyết vấn đề an toàn AI. Làm thế nào những điểm mạnh này có thể được kết hợp?

Hợp tác toàn cầu để đề xuất các tiêu chuẩn và khuôn khổ an toàn cho AI

Zhang Hongjiang: Bạn đã đề cập nhiều lần trong phần giới thiệu trước đó rằng hợp tác toàn cầu đang được tiến hành. Chúng ta biết rằng thế giới đã phải đối mặt với những cuộc khủng hoảng đáng kể trong quá khứ. Bằng cách nào đó, đối với nhiều người trong số họ, chúng tôi đã xây dựng được sự đồng thuận, xây dựng sự hợp tác toàn cầu. Bạn cũng đang thực hiện một chuyến lưu diễn toàn cầu, bạn đang cố gắng quảng bá hình thức hợp tác toàn cầu nào?

Sam Altman: Vâng, tôi rất hài lòng với phản ứng và câu trả lời của mọi người cho đến nay. Tôi nghĩ mọi người đang rất coi trọng những rủi ro và cơ hội của AGI.

Tôi nghĩ rằng cuộc thảo luận về bảo mật đã đi một chặng đường dài trong 6 tháng qua. Dường như có một cam kết thực sự để tìm ra một cấu trúc cho phép chúng ta tận hưởng những lợi ích này trong khi làm việc cùng nhau trên toàn cầu để giảm thiểu rủi ro. Tôi nghĩ rằng chúng tôi rất phù hợp để làm điều này. Hợp tác toàn cầu luôn khó khăn, nhưng tôi coi đó là cơ hội và cũng là mối đe dọa để gắn kết thế giới lại với nhau. Sẽ rất hữu ích nếu chúng ta có thể đưa ra một khuôn khổ và tiêu chuẩn bảo mật cho các hệ thống này.

Cách giải bài toán căn chỉnh của trí tuệ nhân tạo

Zhang Hongjiang: Bạn đã đề cập rằng sự liên kết của trí tuệ nhân tạo tiên tiến là một vấn đề chưa được giải quyết. Tôi cũng nhận thấy rằng OpenAI đã nỗ lực rất nhiều trong vài năm qua. Bạn đã đề cập rằng GPT-4 cho đến nay là ví dụ tốt nhất trong lĩnh vực căn chỉnh. Bạn có nghĩ rằng chúng ta có thể giải quyết vấn đề an toàn của AGI chỉ bằng cách tinh chỉnh (API) không? Hay nó khó khăn hơn nhiều so với cách giải quyết vấn đề này?

Sam Altman: Tôi nghĩ có nhiều cách hiểu khác nhau về từ căn chỉnh. Tôi nghĩ những gì chúng ta cần giải quyết là thách thức trong toàn bộ hệ thống trí tuệ nhân tạo. Sự liên kết theo nghĩa truyền thống - làm cho hành vi của mô hình phù hợp với ý định của người dùng chắc chắn là một phần của nó.

Nhưng cũng sẽ có những vấn đề khác, chẳng hạn như cách chúng tôi xác minh hệ thống đang làm gì, chúng tôi muốn chúng làm gì và cách chúng tôi điều chỉnh giá trị của hệ thống. Điều quan trọng nhất là phải nhìn thấy bức tranh toàn cảnh về an toàn của AGI.

Mọi thứ khác đều khó nếu không có giải pháp kỹ thuật. Tôi nghĩ điều thực sự quan trọng là tập trung vào việc đảm bảo rằng chúng tôi giải quyết các khía cạnh kỹ thuật của bảo mật. Như tôi đã đề cập, tìm ra giá trị của chúng tôi không phải là một câu hỏi kỹ thuật. Mặc dù nó đòi hỏi đầu vào kỹ thuật, nhưng đây là một vấn đề đáng được thảo luận sâu rộng bởi toàn xã hội. Chúng ta phải thiết kế các hệ thống công bằng, đại diện và toàn diện.

Zhang Hongjiang: Đối với sự liên kết, những gì chúng tôi thấy GPT-4 vẫn là một giải pháp từ quan điểm kỹ thuật. Nhưng có nhiều yếu tố khác bên cạnh công nghệ, thường mang tính hệ thống. An toàn AI có thể không có ngoại lệ ở đây. Bên cạnh các khía cạnh kỹ thuật, các yếu tố và vấn đề khác là gì? Bạn có nghĩ rằng nó rất quan trọng đối với sự an toàn của AI không? Chúng ta nên ứng phó với những thách thức này như thế nào? Đặc biệt là vì hầu hết chúng ta đều là nhà khoa học. Chúng ta nên làm gì.

Sam Altman: Đây chắc chắn là một câu hỏi rất phức tạp. Nhưng mọi thứ khác đều khó khăn nếu không có giải pháp kỹ thuật. Tôi nghĩ rằng điều thực sự quan trọng đối với chính phủ là tập trung vào việc đảm bảo rằng chúng tôi giải quyết các khía cạnh kỹ thuật của an ninh. **Như tôi đã đề cập, việc tìm ra giá trị của chúng ta là gì không phải là một câu hỏi kỹ thuật. Nó đòi hỏi đầu vào kỹ thuật, nhưng nó cũng là một vấn đề đáng được thảo luận sâu rộng bởi toàn xã hội. **Chúng ta phải thiết kế các hệ thống công bằng, đại diện và toàn diện. **

Và, như bạn đã chỉ ra, chúng ta cần nghĩ đến sự an toàn của không chỉ bản thân mô hình AI kéo mà còn của toàn bộ hệ thống.

Do đó, điều quan trọng là có thể xây dựng các trình phân loại và trình phát hiện an toàn chạy trên các hệ thống giám sát AI về việc tuân thủ các chính sách sử dụng. Tôi nghĩ rằng rất khó để dự đoán trước tất cả các vấn đề sẽ phát sinh với bất kỳ công nghệ nào. Vì vậy, hãy học hỏi từ việc sử dụng trong thế giới thực và triển khai nó lặp đi lặp lại để xem điều gì sẽ xảy ra khi bạn thực sự tạo ra thực tế và cải thiện nó.

Điều quan trọng nữa là dành thời gian cho con người và xã hội học hỏi và cập nhật, đồng thời suy nghĩ về cách những mô hình này sẽ tương tác với cuộc sống của họ theo cả cách tốt và xấu.

Cần sự hợp tác của tất cả các nước

Zhang Hongjiang: Trước đó, bạn đã đề cập đến hợp tác toàn cầu. Bạn đã đi du lịch vòng quanh thế giới. Trung Quốc, Hoa Kỳ và Châu Âu là động lực thúc đẩy sự đổi mới của trí tuệ nhân tạo. Theo bạn, trong AGI, các quốc gia khác nhau có lợi thế gì để giải quyết vấn đề AGI, đặc biệt là giải quyết vấn đề an toàn của con người? Làm thế nào những điểm mạnh này có thể được kết hợp?

Sam Altman: Tôi nghĩ rằng nhìn chung cần có nhiều quan điểm khác nhau và sự an toàn của AI. Chúng tôi chưa có tất cả các câu trả lời và đây là một câu hỏi khá khó và quan trọng.

Ngoài ra, như đã đề cập, việc làm cho AI trở nên an toàn và có lợi không phải là một câu hỏi thuần túy kỹ thuật. Liên quan đến việc hiểu sở thích của người dùng ở các quốc gia khác nhau trong các bối cảnh rất khác nhau. Chúng tôi cần rất nhiều đầu vào khác nhau để thực hiện điều này. Trung Quốc có một số tài năng AI tốt nhất trên thế giới. Về cơ bản, tôi nghĩ rằng cần có những bộ óc tốt nhất từ khắp nơi trên thế giới để giải quyết khó khăn trong việc điều chỉnh các hệ thống AI tiên tiến. Vì vậy, tôi thực sự hy vọng rằng các nhà nghiên cứu AI của Trung Quốc có thể có những đóng góp to lớn ở đây.

Yêu cầu một kiến trúc rất khác để giúp AGI an toàn hơn

Zhang Hongjiang: Các câu hỏi tiếp theo về sự an toàn của GPT-4 và AI. Có thể là chúng ta cần thay đổi toàn bộ cơ sở hạ tầng hoặc toàn bộ kiến trúc của mô hình AGI. Để làm cho nó an toàn hơn và dễ dàng hơn để được kiểm tra.

Sam Altman: Hoàn toàn có khả năng là chúng ta cần một số kiến trúc rất khác, cả từ góc độ chức năng lẫn góc độ bảo mật.

Tôi nghĩ rằng chúng tôi sẽ có thể đạt được một số tiến bộ, tiến bộ tốt trong việc giải thích khả năng của các mô hình khác nhau của chúng tôi ngay bây giờ và khiến họ giải thích rõ hơn cho chúng tôi về những gì họ đang làm và tại sao. Nhưng vâng, tôi sẽ không ngạc nhiên nếu có một bước nhảy vọt khác sau Transformer. Chúng tôi đã thay đổi rất nhiều kiến trúc kể từ Transformer ban đầu.

Khả năng của mã nguồn mở OpenAI

Zhang Hongjiang: Tôi hiểu rằng diễn đàn hôm nay là về an toàn AI, bởi vì mọi người rất tò mò về OpenAI, vì vậy tôi có rất nhiều câu hỏi về OpenAI, không chỉ về an toàn AI. Tôi có một câu hỏi dành cho khán giả ở đây, đó là OpenAI có kế hoạch nào để mở lại nguồn các mô hình của nó giống như trước phiên bản 3.0 không? Tôi cũng nghĩ nguồn mở tốt cho sự an toàn của AI.

Sam Altman: Một số mô hình của chúng tôi là nguồn mở và một số thì không, nhưng khi thời gian trôi qua, tôi nghĩ bạn nên kỳ vọng chúng tôi sẽ tiếp tục mở nhiều mô hình hơn nữa trong tương lai. Tôi không có một mô hình hoặc dòng thời gian cụ thể, nhưng đó là điều mà chúng tôi đang thảo luận ngay bây giờ.

Zhang Hongjiang: BAAI nỗ lực hết sức để trở thành nguồn mở, bao gồm cả các mô hình và thuật toán. Chúng tôi tin rằng chúng tôi có nhu cầu này, chia sẻ và cho đi mà bạn coi là người mà họ đang kiểm soát. Bạn có những ý tưởng tương tự hay những chủ đề này đã được thảo luận giữa các đồng nghiệp hoặc đồng nghiệp của bạn tại OpenAI.

Sam Altman: Vâng, **Tôi nghĩ nguồn mở theo một cách nào đó có một vai trò quan trọng. **

Gần đây cũng có rất nhiều mô hình mã nguồn mở mới xuất hiện. Tôi nghĩ rằng mô hình API cũng có một vai trò quan trọng. Nó cung cấp cho chúng tôi các biện pháp kiểm soát bảo mật bổ sung. Bạn có thể chặn một số mục đích sử dụng. Bạn có thể chặn một số loại chỉnh sửa. Nếu một cái gì đó không hoạt động, bạn có thể lấy lại. Ở quy mô của mô hình hiện tại, tôi không quá lo lắng về điều đó. Nhưng khi mô hình này trở nên mạnh mẽ như chúng ta mong đợi, nếu chúng ta đúng về nó, tôi nghĩ nguồn mở mọi thứ có thể không phải là con đường tốt nhất, mặc dù đôi khi nó đúng. ** Tôi nghĩ rằng chúng ta phải cân bằng nó một cách cẩn thận. **

Chúng ta sẽ có nhiều mô hình mã nguồn mở lớn hơn trong tương lai, nhưng chưa có mô hình và thời gian biểu cụ thể.

Bước tiếp theo cho AGI? Chúng ta sẽ sớm thấy GPT-5 chứ?

Zhang Hongjiang: Là một nhà nghiên cứu, tôi cũng rất tò mò, hướng nghiên cứu AGI tiếp theo là gì? Về mô hình lớn, mô hình ngôn ngữ lớn, chúng ta sẽ sớm thấy GPT-5? Là biên giới tiếp theo trong các mô hình hiện thân? Người máy tự động có phải là một lĩnh vực mà OpenAI đang hoặc có kế hoạch khám phá không?

Sam Altman: Tôi cũng tò mò về điều gì sẽ xảy ra tiếp theo, và một trong những điều yêu thích của tôi khi làm công việc này là có rất nhiều hứng thú và ngạc nhiên ở khía cạnh tiên tiến của nghiên cứu. Chúng tôi chưa có câu trả lời, vì vậy chúng tôi đang khám phá nhiều mô hình mới khả thi. Tất nhiên, tại một thời điểm nào đó, chúng tôi sẽ cố gắng thực hiện mô hình GPT-5, nhưng sẽ không sớm. Chúng tôi không biết chính xác khi nào. Chúng tôi đã nghiên cứu về người máy kể từ khi OpenAI bắt đầu và chúng tôi rất quan tâm đến nó, nhưng chúng tôi đã gặp một số khó khăn. Tôi hy vọng một ngày nào đó chúng ta có thể quay trở lại lĩnh vực này.

Trương Hồng Giang: Nghe hay đấy. Bạn cũng đã đề cập trong phần trình bày của mình cách bạn sử dụng GPT-4 để giải thích cách thức hoạt động của GPT-2, giúp mô hình trở nên an toàn hơn. Phương pháp này có thể mở rộng được không? Đây có phải là hướng OpenAI sẽ tiếp tục phát triển trong tương lai?

Sam Altman: Chúng tôi sẽ tiếp tục thúc đẩy theo hướng này.

Zhang Hongjiang: Bạn có nghĩ rằng phương pháp này có thể được áp dụng cho tế bào thần kinh sinh học? Sở dĩ tôi đặt câu hỏi này là vì có một số nhà sinh vật học và thần kinh học muốn mượn phương pháp này để nghiên cứu và khám phá cách thức hoạt động của tế bào thần kinh con người trong lĩnh vực của họ.

Sam Altman: Việc quan sát những gì đang diễn ra trên tế bào thần kinh nhân tạo dễ dàng hơn nhiều so với tế bào thần kinh sinh học. ** Vì vậy, tôi nghĩ rằng phương pháp này hợp lệ cho các mạng thần kinh nhân tạo. **Tôi nghĩ rằng có một cách sử dụng các mô hình hiệu quả hơn để giúp chúng ta hiểu các mô hình khác. Nhưng tôi không chắc bạn sẽ áp dụng phương pháp này như thế nào đối với bộ não con người.

Kiểm soát số lượng mô hình có khả thi không

Zhang Hongjiang: OK, cảm ơn bạn. Bây giờ chúng ta đã nói về sự an toàn của AI và kiểm soát AGI, một trong những câu hỏi mà chúng ta đang thảo luận là liệu sẽ an toàn hơn nếu chỉ có ba mô hình trên thế giới? Nó giống như kiểm soát hạt nhân, bạn không muốn vũ khí hạt nhân phổ biến. Chúng tôi có hiệp ước này, nơi chúng tôi cố gắng kiểm soát số lượng quốc gia có thể có được công nghệ này. Vậy khống chế số lượng người mẫu có phải là hướng đi khả thi?

Sam Altman: Tôi nghĩ rằng có nhiều ý kiến khác nhau về việc liệu mô hình thiểu số hay mô hình đa số sẽ an toàn hơn trên thế giới. Tôi nghĩ điều quan trọng hơn là chúng ta có một hệ thống mà bất kỳ mô hình mạnh mẽ nào cũng được kiểm tra đầy đủ về độ an toàn không? Chúng ta có một khuôn khổ trong đó bất kỳ ai tạo ra một mô hình đủ mạnh đều có cả tài nguyên và trách nhiệm để đảm bảo rằng những gì họ tạo ra là an toàn và phù hợp không?

Zhang Hongjiang: Tại cuộc họp ngày hôm qua, Giáo sư Max của Viện Tương lai Cuộc sống MIT đã đề cập đến một phương pháp khả thi, tương tự như cách chúng ta kiểm soát sự phát triển của thuốc. Khi các nhà khoa học hoặc công ty phát triển các loại thuốc mới, bạn không thể trực tiếp tiếp thị chúng. Bạn phải trải qua quá trình thử nghiệm này. Đây có phải là một cái gì đó chúng ta có thể học hỏi từ?

Sam Altman: Tôi chắc chắn nghĩ rằng chúng ta có thể học được nhiều điều từ các khuôn khổ cấp phép và thử nghiệm đã được phát triển trong các ngành khác nhau. Nhưng tôi nghĩ về cơ bản chúng ta có thứ gì đó có thể hoạt động.

Zhang Hongjiang: Cảm ơn Sam rất nhiều. Cảm ơn bạn đã dành thời gian để tham dự cuộc họp này, mặc dù trực tuyến. Tôi chắc rằng còn nhiều câu hỏi nữa, nhưng đã đến lúc, chúng ta phải dừng lại ở đây. Tôi hy vọng rằng lần sau bạn có cơ hội đến Trung Quốc, đến Bắc Kinh, chúng ta có thể thảo luận sâu hơn. Cảm ơn rất nhiều.

Xem bản gốc
Nội dung chỉ mang tính chất tham khảo, không phải là lời chào mời hay đề nghị. Không cung cấp tư vấn về đầu tư, thuế hoặc pháp lý. Xem Tuyên bố miễn trừ trách nhiệm để biết thêm thông tin về rủi ro.
  • Phần thưởng
  • Bình luận
  • Chia sẻ
Bình luận
0/400
Không có bình luận
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate.io
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)