DeepSeek ra mắt phiên bản xem trước mã nguồn mở V4, điểm kỹ thuật 3206 vượt qua GPT-5.4

MarketWhisper

DeepSeek V4開源預覽版

DeepSeek đã chính thức ra mắt chuỗi phiên bản xem trước V4 vào ngày 24 tháng 4, phát hành mã nguồn mở theo giấy phép MIT, và trọng số mô hình đã được đồng bộ lên Hugging Face cùng ModelScope. Theo báo cáo kỹ thuật của DeepSeek V4, V4-Pro-Max (chế độ mức độ suy luận tối đa) đạt 3206 điểm trên chuẩn Codeforces, vượt GPT-5.4.

Thông số kiến trúc của hai mô hình MoE

Theo báo cáo kỹ thuật của DeepSeek V4, chuỗi V4 bao gồm hai mô hình lai (MoE):

V4-Pro: Tổng tham số 1.6T, kích hoạt 49B mỗi token, hỗ trợ ngữ cảnh 1M token

V4-Flash: Tổng tham số 284B, kích hoạt 13B mỗi token, cũng hỗ trợ ngữ cảnh 1M token

Theo báo cáo kỹ thuật, ở ngữ cảnh 1M, FLOPs suy luận cho mỗi token của V4-Pro chỉ bằng 27% của V3.2; bộ nhớ đệm KV giảm xuống còn 10% của V3.2. Điều này chủ yếu nhờ nâng cấp kiến trúc của cơ chế chú ý hỗn hợp (CSА chú ý thưa nén + HCA chú ý nén nặng). Quy mô dữ liệu tiền huấn luyện vượt quá 32T token; trình tối ưu hóa huấn luyện được cập nhật thành Muon.

Phương pháp hậu huấn luyện: chưng cất chiến lược trực tuyến thay thế học tăng cường hỗn hợp

Theo báo cáo kỹ thuật của DeepSeek V4, cập nhật cốt lõi của hậu huấn luyện V4 là thay thế hoàn toàn giai đoạn học tăng cường hỗn hợp (mixed RL) của V3.2 bằng chưng cất chiến lược trực tuyến (On-Policy Distillation, OPD). Quy trình mới được chia thành hai bước: trước hết, huấn luyện riêng các chuyên gia theo từng lĩnh vực (SFT + học tăng cường GRPO) cho các lĩnh vực như toán học, mã lệnh, Agent và tuân theo lệnh; sau đó, dùng nhiều giáo viên OPD để chưng cất năng lực của hàng chục chuyên gia vào một mô hình thống nhất, căn chỉnh bằng logit để tránh các xung đột năng lực thường gặp trong các phương pháp truyền thống.

Báo cáo đồng thời đưa vào mô hình phần thưởng sinh (Generative Reward Model, GRM), nhằm vào các tác vụ khó xác minh bằng quy tắc. Dùng dữ liệu nhãn thủ công đa dạng với số lượng ít để huấn luyện, để mô hình đồng thời đảm nhiệm chức năng sinh và đánh giá.

Kết quả kiểm tra chuẩn: dẫn đầu ở mã hóa, còn khoảng cách ở suy luận tri thức

Theo báo cáo kỹ thuật của DeepSeek V4, kết quả so sánh giữa V4-Pro-Max và Opus 4.6 Max, GPT-5.4 xHigh cùng Gemini 3.1 Pro High (không bao gồm GPT-5.5 và Opus 4.7 mới phát hành gần đây):

Codeforces: 3206 (GPT-5.4: 3168 / Gemini 3.1 Pro: 3052) → Cao nhất toàn trường

LiveCodeBench: 93.5 → Cao nhất toàn trường

SWE Verified: 80.6, thua Opus 4.6 80.8 chênh 0.2 điểm phần trăm

GPQA Diamond: 90.1, thua Gemini 3.1 Pro 94.3

SimpleQA-Verified: 57.9, thua Gemini 3.1 Pro 75.6

HLE: 37.7, thua Gemini 3.1 Pro 44.4

Báo cáo kỹ thuật cũng chỉ ra rằng các so sánh trên không bao gồm GPT-5.5 và Opus 4.7 mới phát hành gần đây; khoảng cách giữa V4 và các mô hình đóng nguồn thế hệ mới nhất cần được thẩm định bằng đánh giá của bên thứ ba.

Câu hỏi thường gặp

Điều khoản giấy phép mã nguồn mở của phiên bản xem trước DeepSeek V4 là gì, có thể lấy ở đâu?

Theo thông báo chính thức của DeepSeek ngày 24 tháng 4, chuỗi V4 phát hành mã nguồn mở theo giấy phép MIT, trọng số mô hình đã được đưa lên Hugging Face và ModelScope, áp dụng cho cả mục đích thương mại lẫn học thuật.

Sự khác nhau về quy mô tham số giữa DeepSeek V4-Pro và V4-Flash là gì?

Theo báo cáo kỹ thuật của DeepSeek V4, tổng tham số của V4-Pro là 1.6T, kích hoạt 49B mỗi token; tổng tham số của V4-Flash là 284B, kích hoạt 13B mỗi token. Cả hai đều hỗ trợ ngữ cảnh 1M token.

Kết quả so sánh chuẩn của DeepSeek V4-Pro-Max với GPT-5.4 và Gemini 3.1 Pro là gì?

Theo báo cáo kỹ thuật của DeepSeek V4, V4-Pro-Max vượt GPT-5.4 và Gemini 3.1 Pro ở hai chuẩn Codeforces (3206 điểm) và LiveCodeBench (93.5), nhưng vẫn thua Gemini 3.1 Pro ở các chuẩn thiên về tri thức (GPQA Diamond, SimpleQA-Verified, HLE); bộ so sánh không bao gồm GPT-5.5 và Opus 4.7.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.

Bài viết liên quan

Tác nhân AI giờ đã có thể độc lập tái hiện các bài báo học thuật phức tạp: Mollick cho rằng lỗi thường nằm ở phần văn bản gốc của con người chứ không phải AI

Mollick 指 ra rằng chỉ với các phương pháp công khai và dữ liệu là có thể để AI agent tái tạo lại nghiên cứu phức tạp mà không cần có bản thảo bài báo gốc và mã nguồn; nếu quá trình tái hiện không khớp với bài báo gốc thì đa phần là do lỗi xử lý dữ liệu trong chính bài báo hoặc do kết luận bị quá mức, chứ không phải do AI. Claude đầu tiên tái hiện lại bài báo, sau đó GPT‑5 Pro được dùng để xác minh chéo, đa số thành công, chỉ bị cản trở khi gặp vấn đề do dữ liệu quá lớn hoặc replication data. Xu hướng này đã làm giảm đáng kể chi phí nhân lực, khiến việc tái hiện trở thành một kiểm định phổ biến và có thể thực hiện được; đồng thời cũng nêu ra các thách thức về thể chế đối với việc phản biện và quản trị, trong đó các công cụ quản trị của chính phủ hoặc có thể trở thành một vấn đề then chốt.

ChainNewsAbmedia15phút trước

OpenAI Sáp Nhập Codex Vào Mô Hình Chính Bắt Đầu Từ GPT-5.4, Ngừng Dòng Lập Trình Riêng

Tin tức Cổng, ngày 26 tháng 4 — Giám đốc bộ phận trải nghiệm nhà phát triển của OpenAI, Romain Huet, đã tiết lộ trong một tuyên bố gần đây trên X rằng Codex, dòng mô hình lập trình chuyên biệt được công ty duy trì độc lập, đã được sáp nhập vào mô hình chính bắt đầu từ GPT-5.4 và sẽ không còn nhận các bản cập nhật riêng biệt

GateNews15phút trước

Salesforce sẽ tuyển 1.000 sinh viên mới tốt nghiệp và thực tập sinh cho các sản phẩm AI, đồng thời nâng dự báo doanh thu FY2026

Tin tức cổng, ngày 26 tháng 4 — Salesforce sẽ tuyển dụng 1.000 sinh viên mới tốt nghiệp và thực tập sinh để làm việc trên các sản phẩm AI, bao gồm Agentforce và Headless360, khi công ty mở rộng mảng phần mềm AI của mình, CEO Marc Benioff đã công bố trên X. Công ty cũng đã nâng dự báo doanh thu cho tài khóa 2026 lên trong khoảng từ US$41.45 b

GateNews17phút trước

Alibaba Cloud Ra Mắt Qwen-Image-2.0-Pro với Văn Bản Tới Ảnh và Chỉnh Sửa Hợp Nhất, Hỗ Trợ Hiển Thị Văn Bản Đa Ngôn Ngữ

Thông điệp Cổng Tin Tức ngày 26 tháng 4 — Nền tảng Bailian của Alibaba Cloud đã ra mắt Qwen-Image-2.0-Pro, phiên bản đầy đủ tính năng của dòng Qwen-Image-2.0, kết hợp tạo ảnh từ văn bản và chỉnh sửa ảnh trong cùng một mô hình. Người dùng có thể chỉnh sửa các đối tượng, văn bản và phong cách trực tiếp thông qua các lệnh ngôn ngữ tự nhiên

GateNews2giờ trước

API DeepSeek V4-Pro giảm 75% đến ngày 5 tháng 5, giá đầu ra giảm xuống còn $0.87 mỗi một triệu token

Tin tức từ Gate, ngày 26 tháng 4 — DeepSeek đã công bố giảm giá 75% trong thời gian giới hạn đối với giá API V4-Pro, có hiệu lực đến ngày 5 tháng 5 lúc 15:59 UTC. Sau khi giảm giá, giá cho mỗi một triệu token là: hit bộ nhớ cache đầu vào $0.03625

GateNews3giờ trước

Anthropic Triển khai các biện pháp bảo vệ bầu cử cho Claude trước thềm cuộc bầu cử giữa nhiệm kỳ năm 2026

Anthropic đã công bố vào thứ Sáu một loạt biện pháp nhằm bảo vệ tính toàn vẹn bầu cử, được thiết kế để ngăn chatbot AI Claude của hãng bị biến thành công cụ vũ khí nhằm lan truyền thông tin sai lệch hoặc thao túng cử tri trước thềm cuộc bầu cử giữa kỳ năm 2026 tại Mỹ và các cuộc tranh cử lớn khác trên khắp thế giới trong năm nay. Trụ sở tại San Francisco-based

CryptoFrontier8giờ trước
Bình luận
0/400
Không có bình luận