DeepSeek V4 ra mắt ấn tượng: Mười nguyên lý đầu tiên trong cuộc đấu với đối thủ

Chiều ba giờ rưỡi, mặt trời trên đại lộ California đã bắt đầu nghiêng về phía Stanford. Con chó trước cửa Zombie Café lại nằm sấp dưới chiếc ghế trắng đó. Trên bàn trải ra ba bản in: bản phát hành Opus 4.7 của Anthropic ngày 16 tháng 4, bản ghi chép từng lời của buổi ra mắt GPT-5.5 của OpenAI ngày 23 tháng 4 với Greg Brockman, và báo cáo kỹ thuật DeepSeek V4 mới ra sáng nay, mực còn chưa khô.

Trong tám ngày, ba công ty đã đưa tất cả các chiến lược cho quý II năm 2026 ra bàn.

Trước khi uống hết cà phê, Alan Walker của Silicon Valley đã làm rõ chuyện này. Không khoe benchmark, không nói mô hình nào “cảm giác tốt hơn”, không viết bài PR. Chỉ từ nguyên lý đầu tiên phân tích—kỹ thuật, chip, giá cả, đối tượng, chiến lược, hệ sinh thái—ba công ty cuối cùng đứng ở đâu trong năm 2026, ai đang dẫn đầu, ai đang phòng thủ, ai đang xáo trộn bàn.

01 Mở nguồn vs Đóng nguồn—cuộc chiến căn bản về chiến lược

DeepSeek lần này đồng bộ mở hai mô hình V4-Pro và V4-Flash, giấy phép MIT tiêu chuẩn, trọng số trực tiếp lên Hugging Face, ai cũng có thể tải xuống, tinh chỉnh, thương mại hóa. Claude Opus 4.7 và GPT-5.5 là hoàn toàn đóng nguồn—chỉ cung cấp API, trọng số mô hình bạn cả đời cũng không chạm tới.

Nhiều người nghĩ đây là cuộc chiến về mô hình kinh doanh. Sai. Đây là cuộc chiến về cấu trúc niềm tin.

Lợi thế của đóng nguồn gọi là “chỉ có thể đến chỗ tôi”—kéo người dùng vào cửa hàng của tôi xếp hàng. Lợi thế của mở nguồn gọi là “bạn không thể rời khỏi hệ sinh thái của tôi”—xây dựng nhà phát triển, doanh nghiệp, toàn bộ hạ tầng AI quốc gia dựa trên kiến trúc của tôi. Một là trạm thu phí, một là đường cao tốc.

DeepSeek đã làm rõ điều này qua bốn thế hệ mở nguồn liên tiếp: V3, R1, V3.2, V4. Hôm nay, bất kỳ công ty nào muốn triển khai cục bộ, muốn chạy mô hình lớn trong tài chính, y tế, chính quyền, quân sự đều nghĩ ngay đến DeepSeek. Các doanh nghiệp nhà nước Trung Quốc, quỹ chủ quyền Trung Đông, ngân hàng châu Âu không muốn dữ liệu rơi vào đám mây Mỹ—họ sẽ không dùng API đóng nguồn, mãi mãi không. Đặt cược của Anthropic và OpenAI ngược lại: trí tuệ tiên tiến luôn luôn có khoảng cách, khách hàng thông minh nhất sẵn sàng chi tiền hơn.

Nhưng cược này có khung thời gian. Từ ngày R1 ra mắt đến nay, khoảng cách năng lực giữa mở nguồn và đóng nguồn đã rút ngắn từ một năm xuống còn ba tháng. Nếu con số này còn rút ngắn xuống một tháng, đường đóng nguồn bắt đầu rạn nứt.

02 Kiến trúc mô hình—ba công ty đi theo con đường khác nhau căn bản

V4-Pro 1.6T tham số / 49B kích hoạt; V4-Flash 284B tham số / 13B kích hoạt. Chuỗi ngữ cảnh 1 triệu là mặc định xuất xưởng. Cấu trúc cốt lõi là chú ý hỗn hợp (CSA + HCA xen kẽ) + Kết nối siêu hyper-được hạn chế (Manifold-Constrained Hyper-Connections) + Bộ tối ưu Muon + Huấn luyện FP4. Trong kịch bản 1 triệu token, FLOPs dự đoán cho từng token của V4-Pro chỉ bằng 27% của V3.2, bộ nhớ cache KV chỉ dùng 10%. V4-Flash còn mạnh hơn—FLOPs giảm xuống còn 10%, bộ nhớ cache KV giảm còn 7%.

Bản chất của kiến trúc này dựa trên một câu: dài ngữ cảnh không phải vấn đề năng lực, mà là vấn đề hiệu quả. Thế hệ V3 dựa vào MoE để giảm chi phí huấn luyện, thế hệ V4 dựa vào chú ý hỗn hợp để giảm chi phí suy luận. Mỗi bước cắt vào phần đắt nhất.

GPT-5.5 khác biệt. Chính thức của OpenAI rõ ràng—đây là mô hình nền được huấn luyện lại từ đầu sau GPT-4.5. Các phiên bản 5.1, 5.2, 5.3, 5.4 đều là các đợt tinh chỉnh trên cùng một nền tảng. 5.5 đã làm lại kiến trúc, làm lại dữ liệu huấn luyện sơ bộ, làm lại mục tiêu huấn luyện hướng dẫn bằng agent. Pachocki tại buổi ra mắt nói—“tiến bộ của các mô hình trong hai năm qua thật chậm”—thực ra đang nói rằng nền tảng cũ của họ không thể theo kịp đường mở rộng mới, phải đổi động cơ.

Claude Opus 4.7 cải tiến chính xác so với 4.6. Anthropic tự định vị rõ ràng: cải tiến đáng kể, không phải bước nhảy paradigm. SWE-bench Verified từ 80.8 lên 87.6, độ phân giải hình ảnh từ 1568px lên 2576px, tổng throughput gấp 3.3 lần trước, tokenizer thay một lần (văn bản cùng một lượng sẽ dùng nhiều token hơn 1 đến 1.35 lần). Mythos Preview mới là thế hệ tiếp theo thực sự của họ, nhưng hiện vẫn còn trong két sắt, chỉ dành cho 12 đối tác thử nghiệm, dân dụng phải chờ.

03 Chip nền—tin tức bị đánh giá thấp nhất ngày hôm nay

Tiêu đề của các phương tiện truyền thông tiếng Anh chính thống đều viết về benchmark của V4. Sai. Thật sự thay đổi cuộc chơi ngày hôm nay là—một phần huấn luyện của V4 được thực hiện trên chip Huawei Ascend.

Ngày ra mắt, Huawei công bố toàn bộ dòng Ascend SuperPoD hỗ trợ “toàn diện” cho V4 Pro và Flash. Cambricon cũng đồng bộ tuyên bố tương thích. SMIC cổ phiếu Hồng Kông tăng 10% trong ngày. Đọc ba dòng này cùng nhau mới là tin—lần đầu tiên AI Trung Quốc chạy toàn bộ huấn luyện và suy luận trên phần cứng nội địa, không có chip Nvidia nào trong đường đi chính.

Điều này quan trọng hơn tất cả benchmark cộng lại.

Trong ba năm qua, công cụ hiệu quả nhất của Mỹ để gây sức ép với Trung Quốc là kiểm soát xuất khẩu GPU cao cấp. Logic đơn giản—bạn không thể huấn luyện mô hình mạnh nhất vì không mua được H100, B200. Ra mắt V4 tương đương cắt giảm một nửa sức mạnh của cây đòn bẩy này. Các mô hình mở nguồn hàng đầu có thể huấn luyện và triển khai trên phần cứng không phải Nvidia. Một khi điều này được thị trường công nhận rộng rãi, các lệnh trừng phạt trong lĩnh vực AI gần như vô hiệu.

Claude và GPT-5.5 đều chạy trên stack gồm NVIDIA H100/H200/B200 + Google TPU + Trainium2 tự phát triển của Anthropic. Không có con đường thứ hai, không có nhà cung cấp thứ hai. Đây là rào cản, cũng là điểm yếu cố định. Ngày Nvidia tăng giá hoặc không đủ năng lực sản xuất, hai nhà này sẽ gặp rắc rối. DeepSeek hiện có thêm một chuỗi cung ứng độc lập—họ có thêm một lá bài.

04 Cấu trúc chi phí huấn luyện—Muon, FP4, 32T token tạo ra mức giá hôm nay như thế nào

Trong báo cáo kỹ thuật V4, viết rõ ràng: sử dụng bộ tối ưu Muon (học nhanh hơn, huấn luyện ổn định hơn), độ chính xác FP4 (dung lượng bộ nhớ giảm một nửa), hai giai đoạn post-training (chuyên gia từng lĩnh vực SFT + RL riêng biệt, rồi dùng on-policy distillation để hợp nhất vào cùng một mô hình), dữ liệu huấn luyện 32 nghìn tỷ token. Những điều này không phải để khoe khoang, mà là những máy móc thực sự giúp giảm chi phí huấn luyện.

Kết quả là—giá API của V4-Pro có thể thấp hơn V3.2, V4-Flash còn xuống mức thấp nhất của các mô hình nhỏ mở nguồn.

Chiến lược của GPT-5.5 là tăng giá rõ ràng. Mỗi triệu token đầu vào 5 USD, đầu ra 30 USD, gấp đôi GPT-5.4. Chính thức của OpenAI nói—“hiệu quả token tăng 40%, tổng chi phí chỉ tăng 20%”. Lời hoa mỹ. Nhưng chạy thử trên prompt thực tế trong môi trường sản xuất mới thấy—workflow dài prompt, output ngắn, hóa đơn sẽ tăng gấp đôi. OpenAI cược rằng “sự khan hiếm của trí tuệ tiên tiến” vẫn đủ để duy trì một chu kỳ nữa, nên dám tăng giá gấp đôi.

Claude Opus 4.7 chơi là tăng giá ngầm. Giá không đổi, 5/25 USD hoàn toàn giống Opus 4.6. Nhưng trong tài liệu của Anthropic có viết—cùng văn bản, token mới tối đa dùng nhiều hơn 1.35 lần. Nói cách khác, giá không đổi, hóa đơn tối đa tăng 35%. Đây là cách tăng giá tinh tế, nhưng các nhóm kỹ thuật chạy lượng lớn sẽ thấy rõ trong báo cáo tài chính hàng tháng.

DeepSeek ngược lại—giảm giá. Giá của V3.2 đã thấp, V4-Pro còn thấp hơn nữa. Sau vài tháng, Huawei Ascend 950 sản xuất hàng loạt sẽ còn giảm nữa. Đây là chiến lược truyền thống của internet Trung Quốc: dùng quy mô và hiệu quả để làm giá đối thủ gãy, rồi dùng hệ sinh thái giữ chân người dùng.

05 Định giá API—một đô la mua được bao nhiêu trí tuệ

Xem bảng giá.

Đánh giá của bên thứ ba Artificial Analysis cho biết: Với cùng điểm số trong Chỉ số Trí tuệ, GPT-5.5 (trung bình) ≈ Claude Opus 4.7 (tối đa), mô hình thứ nhất chạy toàn bộ bài kiểm tra khoảng 1.200 USD, mô hình thứ hai khoảng 4.800 USD. V4-Pro cùng mức độ trí tuệ này, chỉ bằng từ 1/3 đến 1/10 của hai mô hình kia.

Điều này không phải “rẻ hơn chút”. Đây là giảm toàn bộ chi phí đơn vị của trí tuệ cao cấp xuống một cấp số nhân.

Điều này có ý nghĩa gì đối với một doanh nghiệp tiêu thụ token hàng tháng khoảng một triệu USD—trước đây cùng ngân sách đó chỉ chạy được 10 agent, giờ có thể chạy 80 agent. Những thử nghiệm trước đây quá đắt, giờ rẻ như cho. Một khi thị trường chứng thực điều này qua ba, bốn công ty lớn, phần còn lại sẽ theo. Đây là phản xạ—mỗi lần một công ty chuyển đổi, các công ty tiếp theo sẽ có tâm lý dễ dàng hơn nhiều.

OpenAI và Anthropic chỉ có thể phản công theo hai hướng: hoặc tăng cường khoảng cách API đóng nguồn, (ví dụ Mythos sớm ra mắt), hoặc làm dày thêm chi phí chuyển đổi trong quan hệ doanh nghiệp, về mặt tuân thủ, độ tin cậy. Phần đầu cần thời gian và tiền bạc, phần sau cần sự kiên nhẫn của khách hàng.

06 Kinh tế thực của ngữ cảnh 1 triệu

Ba công ty đều đã đạt 1 triệu token ngữ cảnh. Trên bề mặt là con số đồng đều.

Nhưng—khả năng làm và khả năng làm rẻ là hai chuyện khác nhau.

V4-Pro đạt 83.5 điểm trong benchmark truy xuất dài văn bản MRCR, vượt Gemini-3.1-Pro 76.3, thua Claude Opus 4.6 92.9. CorpusQA trên 1 triệu token đạt 62%, vượt Gemini 3.1 Pro 53.8%. Độ chính xác truy xuất đạt 94% ở 128K, 82% ở 512K, 66% ở 1 triệu. Giá trị tuyệt đối không phải cao nhất, nhưng là mô hình mở nguồn đầu tiên và là mô hình mở nguồn duy nhất làm mặc định 1 triệu.

Claude Opus 4.7 không tính phí dài ngữ cảnh—đây là kỹ năng cứng của Anthropic. GPT-5.5 cũng vậy. Nhưng vấn đề là: chi phí suy luận của ba mô hình chênh lệch gấp mười lần, trong các kịch bản dài ngữ cảnh, chênh lệch này còn lớn gấp mười.

Tính sơ qua: một tài liệu pháp lý 500K token, để mô hình phân tích một lần—Opus 4.7 chỉ riêng đầu vào đã là 2.5 USD, cộng đầu ra tổng khoảng 3-4 USD; GPT-5.5 cũng tương tự; V4-Pro khoảng 1 USD. Nếu workflow này chạy 10.000 lần mỗi ngày, chi phí hàng năm sẽ chênh nhau từ vài trăm nghìn đến hơn một triệu USD. Doanh nghiệp trung bình chạy phân tích agentic, nút thắt lớn nhất chính là chi phí dài ngữ cảnh, V4-Pro như cắt đứt nút thắt đó.

07 Mã hóa và khả năng Agent—ba công ty mỗi bên giữ một phần

Chia bảng benchmark ra, cuộc chơi này rõ ràng vô cùng.

_Thông tin này không phải để biết ai mạnh hơn, mà là ba công ty đang nắm giữ các dạng agent khác nhau.

Anthropic tập trung vào “sửa lỗi trong thư viện mã thực tế”. Cursor, Devin, Factory, Ramp—khách hàng dùng Opus, không làm toy như “viết app todo”, mà là “sửa race condition cách đây 3 tuần trong thư viện 2 triệu dòng mã”. Nvidia sau khi triển khai Codex cho 10.000 nhân viên, nói thời gian debug giảm từ vài ngày xuống còn vài giờ—Anthropic cũng có thể đưa ra con số này. Opus 4.7 có thể đạt 64.3% trong SWE-Bench Pro—thật sự đã qua thử nghiệm trong dây chuyền sản xuất.

OpenAI tập trung vào “Agent thao tác toàn bộ máy tính”. Terminal-Bench 2.0, OSWorld, Codex chạy shell—tất cả đều hướng tới một tương lai: AI không chỉ viết code, mà còn thay bạn mở terminal, gõ lệnh, điều khiển Mac của bạn. Câu nói của Brockman tại buổi ra mắt “tính toán agentic quy mô lớn” không phải nói chơi—đây là khẩu hiệu cho thập kỷ tới của OpenAI.

DeepSeek tập trung vào “tài sản trí tuệ cộng đồng của nhà phát triển mã nguồn mở”. Nó không thắng SWE-Bench Pro, nhưng đã nâng tầm đỉnh cao của thế giới mã nguồn mở lên 3206 điểm Codeforces. Điều này có nghĩa—bất kỳ startup nào cũng không cần trả tiền Anthropic hay OpenAI, vẫn có thể chạy mô hình mã gần đẳng cấp cuộc thi trên máy của chính mình.

08 Đối tượng khách hàng—ba công ty nhắm vào ba nhóm khách hoàn toàn khác nhau

Danh sách khách hàng của Anthropic rõ ràng hướng tới: PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block—toàn là fintech và SaaS doanh nghiệp. Những công ty này có điểm chung: nhiều tiền, không khoan nhượng lỗi. Opus 4.7 giá 5/25 USD, kiểm tra an ninh, tuân thủ, triển khai đa đám mây Bedrock/Vertex AI/Foundry—tất cả đều hướng tới khách hàng mua sắm kéo dài nửa năm, ký hợp đồng 3 năm, trả hàng trăm nghìn USD mỗi năm. Định giá của Anthropic trên Forge Global vượt 1 nghìn tỷ USD, cao hơn OpenAI 880 tỷ—đầu tư vào câu chuyện “độ dày khách hàng doanh nghiệp” này.

OpenAI dựa trên ba trụ: người tiêu dùng + nhà phát triển + doanh nghiệp. ChatGPT gần 1 tỷ hoạt động hàng tuần là rào cản thực sự của họ. GPT-5.5 đồng bộ ra Plus/Pro/Business/Enterprise, giá API tăng gấp đôi, gánh nặng này được chia sẻ qua lưu lượng người dùng C. Nhóm nhà phát triển Codex trong nửa năm tăng từ vài trăm nghìn lên hàng triệu, các công ty như Nvidia, Stripe, Shopify triển khai nội bộ quy mô lớn. OpenAI chơi quy mô—chi phí đơn vị của họ được chia nhỏ bởi mẫu số khổng lồ.

Danh sách khách hàng của DeepSeek hoàn toàn khác. Doanh nghiệp nhà nước Trung Quốc, ngân hàng, bệnh viện, cơ quan chính phủ; quỹ chủ quyền Trung Đông không muốn dữ liệu rơi vào đám mây Mỹ; công ty dược phẩm châu Âu tuân thủ GDPR nghiêm ngặt; chính phủ các nước đang phát triển AI chủ quyền ở Đông Nam Á và Mỹ Latinh. Cũng có các nhà phát triển và startup cứng rắn ở Silicon Valley—những người chỉ muốn chạy mô hình của riêng mình, không muốn trả API. Nhóm này không lớn bằng 1 tỷ người dùng C của OpenAI, nhưng là một quy mô khác—quy mô địa lý và chủ quyền.

Ba nhóm khách hàng hoàn toàn khác nhau, ba chiến lược bán hàng khác nhau.

09 An ninh và tư thế phòng thủ mạng—ba công ty có thái độ khác nhau rõ rệt về “mô hình biến thành vũ khí”

Đầu tháng 4, Anthropic phát hành Project Glasswing. Opus 4.7 là mô hình sản xuất đầu tiên tích hợp “phát hiện tự động và từ chối yêu cầu an ninh mạng nguy hiểm”. Trong báo cáo kỹ thuật, Anthropic viết rõ—đã cố ý giảm khả năng tấn công mạng trong quá trình huấn luyện. CyberGym đạt 73.1 điểm, gần như ngang bằng Opus 4.6 (73.8), là do lựa chọn chính sách chứ không phải giới hạn năng lực. Mythos Preview đạt 83.1 điểm trong cùng benchmark, nhưng chỉ dành cho 12 đối tác, danh sách này còn bí mật—mới đây bị rò rỉ qua một cộng đồng Discord (đoán URL), chính thức của Anthropic còn có báo cáo sự cố.

OpenAI theo hướng khác. Hệ thống GPT-5.5 ghi rõ: đạt cấp độ “High” trong Khung An ninh Mạng của Preparedness Framework, chưa đạt Critical. Giải pháp của OpenAI không giảm năng lực mô hình, mà là trang bị bộ phân loại đầu vào nghiêm ngặt hơn, xác thực danh tính, và thực thi “chương trình truy cập có phép cyber”—nếu muốn dùng khả năng tấn công, trước tiên phải xác minh danh tính. Mia Glaese tại buổi ra mắt dùng cụm từ “phiên bản xác minh danh tính đầu tiên”, ngụ ý—năng lực tôi cung cấp, còn trách nhiệm là của bạn.

Trong báo cáo kỹ thuật của DeepSeek V4, phần này gần như trống rỗng. Cộng đồng mã nguồn mở truyền thống là “mình mở mã, bạn lấy về, tự chịu trách nhiệm”. Thái độ này là cơn ác mộng cho các cơ quan quản lý, là thiên đường cho nhà phát triển độc lập. Nhưng rủi ro thực sự là—bất kỳ ai cũng có thể chạy một mô hình gần Opus 4.7 trên GPU của riêng mình, không có lớp chặn nào. Chính sách của cơ quan quản lý sẽ ra sao, giai đoạn cuối 2026 đến 2027 là thời điểm then chốt.

10 Chiến lược thị trường—ba cược hoàn toàn khác nhau, nhưng chỉ có một sẽ thành công lớn nhất

DeepSeek muốn trở thành Linux của ngành AI.

Dùng mở nguồn + chi phí cực thấp + chip nội địa để dân chủ hóa hạ tầng AI toàn cầu. Một khi mỗi quốc gia, mỗi doanh nghiệp, mỗi nhà phát triển đều chạy trên kiến trúc của bạn—bạn không dựa vào phí cấp phép, mà dựa vào giá trị hệ sinh thái để thu thuế. Hôm nay Hugging Face tải xuống nhiều, ngày mai SDK của các nhà sản xuất chip nội địa đều mặc định hỗ trợ DeepSeek, ngày kia lập trình viên AI mới đầu tiên viết dòng code là from deepseek import… Phương pháp này từng được Linus Torvalds chơi cách đây hai mươi năm, ngày nay Lương Văn Phong cũng đang chơi. Khác biệt là LLM đắt gấp vạn lần hệ điều hành, tiền nóng gấp nghìn lần, giá trị địa lý cao gấp trăm lần.

Anthropic muốn làm gì? Động cơ AI vận hành của các doanh nghiệp hàng đầu thế giới.

Không phải dành cho 1 tỷ người tiêu dùng, mà là 10.000 công ty hàng đầu thế giới về ngân sách IT và tuân thủ. Opus 4.7 định vị “hẹp nhưng sâu”, Mythos Preview cung cấp khan hiếm, Bedrock/Vertex/Foundry phân phối đa đám mây, định giá trên Forge hơn 1 nghìn tỷ USD—tất cả hợp lại kể một câu chuyện: nhóm pháp lý, tài chính, R&D, dịch vụ khách hàng của bạn, mọi công việc quan trọng đều chạy trên mô hình của tôi, không bao giờ dừng lại. Đây là logic của các công ty luật, ngân hàng đầu tư—không phải của Facebook. Ít khách hàng, giá cao, chuyển đổi gần như vô hạn.

OpenAI muốn làm gì? Ứng dụng siêu lớn Windows + Office + Google.

ChatGPT là quyền phân phối của họ (gần 1 tỷ hoạt động hàng tuần), Codex là khóa khách hàng phát triển, Operator là cổng thao tác máy tính, Mac App mới là vị trí trên desktop. Câu nói của Brockman tại buổi ra mắt “tính toán agentic quy mô lớn” không phải nói chơi—đây là chiến lược cho thập kỷ tới của OpenAI.

Ba con đường đều dẫn tới Rome. Nhưng chỉ có một con sẽ trở thành lớn nhất—và con lớn nhất này quyết định phân phối của cải ngành AI trong thập kỷ tới.

Ba công ty cùng một tuần mở bài.

Claude Opus 4.7 là Ổn—hẹp nhưng sâu, doanh nghiệp sẵn sàng ký hợp đồng 3 năm, trả hàng triệu USD. Chiến thắng của nó nằm ở chỗ: bất kỳ doanh nghiệp trung trở lên nào muốn dùng AI làm công cụ năng suất, nhưng sợ sai sót, sẽ không tìm được lựa chọn nào đáng tin hơn Opus.

GPT-5.5 là Đắt—tăng gấp đôi giá, kỳ vọng siêu ứng dụng, dẫn đầu khả năng Agent trong lệnh dòng và thao tác máy tính. Chiến thắng của nó nằm ở chỗ: nếu “AI thay bạn thao tác toàn bộ máy tính” thành hiện thực vào 2027, OpenAI chính là Microsoft của cuộc cách mạng này năm 1995. Nếu không, mức giá 5/30 USD sẽ trở thành một lời chú thích đắt đỏ.

DeepSeek V4 là Mạnh—mở nguồn, giá thấp, chip nội địa, xới tung từng phần lợi thế của hai bên còn lại. Chiến thắng của nó nằm ở chỗ: nếu phân mảnh địa lý tiếp tục, AI hạ tầng toàn cầu sẽ chia thành hai hệ sinh thái Trung-Mỹ, DeepSeek chính là Linux của hệ sinh thái Trung Quốc. Khả năng này không phải 50%, nhưng đã cao hơn rất nhiều so với một năm trước.

Tháng 1 năm 2025, khi R1 ra mắt, phản ứng đầu tiên của thị trường là “Trung Quốc đã bắt kịp”. Lần này V4, từ khóa mới của thị trường là—“Trung Quốc bắt đầu thay đổi luật chơi”.

Khi luật chơi đã thay đổi, sẽ không thể quay lại.

Chiều bốn giờ rưỡi, gió trên đại lộ California bắt đầu mát hơn. Cốc của Zombie Café đã cạn. Alan gấp gọn ba bản in, bỏ vào balo. Ra khỏi cửa, con chó đó ngẩng đầu lên một chút rồi lại nằm sấp xuống.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim