Mới đây, phòng thí nghiệm AI Deepseek từ Trung Quốc đã gây chấn động cộng đồng công nghệ toàn cầu khi chính thức phát hành V4-Pro và V4-Flash, hai mô hình AI mã nguồn mở (open-weight) với sức mạnh vượt trội và mức giá cạnh tranh đến khó tin. Sự kiện này diễn ra trong bối cảnh các đối thủ lớn như OpenAI, Google và Anthropic đang có xu hướng tăng giá và giới hạn sử dụng các mô hình tiên tiến của họ, khiến Deepseek V4-Pro trở thành một lựa chọn hấp dẫn, hứa hẹn mở ra kỷ nguyên mới cho các ứng dụng AI tác nhân (agentic AI).
Deepseek V4-Pro và V4-Flash: Sức mạnh vượt trội từ Trung Quốc
Deepseek đã công bố phiên bản xem trước của V4-Pro và V4-Flash dưới dạng mã nguồn mở theo giấy phép MIT, cho phép các nhà phát triển và doanh nghiệp tự do tiếp cận và tùy chỉnh. V4-Pro là mô hình lớn hơn với tổng cộng 1.6 nghìn tỷ tham số (1.6 trillion parameters), trong đó có 49 tỷ tham số hoạt động. Trong khi đó, V4-Flash có 284 tỷ tham số tổng cộng với 13 tỷ tham số hoạt động. Cả hai đều là các mô hình Mixture-of-Experts (MoE) tiên tiến, nổi bật với cửa sổ ngữ cảnh khổng lồ lên đến một triệu token.
Đáng chú ý, V4-Pro hiện là mô hình mã nguồn mở lớn nhất trên thị trường, vượt xa các đối thủ như Kimi K2.6 (1.1 nghìn tỷ tham số) và GLM-5.1 (754 tỷ tham số). Đây cũng là kiến trúc mới hoàn toàn đầu tiên của Deepseek kể từ phiên bản V3, đánh dấu một bước nhảy vọt về công nghệ sau nhiều phiên bản cải tiến dựa trên thiết kế V3 trước đó.
Kiến trúc đột phá giảm chi phí tính toán cho ngữ cảnh dài
Điểm đột phá chính của Deepseek V4-Pro và V4-Flash nằm ở kiến trúc attention lai (hybrid attention architecture) mới. Kiến trúc này kết hợp công nghệ nén token với cơ chế sparse attention độc quyền của Deepseek, giúp giảm đáng kể lượng tài nguyên tính toán cần thiết khi xử lý các ngữ cảnh dài. Theo báo cáo kỹ thuật, V4-Pro chỉ cần 27% lượng FLOPs (Floating Point Operations Per Second) và 10% bộ nhớ KV cache so với V3.2 khi xử lý ngữ cảnh một triệu token. V4-Flash thậm chí còn hiệu quả hơn, chỉ yêu cầu 10% FLOPs và 7% bộ nhớ KV cache.
Những cải tiến về hiệu quả này là chìa khóa giúp Deepseek có thể cung cấp các mô hình mạnh mẽ với chi phí thấp hơn đáng kể. Việc giảm yêu cầu về tài nguyên tính toán không chỉ giúp tiết kiệm chi phí vận hành mà còn mở rộng khả năng tiếp cận các ứng dụng AI tiên tiến cho nhiều nhà phát triển và doanh nghiệp hơn, đặc biệt là trong các tác vụ yêu cầu xử lý lượng lớn thông tin cùng lúc.
Hiệu năng cạnh tranh: Thách thức các mô hình hàng đầu
Mặc dù có mức giá phải chăng, Deepseek V4-Pro không hề thua kém về hiệu năng. Trên điểm chuẩn GDPval-AA của Artificial Analysis, V4-Pro dẫn đầu tất cả các mô hình mã nguồn mở với 1.554 điểm Elo, vượt qua GLM-5.1 (1.535 điểm) và Kimi K2.6 (1.484 điểm). Đây là một bước nhảy vọt đáng kể, khoảng 355 điểm Elo so với phiên bản V3.2 trước đó.
Tuy nhiên, Deepseek cũng thẳng thắn thừa nhận trong báo cáo rằng V4-Pro "hơi kém hơn GPT-5.4 và Gemini-3.1-Pro" và tụt hậu khoảng ba đến sáu tháng so với các mô hình tiên phong. Điều này cho thấy Deepseek đang ở rất gần với hiệu suất của các "ông lớn" trong ngành, và với tốc độ phát triển hiện tại, khoảng cách này có thể sẽ được thu hẹp nhanh chóng.
Những cải tiến đáng kể về hiệu quả tính toán đã giúp Deepseek đưa ra mức giá cực kỳ cạnh tranh cho các mô hình V4-Pro và V4-Flash.
Giá thành siêu cạnh tranh: AI hiệu suất cao cho mọi nhà phát triển
Chính nhờ những cải tiến về hiệu quả tính toán, Deepseek đã có thể đưa ra một bảng giá cực kỳ hấp dẫn, thách thức trực tiếp các đối thủ lớn. V4-Flash chỉ có giá 0.14 USD cho mỗi triệu token đầu vào và 0.28 USD cho mỗi triệu token đầu ra, thậm chí còn rẻ hơn cả GPT-5.4 Nano của OpenAI. V4-Pro, với sức mạnh vượt trội hơn, có giá 1.74 USD cho đầu vào và 3.48 USD cho đầu ra, thấp hơn đáng kể so với Gemini 3.1 Pro, GPT-5.5 và Claude Sonnet 4.6.
Mức giá này mở ra cơ hội lớn cho các nhà phát triển và doanh nghiệp nhỏ, những người trước đây có thể gặp khó khăn về chi phí khi muốn sử dụng các mô hình AI tiên tiến. Deepseek đang dân chủ hóa quyền truy cập vào công nghệ AI mạnh mẽ, thúc đẩy sự đổi mới và sáng tạo trong nhiều lĩnh vực.
Sự xuất hiện của Deepseek V4-Pro với mức giá siêu cạnh tranh có thể châm ngòi cho một cuộc chiến giá cả trong thị trường AI, buộc các ông lớn phải cân nhắc lại chiến lược định giá của mình.
| Mô hình | Đầu vào ($/M token) | Đầu ra ($/M token) |
|---|---|---|
| Deepseek V4 Flash | 0.14 | 0.28 |
| Deepseek V4 Pro | 1.74 | 3.48 |
| GPT-5.4 | 2.50 | 15 |
| GPT-5.5 | 5 | 30 |
| Claude Sonnet 4.6 | 3 | 15 |
| Claude Opus 4.6 | 5 | 25 |
| Claude Opus 4.7 | 5 | 25 |
Dữ liệu huấn luyện khổng lồ và chiến lược chưng cất tinh vi
Để đạt được hiệu suất ấn tượng, Deepseek đã huấn luyện các mô hình V4-Pro và V4-Flash trên kho dữ liệu khổng lồ. V4-Flash được huấn luyện với 32 nghìn tỷ token, trong khi V4-Pro là 33 nghìn tỷ token. Deepseek tập trung vào việc sử dụng nhiều dữ liệu đa ngôn ngữ hơn, các bài báo khoa học và báo cáo kỹ thuật được tuyển chọn kỹ lưỡng, cùng với dữ liệu chuyên biệt cho các tác vụ tác nhân trong giai đoạn huấn luyện giữa chừng. Dữ liệu web cũng được lọc kỹ càng để loại bỏ "nội dung tự động tạo hàng loạt và theo mẫu".
Mặc dù báo cáo không nêu tên cụ thể các bộ dữ liệu hay nguồn cấp phép, nhưng nó không xác nhận những nghi ngờ thường xuyên được đặt ra về việc Deepseek chưng cất trực tiếp từ các mô hình của GPT hay Claude. Thay vào đó, Deepseek áp dụng một chiến lược chưng cất (distillation) độc đáo trong giai đoạn hậu huấn luyện. Họ đã thay thế hoàn toàn giai đoạn học tăng cường hỗn hợp trước đây bằng phương pháp chưng cất theo chính sách (on-policy distillation). Cụ thể, Deepseek huấn luyện hơn mười mô hình chuyên biệt nội bộ cho các lĩnh vực như toán học, lập trình, tác nhân và tuân thủ hướng dẫn. Sau đó, một mô hình "học sinh" duy nhất sẽ học hỏi từ tất cả các mô hình "giáo viên" chuyên biệt này, tạo ra một mô hình tổng hợp hiệu quả và mạnh mẽ.
Tối ưu hóa cho tác vụ tác nhân và hỗ trợ đa nền tảng phần cứng
Deepseek đã thiết kế V4-Pro và V4-Flash đặc biệt cho các quy trình làm việc của tác nhân AI (agentic workflows). Công ty cho biết các mô hình này đã được tích hợp với các công cụ như Claude Code, OpenClaw và OpenCode, và hiện đang được sử dụng nội bộ cho các tác vụ lập trình tự động. API của Deepseek hỗ trợ cả giao diện tương thích với OpenAI và Anthropic, giúp các nhà phát triển dễ dàng chuyển đổi hoặc tích hợp.
Về phần cứng, báo cáo kỹ thuật chi tiết hơn, xác nhận rằng sơ đồ song song chuyên gia (expert parallelism scheme) đã được xác thực trên "GPU Nvidia và NPU Huawei Ascend". Deepseek cũng đã thay thế thư viện cuBLAS của Nvidia bằng thư viện DeepGEMM của riêng mình, đồng thời Huawei cũng đã công bố rằng Ascend Supern của họ sẽ hỗ trợ các mô hình này. Điều này cho thấy Deepseek không chỉ tập trung vào phần mềm mà còn tối ưu hóa sâu rộng cho cả các nền tảng phần cứng đa dạng, đặc biệt là với sự hỗ trợ từ Huawei, mở ra tiềm năng lớn cho việc triển khai AI trên nhiều môi trường khác nhau.
Câu hỏi thường gặp
Deepseek V4-Pro có gì đặc biệt?
Deepseek V4-Pro là mô hình AI mã nguồn mở lớn nhất hiện nay với 1.6 nghìn tỷ tham số và cửa sổ ngữ cảnh 1 triệu token. Điểm đặc biệt nhất là kiến trúc đột phá giúp giảm chi phí tính toán đáng kể, cho phép Deepseek cung cấp mô hình này với mức giá cực kỳ cạnh tranh so với các đối thủ như OpenAI và Google, đồng thời được tối ưu hóa cho các tác vụ tác nhân (agentic tasks).
Tại sao Deepseek V4-Pro lại rẻ hơn các mô hình khác?
Deepseek V4-Pro rẻ hơn nhờ vào kiến trúc attention lai mới, kết hợp nén token và sparse attention, giúp giảm đáng kể lượng FLOPs và bộ nhớ KV cache cần thiết khi xử lý ngữ cảnh dài. Điều này làm giảm chi phí vận hành và cho phép Deepseek đưa ra mức giá thấp hơn nhiều so với các mô hình AI tiên tiến khác trên thị trường.
Điều này có nghĩa gì với bạn?
Sự ra mắt của Deepseek V4-Pro và V4-Flash mang lại nhiều ý nghĩa quan trọng cho cộng đồng AI và người dùng Việt Nam. Đối với các nhà phát triển, đây là cơ hội vàng để tiếp cận các mô hình AI mạnh mẽ với chi phí thấp hơn bao giờ hết. Bạn có thể thử nghiệm, xây dựng và triển khai các ứng dụng AI tiên tiến, đặc biệt là các tác vụ tác nhân, mà không phải lo lắng quá nhiều về ngân sách.
Đối với doanh nghiệp, Deepseek V4-Pro mở ra cánh cửa để tích hợp AI vào các quy trình kinh doanh một cách hiệu quả và tiết kiệm. Khả năng xử lý ngữ cảnh dài và giá thành hợp lý sẽ giúp các công ty tối ưu hóa hoạt động, từ phân tích dữ liệu lớn đến tự động hóa dịch vụ khách hàng, mà không cần đầu tư quá lớn vào hạ tầng hay phí API.
Nhìn rộng hơn, sự cạnh tranh từ Deepseek có thể thúc đẩy các "ông lớn" khác trong ngành AI phải xem xét lại chiến lược định giá và phát triển của mình, có khả năng dẫn đến một thị trường AI cạnh tranh hơn, nhiều đổi mới hơn và cuối cùng là có lợi hơn cho người dùng toàn cầu. Đây là một bước tiến quan trọng trong việc dân chủ hóa công nghệ AI, đưa sức mạnh của trí tuệ nhân tạo đến gần hơn với mọi người.
Điểm Chính Cần Nhớ
- Deepseek V4-Pro và V4-Flash là các mô hình AI mã nguồn mở mạnh mẽ, với V4-Pro là mô hình lớn nhất hiện nay (1.6 nghìn tỷ tham số) và cửa sổ ngữ cảnh 1 triệu token.
- Kiến trúc attention lai mới giúp giảm đáng kể chi phí tính toán, cho phép Deepseek cung cấp các mô hình này với mức giá siêu cạnh tranh, thấp hơn nhiều so với OpenAI, Google và Anthropic.
- Các mô hình được tối ưu hóa đặc biệt cho tác vụ tác nhân (agentic tasks) và hỗ trợ đa dạng phần cứng (Nvidia GPU, Huawei Ascend NPU), mở ra cơ hội lớn cho các nhà phát triển và doanh nghiệp.