DeepSeek V4 được đồn đại vượt trội hơn ChatGPT và Claude trong lập trình ngữ cảnh dài, nhắm đến các tác vụ lập trình cấp cao. Những người trong cuộc cho rằng cộng đồng AI của Thung lũng Silicon nên lo ngại nếu các bài kiểm tra nội bộ ám chỉ hiệu suất dự kiến của nó sau khi ra mắt vào giữa tháng 2.
Công ty khởi nghiệp AI có trụ sở tại Trung Quốc DeepSeek được cho là đang lên kế hoạch phát hành DeepSeek V4, mô hình ngôn ngữ lớn mới nhất của mình, vào ngày 17 tháng 2. Những người am hiểu vấn đề cho rằng mô hình này sẵn sàng tạo ra bóng tối che phủ các mô hình ngôn ngữ lớn hiện có, chẳng hạn như ChatGPT của OpenAI và Claude của Anthropic, khi xử lý các lời nhắc và tác vụ mã ngữ cảnh dài.
Các nhà phát triển bày tỏ sự mong đợi sâu sắc đối với bản phát hành DeepSeek V4
Công ty Trung Quốc này chưa công khai tiết lộ bất kỳ thông tin nào về bản phát hành sắp tới hoặc xác nhận những tin đồn tại thời điểm viết bài. Các nhà phát triển trên các mạng xã hội khác nhau đã bày tỏ sự mong đợi sâu sắc đối với bản phát hành. Yuchen Jin, một nhà phát triển AI và đồng sáng lập Hyperbolic Labs, viết trên X rằng "DeepSeek V4 được đồn đại sẽ ra mắt sớm, với khả năng lập trình mạnh hơn Claude và GPT."
Subreddit r/DeepSeek cũng nóng lên, với một người dùng giải thích rằng sự ám ảnh của họ với mô hình V4 sắp ra mắt của DeepSeek là không bình thường. Người dùng cho biết họ thường xuyên "kiểm tra tin tức, những tin đồn có thể có, và thậm chí tôi còn đọc Tài liệu trên trang web DS để tìm kiếm bất kỳ thay đổi hoặc dấu hiệu nào cho thấy một bản cập nhật."
Các bản phát hành trước đây của DeepSeek đã có tác động đáng kể đến thị trường toàn cầu. Công ty khởi nghiệp AI Trung Quốc phát hành mô hình suy luận R1 của mình vào tháng 1 năm 2025, dẫn đến đợt bán tháo trị giá hàng nghìn tỷ đô la. Bản phát hành tương đương với mô hình 01 của OpenAI về các tiêu chuẩn toán học và suy luận, mặc dù chi phí thấp hơn đáng kể so với chi phí công ty khởi nghiệp AI của Mỹ chi cho mô hình 01 của mình.
Công ty Trung Quốc được cho là chỉ chi 6 triệu đô la cho bản phát hành mô hình. Trong khi đó, các đối thủ toàn cầu chi gần 70 lần nhiều hơn cho cùng một kết quả đầu ra. Mô hình V3 của nó cũng đạt điểm 90,2% trên tiêu chuẩn MATH-500, so với 78,3% của Claude. Bản nâng cấp V3 gần đây hơn của DeepSeek (V3.2 Speciale) đã cải thiện thêm năng suất của nó.
Điểm bán hàng của mô hình V4 đã phát triển từ sự nhấn mạnh của V3 vào suy luận thuần túy, chứng minh chính thức và toán học logic. Bản phát hành mới dự kiến sẽ là một mô hình lai kết hợp cả các tác vụ suy luận và không suy luận. Mô hình nhằm mục đích chiếm lĩnh thị trường nhà phát triển bằng cách lấp đầy khoảng trống hiện có đòi hỏi độ chính xác cao và tạo mã ngữ cảnh dài.
Claude Opus 4.5 hiện đang tuyên bố thống trị trong tiêu chuẩn SWE, đạt độ chính xác 80,9%. V4 cần phải vượt qua mức này để lật đổ Claude Opus 4.5. Dựa trên những thành công trước đây, mô hình sắp tới có thể vượt qua ngưỡng này và tuyên bố thống trị trong tiêu chuẩn.
DeepSeek tiên phong mHC để đào tạo LLM
Thành công của DeepSeek đã khiến nhiều người không tin nổi một cách chuyên nghiệp. Làm thế nào một công ty nhỏ như vậy có thể đạt được những cột mốc như vậy? Bí mật có thể được ăn sâu trong bài nghiên cứu xuất bản vào ngày 1 tháng 1. Công ty đã xác định một phương pháp đào tạo mới cho phép các nhà phát triển dễ dàng mở rộng quy mô các mô hình ngôn ngữ lớn. Liang Wenfeng, người sáng lập và CEO của DeepSeek, viết trong nghiên cứu rằng công ty đang sử dụng Manifold-Constrained Hyper-Connections (mHC) để đào tạo các mô hình AI của mình.
Giám đốc điều hành đề xuất sử dụng mHC để giải quyết các vấn đề gặp phải khi các nhà phát triển đào tạo các mô hình ngôn ngữ lớn. Theo Wenfeng, mHC là một bản nâng cấp của Hyper-Connections (HC), một khung mà các nhà phát triển AI khác sử dụng để đào tạo các mô hình ngôn ngữ lớn của họ. Ông giải thích rằng HC và các kiến trúc AI truyền thống khác buộc tất cả dữ liệu đi qua một kênh duy nhất, hẹp. Đồng thời, mHC mở rộng con đường đó thành nhiều kênh, tạo điều kiện cho việc truyền dữ liệu và thông tin mà không gây ra sự sụp đổ đào tạo.
Lian Jye Su, nhà phân tích trưởng tại Omdia, khen ngợi CEO Wenfeng vì đã công bố nghiên cứu của họ. Su nhấn mạnh rằng quyết định công bố các phương pháp đào tạo của DeepSeek thể hiện sự tự tin mới trong lĩnh vực AI của Trung Quốc. DeepSeek đã thống trị thế giới đang phát triển. Microsoft công bố một báo cáo vào thứ Năm, cho thấy DeepSeek chiếm 89% thị trường AI của Trung Quốc và đang đạt được động lực ở các nước đang phát triển.
Bạn muốn dự án của mình xuất hiện trước những bộ óc hàng đầu của crypto? Đưa nó vào báo cáo ngành tiếp theo của chúng tôi, nơi dữ liệu gặp gỡ tác động.
Nguồn: https://www.cryptopolitan.com/deepseek-v4-chatgpt-and-claude/


