vitngusieucon
Địt mẹ đau lòng


DeepSeek chỉ đạt 17% độ chính xác, thua xa đối thủ phương Tây
Trong bài kiểm tra của một tổ chức xếp hạng độ tin cậy lớn, AI Trung Quốc DeepSeek chỉ đạt 17% độ chính xác, xếp thứ 10/11 trong các chatbot AI được đánh giá.
Trong bài kiểm tra của một tổ chức xếp hạng độ tin cậy lớn, AI Trung Quốc DeepSeek chỉ đạt 17% độ chính xác, xếp thứ 10/11 trong các chatbot AI được đánh giá.
Chi phí nghiên cứu AI của DeepSeek là 1.3 tỷ USD, không phải 6 triệu
SemiAnalysis vừa công bố báo cáo nghiên cứu mới nhất của họ. Lần này, DeepSeek, startup nghiên cứu trí tuệ nhân tạo đến từ Trung Quốc được đưa vào tầm ngắm, sau khi họ khiến cả thế giới công nghệ toàn cầu chao đảo sau khi ra mắt R1, mô hình ngôn ngữ có khả năng tư duy logic, xử lý những câu lệnh và vấn đề phức tạp, cần lập luận nhiều bước để đi tới kết quả cuối cùng. Rồi cùng với đó là V3, mô hình ngôn ngữ vận hành chatbot của DeepSeek, thứ mà startup này khẳng định là chỉ tốn chưa đầy 6 triệu USD để huấn luyện.
Thế nhưng SemiAnalysis đã phủ nhận hoàn toàn con số này, và đưa ra một con số khác hoàn toàn. Theo ước tính của họ, để tạo ra một mô hình như V3, khoản vốn đầu tư mà DeepSeek đã bỏ ra lên tới 1.3 tỷ USD. Con số gần 6 triệu USD mà DeepSeek công bố, theo đơn vị nghiên cứu này, đã bỏ qua hàng loạt những chi phí tối quan trọng khác, bao gồm những khoản đầu tư khổng lồ để nghiên cứu phát triển kiến trúc, xây dựng và vận hành cơ sở hạ tầng, cũng như những chi phí cần thiết khác mà đơn vị này phải chi trả.
Trong con số khổng lồ 1.3 tỷ USD mà SemiAnalysis đưa ra, phần lớn trong số đó là chi phí vận hành và bảo trì những cụm máy chủ đám mây khổng lồ, xương sống của tiềm năng vận hành của mô hình AI. Trước đó, DeepSeek công bố thông tin nói rằng họ có thể tiếp cận những cluster data center với 50 nghìn GPU kiến trúc Hopper của Nvidia. Điều này đã khiến nhiều trang tin công nghệ lầm tưởng rằng, DeepSeek có trong tay hệ thống với 50 nghìn GPU H100.
Thực tế thì không phải như vậy. Những phân tích của SemiAnalysis cho thấy, DeepSeek nghiên cứu phát triển rồi sau đó là huấn luyện, cuối cùng là vận hành nội suy V3 và R1 thông qua những cluster trang bị vài phiên bản GPU kiến trúc Hopper khác nhau. Mạnh nhất thì có H100, rồi đến H800 và H20, hai sản phẩm được Nvidia phát triển riêng cho thị trường Trung Quốc.
Điều này, nếu là sự thật, thì chứng minh được một điều rằng DeepSeek đang vận hành một cách cực kỳ hiệu quả nếu xét tới khía cạnh vận hành hệ thống, quản lý trang thiết bị cũng như triển khai những quyết định mang tính chiến lược của startup. Một khía cạnh đáng chú ý trong bản báo cáo của SemiAnalysis là họ mô tả được kết cấu doanh nghiệp của DeepSeek.
Không giống như những đơn vị nghiên cứu AI lớn khác trên toàn thế giới, DeepSeek vận hành data center do chính họ xây dựng, rồi ứng dụng mô hình hoạt động được tối ưu hoá để cả startup vận hành nhanh và hiệu quả hơn. Chính yếu tố này đã giúp DeepSeek có được những thành công bước đầu. Giữa thời điểm thị trường AI đang càng lúc càng cạnh tranh, thì thứ cần được áp dụng nhất đối với các startup cũng như tập đoàn công nghệ là khả năng thích nghi rất nhanh.
Còn giờ là về khía cạnh thuần kỹ thuật. Trong báo cáo của SemiAnalysis, các nhà nghiên cứu cho biết, sức mạnh lý luận logic của R1 ngang ngửa với o1 của OpenAI. Tuy nhiên điều này không đồng nghĩa với việc DeepSeek đang dẫn đầu ngành trên mọi thước đo hiện tại.
Đồng ý một điều rằng chiến lược giá vận hành API mô hình ngôn ngữ của DeepSeek đang rất cạnh tranh và đã khiến nhiều đơn vị tìm tới họ, nhưng vẫn còn một đối thủ nữa nếu xét về chi phí, đó chính là Google Gemini Flash 2.0. Vận hành API mô hình ngôn ngữ này thậm chí còn rẻ hơn cả V3 và R1 của DeepSeek.
Điều này đẩy DeepSeek vào vị thế ngã ba đường. Họ sẽ phải tìm ra cách để cân bằng cả sức mạnh của mô hình ngôn ngữ lẫn chi phí vận hành những mô hình ấy để tiếp tục trở thành một cái tên có khả năng cạnh tranh trên thị trường AI.
Ở một khía cạnh kỹ thuật khác, công nghệ MLA, viết tắt của Multi-Head Latent Attention là một sáng tạo đột phá được nhắc tới trong báo cáo của SemiAnalysis. Cách tiếp cận để giải quyết vấn đề nhận diện ngữ cảnh và từ khoá của mỗi prompt từ người dùng, được các kỹ sư của DeepSeek phát triển và ứng dụng tạo ra kết quả tuyệt vời tới mức giảm được chi phí vận hành nội suy tới 93.3%. Để làm được điều này, tần suất vận hành lưu trữ bộ nhớ đệm những giá trị và chuỗi quan trọng (key value caching) được giảm thiểu tới mức tối đa.
Đó chính là yếu tố quan trọng nhất khiến chi phí vận hành API R3 của DeepSeek lại rẻ tới mức ấy.
Các chuyên gia cho rằng, những sáng kiến mới trong việc vận hành mô hình ngôn ngữ trí tuệ nhân tạo do các kỹ sư DeepSeek nghĩ ra và ứng dụng rồi sẽ nhanh chóng được các lab ở phương Tây nói chung và Mỹ nói riêng ứng dụng, để họ có được khả năng cạnh tranh trong tương lai.
Nhưng ở khía cạnh ngược lại, DeepSeek vẫn sẽ liên tục phải tự cải tổ và đổi mới chính bản thân bộ máy vận hành, liên tục tạo ra những sáng kiến mới để cạnh tranh trên thị trường. Đầu tiên là tình hình thị trường AI tạo sinh toàn cầu. Báo cáo của SemiAnalysis dự đoán rằng, đến cuối năm 2025, chi phí vận hành AI sẽ giảm gấp 5 lần, một phần tác động đến từ chính DeepSeek với công nghệ mà họ đã nghĩ ra, ép những startup nhỏ tới tập đoàn khổng lồ với bộ máy cồng kềnh phải tìm ra được cách để vận hành các dịch vụ AI với chi phí rẻ hơn.