Dù Mỹ chi hàng trăm tỷ USD vào GPU, Trung Quốc đang vượt mặt với các mô hình AI nguồn mở

  • OpenAI hứa ra mắt mô hình nguồn mở đầu tiên từ sau GPT-2 nhưng tiếp tục trì hoãn vì lý do an toàn. CEO Sam Altman cho biết "khi đã công bố trọng số, không thể thu hồi lại".

  • Trong khi đó, Trung Quốc đã nhanh chóng chiếm ưu thế với hàng loạt mô hình nguồn mở lớn và mạnh vượt trội.

  • DeepSeek R1, ra mắt đầu 2025, có 671 tỷ tham số với kiến trúc mixture-of-experts (MoE), hiệu quả vượt cả Llama 3.1 405B về tốc độ và khả năng suy luận. Trọng số và tài liệu kỹ thuật đầy đủ đều được công khai.

  • Tác động rõ rệt: chỉ vài tuần sau, các nhà phát triển phương Tây bắt đầu sao chép phương pháp và cải tiến mô hình của mình.

  • Alibaba tung ra các mô hình mới như QwQ, Qwen3-235B-A22B và 30B-A3B; MiniMax (Thượng Hải) ra mắt M1 với 456 tỷ tham số, hỗ trợ 1 triệu token và cơ chế attention mới; Baidu công khai dòng Ernie từ 47B đến 424B tham số; Huawei cũng tung Pangu dù vướng nghi vấn gian lận.

  • Đặc biệt nhất, tháng 7, Moonshot AI công bố Kimi 2 – mô hình MoE có 1.000 tỷ tham số, vượt mặt mọi mô hình nguồn mở phương Tây. Dù tuyên bố chưa được kiểm chứng độc lập, việc công khai mô hình cỡ này là một bước tiến vượt bậc.

  • Trái lại, Mỹ vẫn chủ yếu giữ mô hình sau tường API: Meta có Llama 4 (400B) nhưng phản hồi kém; Google ra Gemma3 (27B); IBM và Microsoft cũng chỉ phát hành các mô hình nhỏ hoặc chuyên biệt. Grok-3 của xAI đến nay vẫn chưa có mặt chính thức.

  • Trong khi Mỹ vật lộn giữa hứa hẹn và trì hoãn, Trung Quốc tận dụng cơ hội, bất chấp các lệnh cấm xuất khẩu chip của Mỹ.


📌 
Trung Quốc đang dẫn đầu nguồn mở AI năm 2025 với các mô hình như DeepSeek R1 (671B) và Kimi 2 (1.000B), công khai cả trọng số lẫn tài liệu. Trong khi đó, Mỹ dù đổ hàng trăm tỷ USD vào GPU, vẫn trì hoãn hoặc giữ kín các mô hình. Cục diện AI nguồn mở toàn cầu đang xoay chuyển rõ rệt về phía Đông.

https://www.theregister.com/2025/07/19/openai_us_china/

Không có file đính kèm.

57

Thảo luận

© Sóng AI - Tóm tắt tin, bài trí tuệ nhân tạo