Tips Tekno – Alibaba, raksasa teknologi China, baru-baru ini meluncurkan Qwen3, seri model bahasa besar (LLM) open source terbarunya.
Qwen 3 mendukung ratusan bahasa dan dialek, termasuk beberapa dialek Indonesia seperti Jawa dan Sunda.
Alibaba mengklaim Qwen 3 sebagai salah satu model AI open source terbaik saat ini, bahkan melampaui performa beberapa model AI populer seperti OpenAI-o1 dan DeepSeek R1.
Qwen3 hadir dalam dua tipe model: Dense dan MoE (Mixture of Experts).
Kedua tipe ini memiliki karakteristik teknis berbeda, terutama dalam hal performa dan efisiensi inferensi (menjawab pertanyaan, menerjemahkan, dan sebagainya).
Baca juga: Alibaba Rilis Model AI Multimodal, Bisa Dukung Asisten Suara dan Berjalan di Ponsel
Dense Model
Pada model Dense, seluruh parameter model diaktifkan setiap saat. Hal ini menghasilkan output yang konsisten dan stabil untuk berbagai tugas.
Namun, karena semua parameter aktif, proses inferensinya lebih berat dan membutuhkan sumber daya komputasi dan memori yang lebih besar.
Qwen3-32B merupakan contoh model Dense dalam seri ini.
MoE Model
Berbeda dengan model Dense, model MoE (Mixture of Experts) hanya mengaktifkan sebagian kecil parameternya, tergantung pada tugas yang dijalankan.
Model ini menggabungkan beberapa “expert” (sub-model) dan hanya memanggil yang relevan saat inferensi.
Dengan demikian, model MoE lebih efisien, menghasilkan kualitas jawaban setara model besar, tetapi dengan kebutuhan memori dan komputasi yang lebih rendah.
Qwen3-235B-A22B adalah contoh model MoE dalam seri ini.
Baca juga: Model AI Alibaba Qwen 2.5 Max Rilis, Ungguli DeepSeek dan ChatGPT
Kemampuan “Hybrid Reasoning”
Qwen3 dilengkapi kemampuan hybrid reasoning, memungkinkan pengguna memilih antara mode respons cepat atau mode berpikir mendalam untuk memecahkan masalah kompleks dalam sains, matematika, dan rekayasa.
Fitur ini dapat diakses melalui Qwen Chat dengan tombol Thinking Mode atau melalui perintah tertentu saat menggunakan API.
Qwen3 mendukung 119 bahasa dan dialek, termasuk berbagai bahasa Indonesia (Jawa, Bali, Minangkabau, Sunda).
Proses pelatihan Qwen3 menggunakan dataset dua kali lebih besar daripada pendahulunya, Qwen2.5, mencapai sekitar 36 triliun token.
Token-token ini berasal dari berbagai sumber, termasuk web crawling, ekstraksi dokumen, dan konten sintetis.
Qwen3-235B-A22B Ungguli AI OpenAI dan DeepSeek
Qwen3-235B-A22B adalah model paling canggih dan terbesar dalam seri Qwen3.
Kode “235B” menunjukkan model ini memiliki 235 miliar parameter, setara atau mendekati model-model proprietary kelas atas seperti OpenAI GPT-4 atau Gemini 2.5 Pro.
Kode “A22B” menunjukkan bahwa saat inferensi, hanya 22 miliar parameter yang aktif (karena merupakan model MoE, bukan Dense). Ini membuatnya lebih efisien dibandingkan model Dense 235B.
Saat ini, Qwen3-235B-A22B belum dirilis untuk publik (masih digunakan secara internal atau terbatas). Untuk publik, model terbesar yang tersedia adalah Qwen3-32B (model Dense).
Baca juga: Alibaba Rilis Model AI QwQ-32B, Diklaim Ungguli OpenAI dan DeepSeek
Meskipun demikian, berdasarkan hasil benchmark, Qwen3-235B-A22B menempati peringkat teratas dalam beberapa tolok ukur penting, bahkan melampaui model AI populer dari OpenAI (o1), DeepSeek (R1), dan xAI (Grok).
Hasil benchmark tersebut dipublikasikan Alibaba melalui akun resmi @Alibaba_Qwen di X.
Contohnya, dalam pengujian ArenaHard, model ini mencetak skor 95,6, melampaui OpenAI o1 (92,1) dan DeepSeek R1 (93,2), serta sedikit di bawah Gemini 2.5 Pro dari Google (96,4).
ArenaHard merupakan tolok ukur kemampuan penalaran LLM dalam menjawab pertanyaan kompleks dari berbagai topik. Skor yang lebih tinggi menunjukkan kemampuan penalaran yang lebih baik.
Keunggulan Qwen3-235B-A22B juga terlihat pada benchmark matematika dan sains seperti AIME’24 (85,7) dan AIME’25 (81,5), yang kembali mengungguli OpenAI o1 (74,3 / 79,2) dan Grok 3 Beta (83,9 / 77,3).
Dalam pengujian coding melalui LiveCodeBench, Qwen3 mencatat skor 70,7, lebih tinggi daripada OpenAI o1 (63,9) dan DeepSeek R1 (64,3).
Skor CodeForces Qwen3 juga mengesankan, yaitu 2.056, lebih tinggi daripada OpenAI o1 (1.891), DeepSeek R1 (2.029), Grok 3 (tidak tersedia), dan bahkan Gemini 2.5 Pro (2.001).
Keunggulan Qwen3-235B-A22B juga tampak dalam benchmark penalaran AI dan multibahasa seperti:
- BFCL: 70,8 (unggul atas semua model kecuali Grok 3 yang tidak tersedia)
- MultiIF: 71,9 (jauh di atas OpenAI o1 dengan 48,8 dan DeepSeek R1 dengan 67,7)
Baca juga: Alibaba Rilis Model AI yang Bernalar, Pesaing OpenAI
Versi model Dense-nya, Qwen3-32B, tetap kompetitif dan hanya sedikit tertinggal dari versi MoE.
Secara keseluruhan, Qwen3 menunjukkan bahwa model AI open source kini mampu bersaing, bahkan melampaui solusi komersial dari perusahaan-perusahaan AI raksasa seperti OpenAI, Google, dan xAI.
Hal ini berpotensi membuka jalan bagi adopsi AI yang lebih terbuka, hemat biaya, dan fleksibel secara global, sebagaimana dilaporkan KompasTekno dari Venture Beat, Selasa (29/4/2025).