Alibaba wypuściło Qwen3.5 Plus, hybrid MoE model z 397 miliardami parametrów. Open-source na licencji Apache 2.0. Benchmarki stawiają go na poziomie GPT-5.2 i Gemini-3 Pro, a inference jest 8x szybszy niż poprzednia wersja.
Model obsługuje 201 języków i ma wbudowane zdolności agentowe: multimodalne wejście, generowanie kodu, tool calling. To jest Alibaba mówiąca "nie oddamy rynku open-source bez walki".
MMLU-Pro 87.8% to wynik, który rok temu byłby w topce zamkniętych modeli. Teraz możesz go pobrać i odpalić lokalnie. Oczywiście 397B parametrów wymaga sporo sprzętu, ale quantized wersje pojawią się za kilka dni. Wyścig modeli open-source przyspiesza, a główni gracze to już nie tylko Meta z Llamą. Alibaba, Mistral i DeepSeek ciągną peleton.
- 397B parametrów, hybrid MoE, Apache 2.0
- MMLU-Pro 87.8%, porównywalny z GPT-5.2 i Gemini-3 Pro
- 201 języków, natywne zdolności agentowe (multimodal, tool use)
- 8x szybszy inference niż Qwen3