/
ModelsSupportEnterpriseBlog
500+ AI Model API, All In One API.Just In CometAPI
Models API
Developer
Quick StartDocumentationAPI Dashboard
Resources
AI ModelsBlogEnterpriseChangelogAbout
2025 CometAPI. All right reserved.Privacy PolicyTerms of Service
Home/Models/Aliyun/qwen3.5-397b-a17b
Q

qwen3.5-397b-a17b

Input:$0.48/M
Output:$2.88/M
Natywny model wizyjno-językowy 397B-A17B z serii Qwen3.5 został zbudowany na hybrydowej architekturze, która integruje mechanizm liniowej uwagi z rzadką mieszanką ekspertów, osiągając wyższą efektywność wnioskowania.
New
Commercial Use
Playground
Overview
Features
Pricing
API

Specyfikacja techniczna Qwen3.5-397B-A17B

PozycjaQwen3.5-397B-A17B (open‑weight, po dodatkowym treningu)
Rodzina modeliQwen3.5 (seria Tongyi Qwen, Alibaba)
ArchitekturaHybrydowy Mixture‑of‑Experts (MoE) + Gated DeltaNet; wielomodalne szkolenie z wczesną fuzją
Łączna liczba parametrów~397 miliardów (łącznie)
Aktywne parametry (A17B)~17 miliardów aktywnych na token (rzadkie routowanie)
Typy wejśćTekst, Obraz, Wideo (wielomodalna wczesna fuzja)
Typy wyjśćTekst (czat, kod, wyjścia RAG), obraz‑na‑tekst, odpowiedzi wielomodalne
Natywne okno kontekstu262,144 tokenów (natywne ISL)
Rozszerzalny kontekstDo ~1,010,000 tokenów poprzez skalowanie YaRN/ RoPE (zależne od platformy)
Maksymalna liczba tokenów wyjściowychZależne od frameworka/serwowania (przewodniki pokazują 81,920–131,072)
Języki200+ języków i dialektów
Data wydania16 lutego 2026 (wydanie open‑weight)
LicencjaApache‑2.0 (otwarte wagi na Hugging Face / ModelScope)

Czym jest Qwen3.5-397B-A17B

Qwen3.5-397B-A17B to pierwsze wydanie open‑weight w rodzinie Qwen3.5 Alibaby: duży, wielomodalny model bazowy typu mixture‑of‑experts, trenowany z wizualno‑językowymi celami wczesnej fuzji i zoptymalizowany pod agentowe przepływy pracy. Model udostępnia pełną pojemność architektury o 397B parametrach, a dzięki rzadkiemu routowaniu (sufiks „A17B”) aktywnych jest tylko ~17B parametrów na token — co zapewnia równowagę między pojemnością wiedzy a efektywnością wnioskowania.

To wydanie jest przeznaczone dla badaczy i zespołów inżynieryjnych, które potrzebują otwartego, wdrażalnego i wielomodalnego modelu bazowego zdolnego do rozumowania na długim kontekście, rozumienia wizualnego oraz aplikacji typu retrieval‑augmented/agentowych.


Najważniejsze funkcje Qwen3.5-397B-A17B

  • Rzadkie MoE z efektywnością aktywnych parametrów: Duża globalna pojemność (397B) przy aktywności per‑token porównywalnej z gęstym modelem 17B, co obniża FLOPS na token przy zachowaniu różnorodności wiedzy.
  • Natywna wielomodalność (wczesna fuzja): Trenowany do obsługi tekstu, obrazów i wideo poprzez zunifikowaną tokenizację i strategię enkodera dla rozumowania między modalnościami.
  • Bardzo długie wsparcie kontekstu: Natywna długość sekwencji wejściowej 262K tokenów oraz opisane ścieżki rozszerzania do ~1M+ tokenów z użyciem skalowania RoPE/YARN dla RAG i potoków długodokumentowych.
  • Tryb myślenia i narzędzia agenta: Obsługa wewnętrznych śladów rozumowania i agentowego wzorca wykonawczego; przykłady obejmują włączanie wywołań narzędzi i integrację z interpreterem kodu.
  • Otwarte wagi i szeroka kompatybilność: Wydane na licencji Apache‑2.0 na Hugging Face i ModelScope, z oficjalnymi przewodnikami integracji dla Transformers, vLLM, SGLang i społecznościowych frameworków.
  • Zakres językowy przyjazny przedsiębiorstwom: Szerokie szkolenie wielojęzyczne (200+ języków), a także instrukcje i receptury wdrożeniowe na potrzeby skalowalnego uruchamiania.

Qwen3.5-397B-A17B vs wybrane modele

ModelOkno kontekstu (natywne)Mocne stronyTypowe kompromisy
Qwen3.5-397B-A17B262K (natywne)Multimodalne MoE, otwarte wagi, pojemność 397B z 17B aktywnymiDuże artefakty modelu, wymaga rozproszonego hostingu dla pełnej wydajności
GPT-5.2 (reprezentatywny zamknięty)~400K (raportowane dla niektórych wariantów)Wysoka dokładność gęstego rozumowania pojedynczego modeluZamknięte wagi, wyższy koszt inferencji w skali
Gęsty 70B w stylu LLaMA~128K (różnie)Prostszy stos inferencji, niższe wymagania VRAM dla gęstych środowisk wykonawczychMniejsza pojemność parametrów względem globalnej wiedzy MoE

Znane ograniczenia i kwestie operacyjne

  • Ślad pamięciowy: Rzadkie MoE nadal wymaga przechowywania dużych plików wag; hostowanie wymaga znaczącej pamięci masowej i pamięci urządzeń w porównaniu z gęstym odpowiednikiem 17B.
  • Złożoność inżynieryjna: Optymalna przepustowość wymaga starannego doboru równoległości (tensor/pipeline) i frameworków takich jak vLLM lub SGLang; naiwne hostowanie na pojedynczym GPU jest niepraktyczne.
  • Ekonomia tokenów: Chociaż obliczenia per‑token są zredukowane, bardzo długie konteksty nadal zwiększają I/O, rozmiar pamięci podręcznej KV i rozliczenia u dostawców zarządzanych.
  • Bezpieczeństwo i mechanizmy ochronne: Otwarte wagi zwiększają elastyczność, ale przenoszą odpowiedzialność za filtrowanie bezpieczeństwa, monitoring i mechanizmy ochronne wdrożenia na operatora.

Reprezentatywne przypadki użycia

  1. Badania i analiza modeli: Otwarte wagi umożliwiają powtarzalne badania i ewaluacje napędzane przez społeczność.
  2. Wielomodalne usługi on‑premise: Przedsiębiorstwa wymagające lokalizacji danych mogą wdrażać i uruchamiać obciążenia wizja+tekst lokalnie.
  3. RAG i potoki długodokumentowe: Natywne wsparcie długiego kontekstu pomaga w wnioskowaniu w jednym przebiegu nad dużymi korpusami.
  4. Inteligencja kodu i narzędzia agenta: Analiza monorepozytoriów, generowanie łatek i wykonywanie agentowych pętli wywołań narzędzi w kontrolowanych środowiskach.
  5. Aplikacje wielojęzyczne: Wysoki zasięg językowy dla produktów globalnych.

Jak uzyskać dostęp i zintegrować Qwen3.5-397B-A17B

Krok 1: Zarejestruj się, aby uzyskać klucz API

Zaloguj się do cometapi.com. Jeśli nie jesteś jeszcze naszym użytkownikiem, najpierw się zarejestruj. Zaloguj się do swojej CometAPI console. Uzyskaj poświadczenie dostępu — klucz API interfejsu. Kliknij “Add Token” przy tokenie API w centrum osobistym, pobierz klucz tokena: sk-xxxxx i wyślij.

Krok 2: Wyślij żądania do interfejsu API Qwen3.5-397B-A17B

Wybierz endpoint “Qwen3.5-397B-A17B”, aby wysłać żądanie API i ustaw ciało żądania. Metodę żądania i ciało żądania znajdziesz w naszej dokumentacji API na stronie. Nasza strona udostępnia także test Apifox dla Twojej wygody. Zamień <YOUR_API_KEY> na faktyczny klucz CometAPI z Twojego konta. Where to call it: Chat format.

Wstaw swoje pytanie lub prośbę do pola content — na to model odpowie. Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.

Krok 3: Pobierz i zweryfikuj wyniki

Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź. Po przetworzeniu interfejs API odpowiada statusem zadania i danymi wyjściowymi.

FAQ

Is Qwen3.5-397B-A17B available as open weights for local hosting and research?

Tak. Wagi Qwen3.5-397B-A17B są udostępnione na licencji Apache-2.0 w serwisach Hugging Face i ModelScope, a projekt udostępnia instrukcje wdrożenia dla Transformers, vLLM i SGLang.

What does the "A17B" suffix mean in Qwen3.5-397B-A17B?

A17B oznacza, że projekt rzadkiego trasowania modelu wykorzystuje około 17 miliardów aktywnych parametrów na token (aktywne eksperty), podczas gdy całkowita pojemność modelu wynosi około 397 miliardów parametrów.

What is the native context window and can I extend it for very long documents?

Model jest dostarczany z natywną długością sekwencji wejściowej wynoszącą 262 144 tokeny i zawiera udokumentowane metody rozszerzenia kontekstu do około 1 010 000 tokenów za pomocą skalowania YaRN/RoPE, w zależności od frameworka serwującego.

Which input modalities does Qwen3.5-397B-A17B support?

Jest to zunifikowany model vision-language wytrenowany z użyciem wczesnej fuzji; obsługiwane wejścia obejmują tekst, obrazy i tokeny wideo do multimodalnego rozumowania i generowania.

How does inference efficiency compare to a 17B dense model?

Obliczenia inferencyjne na token są podobne do modeli klasy gęstych 17B dzięki rzadkiemu trasowaniu MoE, ale artefakty modelu i wymagania pamięciowe są większe, ponieważ pełne wagi muszą być przechowywane i rozdzielane między urządzenia.

Features for qwen3.5-397b-a17b

Explore the key features of qwen3.5-397b-a17b, designed to enhance performance and usability. Discover how these capabilities can benefit your projects and improve user experience.

Pricing for qwen3.5-397b-a17b

Explore competitive pricing for qwen3.5-397b-a17b, designed to fit various budgets and usage needs. Our flexible plans ensure you only pay for what you use, making it easy to scale as your requirements grow. Discover how qwen3.5-397b-a17b can enhance your projects while keeping costs manageable.
Comet Price (USD / M Tokens)Official Price (USD / M Tokens)Discount
Input:$0.48/M
Output:$2.88/M
Input:$0.6/M
Output:$3.6/M
-20%

Sample code and API for qwen3.5-397b-a17b

Access comprehensive sample code and API resources for qwen3.5-397b-a17b to streamline your integration process. Our detailed documentation provides step-by-step guidance, helping you leverage the full potential of qwen3.5-397b-a17b in your projects.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.5-397b-a17b",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

More Models