

Потреблението на големи езикови токени наскоро нарасна. Според последните данни от OpenRouter, използването на токени в основните модели отбеляза значително увеличение от края на януари 2026 г. През седмицата от 9 до 15 февруари китайските модели надминаха своите колеги в САЩ за първи път с 4,12 трилиона изразходвани токени в сравнение с 2,94 трилиона за моделите в САЩ. Следващата седмица (16-22 февруари) китайските модели нараснаха допълнително до 5,16 трилиона токена, което е увеличение от 127% за три седмици, докато потреблението на модела в САЩ спадна до 2,7 трилиона токена.
Сред първите пет модела на платформата четири са от китайски разработчици: M2.5 на MiniMax, Kimi K2.5 на Moonshot AI, GLM-5 на Zhipu и V3.2 на DeepSeek, които общо представляват 85,7% от общото потребление сред първите пет. MiniMax M2.5 беше особено забележителен, оглавявайки класацията за популярност на OpenRouter в рамките на 12 часа след пускането и водейки потреблението на токени в рамките на седмица, достигайки 3,07 трилиона токена – надминавайки комбинираната сума на Kimi K2.5, GLM-5 и DeepSeek V3.2.
Анализаторите отдават този скок на два фактора: увеличеното навлизане на AI приложения по време на Пролетния фестивал и широкото внедряване на сценарии на AI агенти, които значително увеличават потреблението на токени за задача. OpenRouter потвърди значително нарастване на търсенето на генериране на дълги текстове през последните седмици, като MiniMax M2.5 води в диапазона от 100K до 1M токени – типичен сценарий на потребление за работни потоци на агенти.
CITIC Securities отбелязва, че сценариите за прилагане на AI се развиват от обикновени разговори до мултимодални и способности на AI агенти, причинявайки експоненциално нарастване на потреблението на токени за задача, отразявайки експоненциалното разширяване на търсенето на AI изводи.
Източник: CLS AI Daily
Source link
Like this:
Like Loading…
Нашия източник е Българо-Китайска Търговско-промишлена палaта



