Ring-1T: Триллион-параметровая "мыслящая" модель от Ant Group
Ring-1T: Триллион-параметровая "мыслящая" модель от Ant Group

1. Введение
Всего через десять дней после выпуска Ling-1T Ant Group снова оказалась в центре внимания, представив Ring-1T — первую в мире открытую триллион-параметровую "мыслящую" модель.
В отличие от Ling-1T, ориентированной на общее понимание языка, Ring-1T создана специально для глубоких рассуждений и логического мышления. Во внутренних тестах на задачах Международной математической олимпиады (IMO) модель показала результаты уровня серебряной медали, что стало огромным прорывом для открытого ИИ.
В этой статье мы расскажем об уникальных особенностях Ring-1T, её производительности и — самое главное — как установить, запустить и экспериментировать с этой революционной "мыслящей" моделью.
2. Что такое Ring-1T?
Ring-1T — это открытая "мыслящая" большая языковая модель, разработанная командой Bailing AI из Ant Group.
Она построена на триллион-параметровой архитектуре Mixture-of-Experts (MoE) — это означает, что для каждого токена активируется лишь небольшое подмножество экспертов (около 50 млрд активных параметров), что значительно повышает эффективность вывода.
Модель выходит за рамки стандартных LLM, интегрируя обучение с подкреплением, ориентированное на рассуждения:
- RLVR (Reinforcement Learning from Verifiable Rewards): обучает модель проверять цепочку рассуждений.
- RLHF (Reinforcement Learning from Human Feedback): балансирует точность рассуждений и естественность языка.
Эти методы поддерживаются собственными разработками Ant:
- Алгоритм IcePop ("Фруктовый лед") — фильтрует нестабильные градиенты для стабилизации обучения на триллионном масштабе.
- Фреймворк ASystem RL — управляет распределённым планированием GPU, оценкой вознаграждений и выполнением в серверных песочницах.
🔗 Страницы модели
3. Ключевые особенности
Триллион-параметровая архитектура MoE
- Использует разреженную активацию для высокой эффективности при беспрецедентной способности к рассуждениям.
Усиленное обучением с подкреплением мышление
- RLVR позволяет строить многошаговые логические цепочки с проверкой.
Мировой уровень в математике и программировании
- Достигла уровня серебряной медали IMO; решила 5/6 задач финала ICPC World Finals 2025.
Стабильное обучение с подкреплением благодаря IcePop
- Контролирует "температуру" обучения, предотвращая взрыв или затухание градиентов.
Инфраструктура ASystem
- Поддерживает распределённое обучение с подкреплением на триллионном масштабе с peer-to-peer синхронизацией GPU.
4. Как установить и использовать Ring-1T
Вы можете легко опробовать Ring-1T через HuggingFace, ModelScope или OpenRouter API.
Способ 1 — HuggingFace + Transformers
pip install transformers accelerate vllm
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "inclusionAI/Ring-1T"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, device_map="auto", torch_dtype="auto")
prompt = "Prove: if f(x) is an odd function and f(x)+f(1-x)=0, find f(1/2)"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Способ 2 — OpenRouter API
curl https://openrouter.ai/api/v1/chat/completions \
-H "Authorization: Bearer YOUR_API_KEY" \
-H "Content-Type: application/json" \
-d '{
"model": "inclusionAI/ring-1t",
"messages": [{"role": "user", "content": "Write a simple Flappy Bird game in Python"}]
}'
Способ 3 — ModelScope (локальный запуск)
pip install modelscope
from modelscope import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("inclusionAI/Ring-1T", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("inclusionAI/Ring-1T")
inputs = tokenizer("Generate a simple Snake game with scoring and pause function", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=300)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
5. Производительность
Модель | Параметры | Рассуждения (ARC-AGI-v1) | Математика (AIME25) | Код (LiveCodeBench) | Общий рейтинг (Arena-Hard-v2) |
---|---|---|---|---|---|
Ring-1T | 1 T | Лучшая среди открытых | ≈ Серебро IMO | Высокий | 2 место, сразу после GPT-5-Thinking |
Ling-1T | 1 T | Хорошо | Средне | Хорошо | 3 уровень |
DeepSeek-V3.1 | 671 B | Высокий | Высокий | Высокий | 2 уровень |
Gemini-2.5-Pro | N/A | Высокий | Высокий | Высокий | Лучшие среди закрытых |
GPT-5-Thinking (High) | N/A | Лучший | Лучший | Лучший | 1 уровень |
6. Советы по использованию
Используйте подсказки для рассуждений
Добавляйте инструкции вроде "Думай шаг за шагом" или "Проверь каждый шаг рассуждений" для более точных ответов.Используйте длинный контекст
Поддерживает до 128 тыс. токенов — идеально для научных статей, кодовых баз или наборов данных для рассуждений.Поддержка языков
Лучше всего работает с английским и китайским. Многоязычные рассуждения пока в оптимизации.Рекомендации по оборудованию
Минимум: 48 GB видеопамяти GPU (A100/H100/L40S)
Для эффективности используйте вывод в FP8 или bfloat16.
7. Тестирование в реальных задачах
В ходе тестов Ring-1T успешно создала работающий клон Flappy Bird на HTML и JavaScript — с анимацией, обнаружением столкновений и системой очков.
В логических задачах модель демонстрирует человекообразный поток рассуждений: формулирует предположения, проверяет логику и даёт структурированные объяснения.
В творческом письме Ring-1T сгенерировала сценарий подкаста о политическом конфликте Су Ши и Чжан Дуня, сочетая историческую точность с художественным стилем — включая даже предложения по звуковым эффектам.
8. Заметки редактора
Если вы:
Исследователь → Ring-1T предлагает богатый материал для изучения RLHF, усиленного рассуждениями.
Разработчик → Отлично подходит для образовательных, логических или математических приложений.
Контент-мейкер → Надёжна для длинных нарративов и интерактивного письма.
Ring-1T доказывает, что открытые модели теперь могут напрямую конкурировать с закрытыми гигантами вроде GPT-5.
Хотя небольшие проблемы вроде смешения языков и самосогласованности остаются, её триллион-параметровая архитектура и открытая доступность знаменуют новую веху в экосистеме открытого ИИ.
9. Частые вопросы
В1: Чем Ring-1T отличается от Ling-1T?
A: Ling-1T — это модель общего назначения, а Ring-1T оптимизирована для глубоких рассуждений, логического анализа и решения математических задач.
В2: Какое оборудование нужно для запуска?
A: Минимум 48 GB видеопамяти GPU (A100/H100/L40S). Для систем с меньшим объёмом VRAM рекомендуется распределённый вывод через vLLM или DeepSpeed.
В3: Можно ли запустить на CPU?
A: Технически да, но очень медленно. Лучше использовать облако с GPU (например, LightNode, AWS или RunPod).
В4: Поддерживает ли китайский язык?
A: Да. Ring-1T работает с вводом на английском и китайском, демонстрируя стабильную производительность в рассуждениях на китайском.
В5: Это полностью открытая модель?
A: Да — веса и конфигурации доступны по открытой лицензии на HuggingFace и ModelScope.
В6: Как получить более точные выводы в рассуждениях?
A: Добавляйте структурированные подсказки вроде "Объясни свои рассуждения шаг за шагом" или "Проверь каждый шаг логически".
В7: Можно ли использовать коммерчески?
A: Да. Модель открыта и может использоваться в академических, исследовательских и коммерческих целях согласно указанной лицензии.