Make It Heavy — open-source мультиагентный AI-фреймворк против Grok 4 Heavy и подписочных рабств
Почему в 2025 году "AI по подписке" начинает раздражать даже айтишников
Вы наверняка замечали: всё больше топовых LLM-сервисов работают строго “по абонентке”. Заплатил $200–300 в месяц — пользуйся или не пользуйся, деньги всё равно уйдут. Вроде бы, удобно: не думаешь о лимитах, но с ростом выбора и количества моделей хочется гибкости, а не кредитки на автосписание.
Grok 4 Heavy от xAI — один из самых громких примеров. “Heavy-режим” — мультиагентная сборка, где сразу несколько копий LLM решают одну задачу, а оркестратор собирает консенсус. Мощно? Безусловно. Но если ты не enterprise с миллионными оборотами и не выкручиваешь тысячи задач в день, экономически это абсурдно.
Make It Heavy ломает этот шаблон: open-source, плата “по счётчику”, кастомизация под любую задачу и открытый код. Нет фиксированной абонентки, нет жёсткой привязки к одной модели или облаку — платишь только за реальные вычисления, которые идут через OpenRouter (или любую другую LLM-инфраструктуру, если “подвяжешь”).
Архитектура Make It Heavy: как оно работает внутри
Ключевая идея — мультиагентность с параллелизмом и прозрачной оркестрацией. На каждый сложный запрос система порождает сразу несколько независимых “голов” (агентов), каждый из которых получает свою роль и собственный toolkit:
-
Исследователь: Web search через DuckDuckGo, локальные файлы, внешние базы.
-
Аналитик: Анализ закономерностей, статистика, выявление трендов.
-
Оппонент: Критический анализ, поиск ошибок и уязвимостей.
-
Верификатор: Согласование результатов, перепроверка гипотез и финальная агрегация.
И всё это — с live feedback прямо в терминале: ты видишь, кто что делает, где тормозит, где поймано исключение.
Пример инициализации конфигурации (config.py
):
AGENT_COUNT = 4
TIMEOUT = 600
MODEL = "claude-3-opus"
API_KEY = "sk-..."
TOOLS_DIR = "./tools/"
Добавить нового агента — вопрос пары строк:
from agents import BaseAgent
class FinancialAnalystAgent(BaseAgent):
role = "finance"
tools = ["search", "calculate", "read", "write"]
Зарегистрировал — и в основном скрипте появится новый участник “команды”.
Установка и запуск: реальная боль или “plug-n-play”?
-
Клонируем репозиторий:
git clone https://github.com/Doriandarko/make-it-heavy cd make-it-heavy
-
Создаём изолированное окружение (через uv или venv):
uv venv source .venv/bin/activate
-
Ставим зависимости:
pip install -r requirements.txt
-
Правим
config.py
: Вбиваем свой API-ключ (OpenRouter, Groq, Together, LM Studio…), выбираем модель, количество агентов, timeout, инструменты. -
Запуск:
uv run main.py
-
Вводим запрос (пример):
"Сделать сравнительный анализ четырёх open-source LLM-фреймворков для research-задач"
-
Смотрим live-логи:
[Исследователь]: нашёл 27 релевантных ссылок [Аналитик]: выявил основные критерии сравнения [Оппонент]: оспорил достоверность трёх источников [Верификатор]: подготовил summary, указал противоречия
В чём реальный профит (и где грабли) по сравнению с Grok 4 Heavy
Параметр | Grok 4 Heavy | Make It Heavy |
---|---|---|
Цена | $300+/мес, фиксированно | только usage, от $0.05/час |
Open-source | Нет | Да |
Поддержка моделей | Только Grok | Любые (через OpenRouter) |
Мультиагентность | Да | Да |
Расширяемость | Нет | Любые свои агенты/тулы |
Интеграции | Только API | API, CLI, любые кастомы |
Ограничения | Много (закрытость) | Зависит от инфраструктуры |
На что надо обратить внимание:
-
OpenRouter не бесплатен: Все запросы уходят к третьей стороне, но ты видишь точные расходы по токенам (выбирай любую модель: GPT-4o, Claude 3.5, Llama 3, Kimi-K2 и т.д.). Хочешь ещё дешевле — поднимай локальный endpoint (LM Studio, Ollama).
-
Скорость: Зависит от скорости сети и отклика конкретных моделей. Для сложных запросов лучше закладывать увеличенные таймауты (иногда — десятки минут).
-
Безопасность: Все ключи хранятся локально, но при работе с sensitive-данными смотри, куда отправляешь запросы — всегда риск утечки через сторонние API.
-
Документация: Проект развивается быстро, но качество readme и inline-комментариев пока “для своих”.
Кейс 1: Code Review на стероидах
Пусть задача — провести ревью кода небольшого API на Python. Загружаем в папку проекта файлы, запускаем Make It Heavy с запросом:
"Провести глубокий код-ревью API для обработки персональных данных, выделить баги, дать рекомендации по безопасности и производительности"
В процессе лог выглядит так:
[Исследователь]: анализирует code style и ищет устаревшие паттерны
[Аналитик]: считает покрытие тестами, сравнивает с best practices
[Оппонент]: генерирует edge-cases, проверяет уязвимости
[Верификатор]: валидирует замечания, подытоживает рекомендации
== Итог:
- Обнаружено 3 бага в обработке ошибок
- Нет защиты от SQL-инъекций
- Тестовое покрытие 63%, рекомендуется поднять до 90%
Кейс 2: Анализ рынка — теперь “больше мнений”
Для клиента из SMB: анализируем тренды внедрения NextCloud в РФ. Запрос:
"Собрать сценарии внедрения NextCloud для SMB в России, выделить риски и прогнозы развития рынка"
[Исследователь]: собрал свежие новости, отчёты, отзывы на форумах
[Аналитик]: сделал сводку трендов (рост SaaS vs on-prem)
[Оппонент]: указал на недостатки open-source внедрений (кадры, поддержка)
[Верификатор]: сверил с данными из отчётов CNews, подготовил таблицу рисков
== Итог:
| Сценарий | Риски | Прогноз |
|----------------------|------------------------|-----------|
| Self-hosted | Кадровый голод | Рост 20% |
| SaaS | Юридические вопросы | Рост 40% |
| Фриланс-внедрение | Качество поддержки | Рост 10% |
Экономика: сколько реально стоит “тяжёлая” AI-работа
Всё зависит от выбранной модели. Например:
-
Claude 3.5 Sonnet — ~$0.003/1K токенов (output), ~$0.0015/1K (input)
-
GPT-4o — ~$0.005/1K токенов
-
Llama 3 — почти бесплатно (локально через LM Studio/Ollama)
Калькуляция (условно):
Один агент за сессию обрабатывает 30K токенов → 4 агента = 120K токенов →
На Sonnet: (120 x 0.003) = $0.36 за одну сложную задачу, против $300 за месяц подписки Grok.
Для проектных задач (раз в неделю) разница выходит на порядки!
Расширяемость и кастомизация: свои тулзы за вечер
Добавить свой тул:
-
Кидаем скрипт в
tools/
:
def parse_csv(file_path):
# парсим CSV, ищем аномалии
return anomalies_report
-
В конфиге прописываем, что этот тул доступен агенту DataScientistAgent.
-
Перезапускаем — готово, теперь можно делать анализ данных “на лету”.
Альтернативы, с чем сравнивать?
-
AutoGen (Microsoft): Сложнее, требует развертывания, но аналогичный подход мультиагентности.
-
CrewAI: Попроще для no-code, но не даёт такой кастомизации “на низком уровне”.
-
OpenInterpreter: Для интерактивных CLI задач, но слабее с research.
-
LangChain Agents: Можно собрать что-то похожее, но придётся городить пайплайн самому.
Когда Make It Heavy не подойдёт?
-
Нужно мгновенное решение “под ключ” без заморочек — выбирай Grok или аналоги, плати и забудь.
-
Есть жёсткие требования по интеграции с X/Twitter и другими приватными API (там, где нужен токен xAI).
-
Нет времени и желания ковыряться в Python — проще купить SaaS.
Лайфхаки и best practices
-
Миксуй быстрые и тяжёлые модели: Пиши workflow: сначала llama, потом Claude/GPT на финал.
-
Логируй расходы: Следи за usage через OpenRouter dashboard.
-
Пиши юнит-тесты для своих тулзов: Ошибка в одном агенте может “сломать” всё выполнение.
-
Используй локальные модели для внутренних задач: Особенно при работе с чувствительными данными.
Итоги: почему Make It Heavy реально “делает погоду” в 2025-м
-
Ты полностью управляешь своими расходами и архитектурой.
-
Можешь быстро адаптировать фреймворк под любые нестандартные задачи.
-
Порог входа — минимальный для айтишника: Python, venv, API-ключ.
-
Идеально для SMB, консультантов, тех, кто ценит экономию и гибкость.
AI больше не роскошь. Make It Heavy — это рабочая лошадка для тех, кто не хочет быть вечным подписчиком.
“Мультиагентные системы станут стандартом для всех, кто хочет выйти за рамки банальных задач в AI.”
— Из паблика Progressive OS
Репозиторий: github.com/Doriandarko/make-it-heavy
Видео-обзор: ищите на YouTube “Make it Heavy Grok analog”
Статья написана на основе реального опыта запуска и тестов Progressive OS. Любые вопросы — пишите в Telegram @progressiveos