Чудо 3

Вопросы про локальный ИИ и Чудо 3

36 вопросов в 5 разделах. Если не нашли ответ — напишите на zakaz@choodo3.ru.

Выбор и покупка

Что такое Чудо 3 и чем отличается от обычного компьютера?

Чудо 3 — готовый компьютер для нейросетей с предустановленным софтом: Ollama, Open WebUI, n8n, Qdrant, PostgreSQL, Nginx. Включаете, открываете браузер — и сотрудники работают с ИИ. Без облака, без подписок, без отправки данных наружу. На обычном ПК настройка займёт дни: подбор драйверов, установка CUDA, Docker, связка шести сервисов. В Чудо 3 всё настроено и протестировано.

Какой компьютер нужен для запуска нейросети?

Для запуска LLM критичны три параметра: видеопамять (VRAM), мощный процессор и быстрый SSD. Минимум для рабочих задач — 8 ГБ VRAM, 32 ГБ RAM, SSD от 512 ГБ. На практике для команды из 5+ человек нужно больше.

16 конфигураций — как выбрать подходящую?

Для малого офиса (3–5 человек, генерация текстов, суммаризация) достаточно начальных конфигураций — Apple Silicon или Compact. Для юридического отдела банка или клиники, где работают десятки сотрудников с большими документами, нужны GPU-конфигурации с большим объёмом VRAM. Для генерации изображений и видео — линейка AI Studio. Напишите нам — поможем подобрать конфигурацию бесплатно.

Почему цены начинаются от 265 200 ₽? Это дорого?

Сравните: облачная подписка на ИИ для команды стоит от $25 до $30 за сотрудника в месяц (ChatGPT Team, Claude Team). Для 10 человек — от 20 000 до 24 000 ₽/мес при курсе ~80 ₽/$. Младшие конфигурации Чудо 3 окупаются за 11–13 месяцев. После этого основные затраты — электричество. Плюс вы не зависите от курса доллара на подписку и полностью контролируете свои данные.

Можно ли купить в рассрочку или по безналичному расчёту для юрлица?

Да. Мы работаем с юридическими лицами и ИП по безналичному расчёту с полным комплектом закрывающих документов. Уточните условия рассрочки у менеджера на сайте choodo3.ru.

Есть ли гарантия и какой срок?

Да. Гарантийные сроки зависят от конфигурации и прописываются в договоре. На отдельные комплектующие (SSD, оперативная память) может действовать расширенная гарантия производителя. Техподдержку по программной части оказываем после покупки.

Техника и характеристики

Сколько VRAM нужно для запуска нейросети?

Зависит от размера модели и степени квантизации. Ориентиры для квантизованных моделей (Q4): 7B параметров (Mistral 7B, Llama 3 8B) — от 6 ГБ VRAM; 13–14B — от 10 ГБ; 30–34B — от 20 ГБ; 70B — от 40 ГБ. Для работы без квантизации (FP16) нужно примерно вдвое больше. Конфигурации Чудо 3 покрывают весь этот диапазон.

Сколько оперативной памяти нужно для LLM?

Рекомендуем минимум 32 ГБ RAM для комфортной работы с одной моделью и 64–128 ГБ, если планируете параллельный запуск нескольких моделей или RAG-пайплайн с базой данных. Все конфигурации Чудо 3 уже содержат достаточный объём RAM.

Какие нейросети можно запустить на Чудо 3?

Любые open-source модели, доступные через Ollama: Llama 3, Mistral, Gemma, Phi, Command R, DeepSeek, Qwen и сотни других. Новые модели появляются каждую неделю, и вы можете добавлять их самостоятельно одной командой.

Можно ли запустить аналог ChatGPT локально на Чудо 3?

Да, именно для этого станция и создана. Open WebUI — это интерфейс, визуально похожий на ChatGPT, который работает полностью локально. Ваши сотрудники открывают браузер, заходят по внутреннему адресу и общаются с ИИ — без интернета и без отправки данных куда-либо.

Какие минимальные требования для запуска нейросети на своём компьютере?

Минимум — видеокарта с 8 ГБ VRAM (NVIDIA), 16 ГБ RAM, SSD от 256 ГБ. Но для бизнес-задач (работа нескольких сотрудников, длинные документы, RAG) этого не хватит. Младшая конфигурация Чудо 3 рассчитана на реальную рабочую нагрузку, а не на эксперименты.

Справится ли станция с обработкой документов на русском языке?

Да, но качество зависит от модели. Qwen и DeepSeek изначально обучены на многоязычных данных и хорошо справляются с русским. Llama 3 ориентирована на английский — по-русски работает заметно слабее, особенно в малых размерах (7–8B). Для задач на русском рекомендуем модели от 14B и выше, в первую очередь Qwen или DeepSeek.

Сколько сотрудников могут работать одновременно?

Зависит от конфигурации, размера модели и длины запросов. LLM генерирует ответы последовательно, поэтому при одной GPU запросы обрабатываются по очереди. Ориентиры при использовании моделей до 14B с короткими запросами: начальные конфигурации — 3–5 человек, старшие GPU-конфигурации — до 10–15 одновременных пользователей. Если нагрузка вырастет — можно добавить вторую станцию в сеть.

Настройка и поддержка

Нужно ли нанимать программиста для настройки?

Для базового использования — нет. Станция приходит настроенной: включаете, подключаете к локальной сети — и сотрудники заходят через браузер. Интерфейс Open WebUI понятен любому, кто пользовался ChatGPT. Для продвинутых сценариев (настройка RAG, автоматизации, интеграция с внутренними системами) может потребоваться помощь технического специалиста или нашей поддержки.

Что если мне нужна помощь после покупки?

Техподдержка по программной части входит в каждый пакет услуг. Поможем добавить новую модель, настроить поиск по документам, подключить автоматизацию. Дополнительная сессия поддержки (1,5 часа) — 4 500 ₽, дополнительное обучение (3 часа) — 10 800 ₽.

Как обновлять нейросети, если станция работает без интернета?

Есть два варианта. Первый — временно подключить станцию к интернету, обновить модели одной командой и снова отключить. Второй — скачать файлы моделей на внешний диск с другого компьютера и перенести на станцию.

Можно ли добавить свои данные, чтобы нейросеть отвечала по базе знаний компании?

Да. Вы загружаете документы (PDF, DOCX, TXT), система индексирует их, и нейросеть начинает отвечать с опорой на вашу базу знаний. Это называется RAG. Open WebUI поддерживает загрузку документов через интерфейс. Для качественных результатов на больших базах может потребоваться настройка — в этом поможет наша поддержка.

Можно ли интегрировать Чудо 3 с внутренними системами (1С, CRM, почта)?

Да, через n8n — визуальный конструктор автоматизаций. Есть готовые коннекторы к популярным сервисам (почта, мессенджеры, Telegram). Для интеграции с 1С или специфическими CRM потребуется настройка через API. Такую интеграцию лучше доверить техническому специалисту.

Что если через год выйдут модели мощнее — станция устареет?

Нет. Тренд в индустрии — модели становятся эффективнее при тех же размерах. Чудо 3 — стандартное оборудование, которое работает с будущими моделями, если они помещаются в имеющуюся видеопамять. Модели среднего размера, которых достаточно для большинства бизнес-задач, будут работать ещё долго.

Станция шумная? Можно ли поставить её в офисе?

Зависит от конфигурации. Компактные модели (Apple Silicon, GMKtec, Beelink) работают тихо — их можно ставить на рабочий стол. GPU-станции под нагрузкой громче: 50–70 дБ. Такие станции лучше размещать в серверной. Сотрудники подключаются по сети через браузер — физически находиться рядом не нужно.

Какие у станции габариты и куда её ставить?

Компактные модели (Mac Mini, GMKtec, Beelink) — размером с книгу. GPU-станции — формат Mid-Tower, помещаются под стол. Для размещения нужна розетка, подключение к локальной сети и вентиляция.

Что будет, если станция сломается?

На время ремонта ИИ-функции будут недоступны. Данные хранятся на дисках и при типичных поломках не затрагиваются. Рекомендуем делать регулярные бэкапы на внешний диск — мы предоставляем инструкцию. Для критичных процессов стоит рассмотреть вторую станцию как резерв.

Безопасность и закон

Данные точно не уходят в облако?

Да. Станция работает полностью автономно — без интернета. Все вычисления происходят на вашем оборудовании, в вашем офисе. Ни один запрос, ни один документ не покидает периметр сети.

Подходит ли Чудо 3 для работы с персональными данными по 152-ФЗ?

Чудо 3 устраняет главный риск — передачу персональных данных третьим лицам. Все данные обрабатываются локально, без облачных сервисов. Это упрощает выполнение требований 152-ФЗ, так как вы полностью контролируете хранение и обработку данных.

Можно ли использовать Чудо 3 в организациях с NDA?

Именно для таких случаев станция и создана. Юридические фирмы, клиники, банки, госструктуры — везде, где данные не должны покидать организацию, Чудо 3 позволяет использовать ИИ без компромиссов в безопасности.

Используются ли наши запросы для обучения моделей?

Нет. Локальные модели работают автономно и не отправляют данные. Запросы, документы и ответы остаются на вашей станции. Дообучение на ваших данных не происходит.

Что если сотрудник случайно подключит станцию к интернету?

Софт продолжит работать в штатном режиме. На наших станциях телеметрия отключена при настройке. Для дополнительной защиты рекомендуем настроить файрвол на уровне маршрутизатора.

Нужна ли лицензия на используемое ПО?

Большинство предустановленного ПО распространяется по открытым лицензиям (MIT, Apache 2.0, BSD) и свободно для коммерческого использования. Для типичного сценария (использование внутри компании) проблем нет.

AI Studio — генерация визуального контента

Что такое AI Studio и чем отличается от обычных конфигураций?

AI Studio — отдельная линейка станций, заточенная под генерацию изображений, а не обработку текста. Основная конфигурация Чудо 3 оптимизирована для языковых моделей: чат, анализ документов, автоматизации. AI Studio рассчитана на генерацию картинок, иллюстраций, концептов, маркетинговых визуалов.

Какой софт предустановлен в AI Studio?

ComfyUI — основной интерфейс с нодовой системой для гибких рабочих процессов. Также устанавливаем Fooocus — упрощённый интерфейс для быстрой генерации без сложных настроек. Оба инструмента работают локально, без интернета.

Какие модели для генерации изображений поддерживаются?

Предустановлены SDXL — проверенная модель с огромной библиотекой дообученных версий, и Flux.1 Schnell — быстрая модель с открытой лицензией. Вы можете добавлять новые модели самостоятельно.

Сколько VRAM нужно для генерации изображений?

Меньше, чем для языковых моделей. SDXL комфортно работает на 8 ГБ VRAM. Flux требует 12–16 ГБ. Для комфортной работы рекомендуем 16–24 ГБ VRAM.

Сколько времени занимает генерация одного изображения?

SDXL на карте с 12 ГБ VRAM генерирует изображение 1024×1024 за 5–15 секунд. Flux работает медленнее — 15–40 секунд, но даёт более высокое качество. На старших конфигурациях время сокращается в 2–3 раза.

Можно ли генерировать видео локально?

Локальная генерация видео находится на ранней стадии. Open-source модели заметно уступают облачным сервисам. Предустановим инструменты по запросу, но рекомендуем рассматривать их как экспериментальные.

Кому подходит AI Studio?

Маркетинговым отделам, дизайн-студиям, рекламным агентствам, контент-командам — всем, кому нужно быстро создавать визуалы без подписки на облачные генераторы и без отправки брифов третьим лицам.

Нужны ли навыки дизайнера для работы с AI Studio?

Для базовой генерации — нет. Fooocus позволяет получать изображения, просто описав словами, что нужно. ComfyUI сложнее, но даёт гораздо больше контроля. Базовые сценарии осваиваются за день.