Есть момент, когда рынок перестаёт просто реагировать на спрос и начинает его формировать. Именно это сейчас происходит в сегменте компактных персональных компьютеров: производители мини-ПК один за другим выстраиваются в очередь, чтобы объявить о поддержке платформы OpenClaw, а инженеры Phison Electronics спокойно переписывают базовые представления о том, чем вообще является "оперативная память" в контексте локального ИИ-инференса. Это не маркетинговый шум. Это перестройка архитектурных приоритетов, которая идёт прямо сейчас.

OpenClaw появился в конце 2025 года под именем ClawdBot и за несколько недель собрал более 190 000 звёзд на GitHub. Платформа позиционируется не как очередной чат-бот в браузере, а как всегда активный цифровой агент, который живёт на собственном железе пользователя, общается через мессенджеры, выполняет задачи в фоне, запускает скрипты, мониторит директории и сам инициирует диалог, если что-то требует внимания. Именно этот режим постоянной работы превратил мини-ПК в предпочтительную аппаратную платформу для агентов, а производителей компактных систем заставил срочно переосмыслить свои линейки.

Что за платформа Intel Panther Lake и почему все вдруг к ней пришли

Флагманские мини-ПК нового поколения строятся на Intel Core Ultra серии 3, внутреннее кодовое название которого Panther Lake. Этот чип производится по техпроцессу Intel 18A с транзисторами типа RibbonFET и технологией подачи питания через тыльную сторону кристалла, известной как PowerVia. Проще говоря, это первый потребительский мобильный процессор Intel в классе суб-2нм-архитектур, и он позволяет упаковать в компактный корпус производительность, которая ещё пару лет назад требовала полноразмерного десктопа.

Топовый вариант чипа, Core Ultra X9 388H, объединяет 16 ядер в конфигурации 4 P-ядра + 8 E-ядер + 4 LP-E-ядра с тактовой частотой до 5,1 ГГц. Интегрированная графика Intel Arc B390 включает 12 ядер архитектуры Xe3, поддерживает DirectX 12 Ultimate, аппаратный рейтрейсинг и AI-апскейлинг XeSS 3, а по ряду тестов вплотную приближается к мобильной Nvidia RTX 4050. Но ключевой цифрой для рынка ИИ стали 180 TOPS совокупной вычислительной мощности, которую чип достигает за счёт объединения ресурсов CPU, GPU и выделенного нейронного процессора NPU. Для сравнения: конкурирующая платформа AMD Ryzen AI Max+ 395 выдаёт около 120 TOPS, то есть разрыв составляет примерно 50%.

Именно вокруг этой платформы и разворачивается новый цикл анонсов. Компания Minisforum в марте 2026 года представила EliteMini M2 Pro на основе Core Ultra X9 388H с поддержкой памяти до 96 ГБ со скоростью 9600 МТ/с. Устройство позиционируется как самый мощный мини-ПК в истории бренда и сразу же объявлено совместимым с OpenClaw. Аналогичный путь выбрала GMKtec, которая ещё на CES 2026 в Лас-Вегасе показала EVO-T2, и сам генеральный директор Intel Лип-Бу Тан лично посетил стенд компании, расписался на прототипе и охарактеризовал устройство как эталон для демонстрации возможностей локального ИИ-инференса. Следом подтянулись Minisforum N5 Max и GMKtec Evo-X2.

GMKtec EVO-T2 и то, чем она отличается от остальных

Среди всех анонсированных в этом цикле устройств GMKtec EVO-T2 выделяется не столько показателями производительности, сколько подходом к памяти. Спецификации устройства выглядят на бумаге ровно так, как и должны: до 64 ГБ LPDDR5X-8533, два слота M.2 с поддержкой PCIe Gen5 (скорость последовательного чтения свыше 10 ГБ/с) и Gen4, USB4 с пропускной способностью 40 Гбит/с и поддержкой питания 100 Вт, порт OCuLink для подключения внешней GPU, двухпортовая сетевая конфигурация 10GbE плюс 2,5GbE, Wi-Fi 7 и Bluetooth 5.4. Четыре монитора 4K одновременно. Хранилище до 16 ТБ.

Однако инженерное любопытство вызывает другое: GMKtec совместно с Phison Electronics интегрировала в устройство технологию aiDAPTIV+. Это система динамического расширения памяти, которая распределяет рабочие нагрузки между обычной DRAM и накопителем, позволяя сегментировать языковые модели при выполнении инференса. Активные слои модели обрабатываются на GPU, тогда как менее востребованные в данный момент части размещаются в SSD-подсистеме. Именно эту архитектуру в технических материалах называют термином "pseudo-memory", то есть псевдо-память.

В практических единицах это означает следующее: EVO-T2 заявлена как способная запускать модели с параметризацией до 70 миллиардов весов локально, без облака. Для понимания масштаба, восьмимиллиардная модель в формате 4-битного квантования уже требует около 6 ГБ только для загрузки весов, плюс операционная система потребляет ещё порядка 4 ГБ, плюс контекстное окно самого агента. Семидесятимиллиардная модель в стандартном fp16 вообще не помещается ни в одну конфигурацию обычной памяти мини-ПК. Именно здесь и включается aiDAPTIV+.

Псевдо-память как ответ на системный кризис DRAM

Чтобы понять, зачем вообще нужно изобретать "псевдо-память", достаточно посмотреть на рынок DRAM в 2025–2026 годах. Крупнейшие гиперскейлеры, строящие ИИ-инфраструктуру, перетягивают производственные мощности на себя с такой силой, что DRAM-цены выросли примерно на 50% за 2025 год, а аналитики IDC предупреждают о сокращении рынка персональных компьютеров на 5–9% в 2026 году именно из-за дефицита памяти. Производство HBM в пересчёте на эквивалентные пластины потребляет в четыре раза больше ресурсов фабов, чем обычный DRAM, что структурно выдавливает потребительские компоненты из приоритетов заводов.

Главный исполнительный директор Phison Пуа Кхейн Сенг сформулировал суть проблемы без обиняков: "В моделях ИИ настоящим узким местом является не вычислительная мощность, а память. Если памяти не хватает, система падает." Phison ответила на это созданием технологии aiDAPTIV, которая превращает NAND-накопители в дополнительный уровень рабочей памяти для ИИ. На Nvidia GTC 2026 компания показала, как многоуровневая архитектура памяти поддерживает выполнение моделей с длинным контекстом и агентные AI-сценарии с повторным использованием KV-кэша непосредственно на платформах с интегрированным GPU.

Принципиально важно: это не то же самое, что старый добрый swapping, когда операционная система скидывает данные на диск из-за нехватки RAM, после чего производительность инференса падает на 90% и агент "застывает". AiDAPTIV+ управляет распределением нагрузки активно, с учётом специфики матричных операций ИИ, не ожидая давления со стороны ОС. Принцип напоминает то, как кеш L2 работает между L1 и основной памятью в процессоре: каждый уровень существует затем, чтобы снизить стоимость доступа к следующему.

Честная оговорка, которую не прячут даже сторонники EVO-T2: долгосрочные последствия для производительности при устойчивых нагрузках независимо не верифицированы. Заявление GMKtec о том, что система "эффективно прорывает ограничения традиционной DRAM", требует подтверждения в реальных бенчмарках. NAND-флеш обладает значительно более высокой задержкой, чем LPDDR5X, и любая задержка на уровне "холодного" обращения к модельным весам скажется на итоговой скорости генерации токенов. Насколько aiDAPTIV+ смягчает этот эффект умной предвыборкой, покажут независимые тесты.

Гибридный режим и вопрос безопасности OpenClaw

Minisforum предлагает для своих устройств концепцию, которую компания называет "гибридным режимом OpenClaw". Суть проста: чувствительные данные обрабатываются исключительно на устройстве, в локальную модель, и никогда не покидают корпус мини-ПК. Облачные ресурсы подключаются лишь тогда, когда пользователь явно одобряет конкретный запрос и когда задача превышает возможности локального инференса. Интерфейс агента при этом сохраняется полностью, включая возможность взаимодействия с внешними системами.

Картину усложняет то, что как китайское правительство, так и Microsoft публично предупредили о выявленных уязвимостях в OpenClaw. Программный комплекс содержит известные бреши, которые потенциально могут быть использованы для доступа к конфиденциальным данным, а в репозиториях на GitHub зафиксированы случаи распространения вредоносного ПО через экосистему платформы. Microsoft прямо рекомендовала не устанавливать OpenClaw на типовые персональные или корпоративные системы.

Реакция Minisforum была примечательной: компания объявила, что рассматривает переход от предустановки OpenClaw по умолчанию к модели opt-in, где пользователь самостоятельно принимает решение об установке. "Наша цель при предустановке OpenClaw состояла в том, чтобы предложить немедленный опыт использования локального ИИ, защищающий данные от облака. Однако мы слышим опасения относительно предустановки стороннего ПО и понимаем, что для наших пользователей "локальный" должен также означать "доверенный"", — отметила пресс-служба Minisforum. GMKtec на момент публикации придерживалась предустановки, хотя и сопроводила её собственным AI-окружением GMKtec Claw как альтернативой.

Что OCuLink изменяет в логике компактных ИИ-узлов

Отдельного внимания заслуживает порт OCuLink, который теперь встречается сразу в нескольких устройствах нового поколения, включая EVO-T2 и различные Panther Lake системы от сторонних вендоров. OCuLink передаёт PCIe-сигналы напрямую через внешний разъём без потерь полосы пропускания, характерных для Thunderbolt 4. Это позволяет подключить к мини-ПК внешний GPU в боксе eGPU и получить полноценный десктопный графический ускоритель там, где корпус не позволяет разместить дискретную карту.

Для ИИ-инференса это означает принципиально иной сценарий масштабирования: купить базовый мини-ПК, запустить агент на интегрированном Arc B390, убедиться, что конкретный рабочий сценарий стабилен, а затем докупить eGPU-бокс с RTX 5060 Ti или старше, не меняя основного устройства. Именно так описывает свой подход ACEMAGIC в документации к F5A: порт OCuLink предназначен не для сегодняшнего дня, а для завтрашнего масштабирования, когда текущего объёма вычислений окажется недостаточно.

Связка 10GbE + OCuLink + USB4 превращает мини-ПК в нечто большее, чем просто компактный рабочий стол. Это полноценный высокопроизводительный ИИ-узел на краю сети, способный получать данные с гигабитной скоростью, обрабатывать их локально и при необходимости масштабироваться за счёт внешнего GPU. Не случайно производители прямо говорят о применении этих устройств как edge-серверов, компактных узлов виртуализации или высокоскоростных сетевых хранилищ одновременно.

Реальные требования к памяти и почему 16 ГБ уже не граница

Разговор о памяти в контексте OpenClaw стоит закончить конкретными числами, потому что рыночная реальность здесь сильно расходится с маркетинговыми минимумами. Восьмигигабайтная конфигурация работает только в сценариях, где сам OpenClaw подключается к облачным API как Claude или GPT-4, а на устройстве выполняется лишь логика агента и браузерная автоматизация. Шестнадцать гигабайт является нижней границей для устойчивой работы с локальной 8B-моделью при одновременно активной операционной системе. Тридцать два гигабайта дают реальную свободу маневра при запуске нескольких браузерных сессий и агентских процессов параллельно.

Для моделей класса 70B без aiDAPTIV+ локальный инференс на мини-ПК просто недоступен физически. Именно поэтому появление псевдо-памяти следует воспринимать не как маркетинговый трюк, а как попытку решить реальную инженерную задачу на аппаратуре, где физический объём DRAM принципиально ограничен форм-фактором и энергетикой.

Рынок мини-ПК, ориентированных на локальный ИИ, проходит точку невозврата. Устройства перестают быть "достаточно хорошими для опытов" и становятся серьёзным инструментом для разработчиков, исследователей и всех, кто не готов отдавать чувствительные данные облачным провайдерам. Что именно получится из эксперимента с псевдо-памятью, покажут независимые тесты под реальной нагрузкой. Но сам вопрос задан правильно.