Wan 2.7-Image — новая модель генерации изображений от Alibaba Tongyi Lab, часть экосистемы Qwen. Tongyi (通义) — это зонтичный бренд AI-моделей Alibaba: Qianwen (LLM), Wanxiang (изображения), Bailing (аудио). Wan 2.7-Image — последнее обновление серии Wanxiang.
Если предыдущие версии Wan конкурировали с Midjourney по художественному качеству, то 2.7-Image сделала ставку на другое: точность и профессиональный контроль. Это модель для дизайнеров, которым важно попасть в брендбук, а не просто получить красивую картинку.
До 8 hex-кодов в одном запросе. Модель генерирует изображения строго в заданной цветовой схеме — без дрейфа в ненужные оттенки.
Многоязычный рендеринг (включая кириллицу и иероглифы) и математические формулы. Текст читаемый, без размытых букв и артефактов.
До 9 референсных изображений. Генерация серии из 12 кадров с одним и тем же персонажем в разных позах и сценах.
In-painting (заполнение выделенных областей), удаление фона с прозрачным PNG, перемещение и изменение размера объектов на уровне пикселей.
До Wan 2.7-Image бренд-контроль в AI-генерации выглядел примерно так: «попробуй описать синий цвет словами». «Тёмно-синий» интерпретировался по-разному в каждом запросе. Hex-код был просто текстом, который модель не понимала как цвет.
Wan 2.7-Image впервые обрабатывает hex-коды как реальные цветовые инструкции. Вы передаёте палитру вашего бренда — и модель генерирует изображение, строго придерживаясь этих цветов.
→ Модель генерирует изображение строго в этих цветах. Никакого «примерно оранжевого» — точный #FF9500.
Это особенно ценно для:
Это больная точка всех AI-генераторов. Попробуйте написать «Счастливого Нового Года» на картинке в Midjourney — получите кириллические иероглифы и кашу. GPT-4o с DALL-E справляется с латиницей, но кириллица и азиатские языки — всё ещё проблема.
Wan 2.7-Image заявляет многоязычный рендеринг текста как основную функцию, включая:
До сих пор AI-персонаж в разных изображениях выглядел как другой человек. Wan 2.7-Image решает это системно: вы загружаете до 9 референсных изображений персонажа, и модель генерирует серию из до 12 кадров, где персонаж визуально идентичен.
Применение:
Выделяете область на изображении → описываете что должно быть вместо неё → Wan 2.7-Image генерирует замену, органично вписанную в контекст. Работает лучше, чем Adobe Firefly на сложных фонах.
На выходе — PNG с альфа-каналом. Без зазубрин на краях, без белого фона. Для товарных карточек, стикеров, контента для маркетплейсов — это прямой рабочий инструмент.
Перемещение, изменение размера, редактирование отдельных объектов на изображении — прямо в интерфейсе. Уровень контроля, которого раньше можно было ожидать только от Photoshop.
| Функция | Wan 2.7-Image | Midjourney v7 | DALL-E 3 | Stable Diffusion 3.5 |
|---|---|---|---|---|
| Брендовая палитра (hex) | ✓ до 8 цветов | ✗ | ✗ | ~ через LoRA |
| Точный текст (кириллица) | ✓ | ✗ | ~ Латиница OK | ✗ |
| Консистентность персонажей | ✓ 9 рефер., 12 кадров | ~ --cref | ✗ | ~ IP-Adapter |
| In-painting | ✓ | ✓ | ✓ | ✓ |
| PNG с прозрачностью | ✓ | ✗ | ✗ | ✓ |
| Пиксельное редактирование | ✓ | ~ | ✗ | ~ |
| API доступ | ✓ | ~ ограниченно | ✓ | ✓ |
| Качество художественное | ★★★★ | ★★★★★ | ★★★★ | ★★★★ |
Wan 2.7-Image не заменяет Midjourney для чистого арта — там Midjourney по-прежнему лучший. Но для брендового контента и профессиональных задач Wan выигрывает по числу нужных функций в одном инструменте.
Читайте также: Google Veo 3.1 Lite для видеоконтента и PixVerse V6 для AI-видеомаркетинга — полный стек инструментов для визуального контента.
Настраиваем пайплайн генерации визуала с брендовой палитрой — от промптов до автоматической публикации в соцсетях.
→ Написать в Telegram