F Lite — шаг в правильном направлении Опенсорсная модель основанная на лицензированном датасете в 80 миллионов изображений. Это очень актуально, учитывая насколько много сейчас вопросов к копирайту сгенеренных картинок. Технически это DiT с регистрами на 10 миллиардов параметров, тренировали его два месяца на 64 H100. Для тюнинга гиперпараметров использовался µP. Кстати, при тренировке использовали трюк по value-residual learning из спидранов тренировки GPT. Кроме основной модели, релизнули ещё и тюн для генерации текстур. Хоть и основная дифузионная часть была натренирована на данных к которым ни у кого претензий не будет, но VAE там от Flux Schnell, что поднимает вопросы. Надеюсь команда из Fal и Freepik натренирует и свой VAE, так как текущий сетап не избавляет от проблем с копирайтом. Хоть работы ещё много, ребята двигаются в правильную сторону. Демо Веса Код Техрепорт









NeuroVesti
F Lite — шаг в правильном направлении
Опенсорсная модель основанная на лицензированном датасете в 80 миллионов изображений. Это очень актуально, учитывая насколько много сейчас вопросов к копирайту сгенеренных картинок.
Технически это DiT с регистрами на 10 миллиардов параметров, тренировали его два месяца на 64 H100. Для тюнинга гиперпараметров использовался µP. Кстати, при тренировке использовали трюк по value-residual learning из спидранов тренировки GPT. Кроме основной модели, релизнули ещё и тюн для генерации текстур.
Хоть и основная дифузионная часть была натренирована на данных к которым ни у кого претензий не будет, но VAE там от Flux Schnell, что поднимает вопросы. Надеюсь команда из Fal и Freepik натренирует и свой VAE, так как текущий сетап не избавляет от проблем с копирайтом. Хоть работы ещё много, ребята двигаются в правильную сторону.
Демо
Веса
Код
Техрепорт
F Lite — шаг в правильном направлении
Опенсорсная модель основанная на лицензированном датасете в 80 миллионов изображений. Это очень актуально, учитывая насколько много сейчас вопросов к копирайту сгенеренных картинок.
Технически это DiT с регистрами на 10 миллиардов параметров, тренировали его два месяца на 64 H100. Для тюнинга гиперпараметров использовался µP. Кстати, при тренировке использовали трюк по value-residual learning из спидранов тренировки GPT. Кроме основной модели, релизнули ещё и тюн для генерации текстур.
Хоть и основная дифузионная часть была натренирована на данных к которым ни у кого претензий не будет, но VAE там от Flux Schnell, что поднимает вопросы. Надеюсь команда из Fal и Freepik натренирует и свой VAE, так как текущий сетап не избавляет от проблем с копирайтом. Хоть работы ещё много, ребята двигаются в правильную сторону.
Демо
Веса
Код
Техрепорт
Дата публикации: 30.04.2025 19:07