Планирую попробовать генерацию на арендованной видяхе в облаке, но перед этим хотелось бы знать, на какое время генерации я могу рассчитывать если все максмально оптимизировать? 480p, 5 секунд, использовать планирую wan2.1-t2v-14b-Q3_K_M.gguf Чего можно добиться, например, на 4090? брать планирую H100
>>1270283 >до платных сеток всё равно далеко Ну да, выдавать "извините, я не могу выполнить этот запрос" на все мои генерации могут не только лишь все.
>>1270221 Разве quantized wan не>>1270221 >Если с lightx2v, то около 2 минут на 4060 16GB, 4 шага, с блоксвапом от 12 до 20. >>wan2.1-t2v-14b-Q3_K_M.gguf >А это нахуя. Чтобы генерации быстрее были, или это не играет роли?
>>1267530 → 4 шага это совсем бомж вариант? Сколько нужно чтобы получить что-то подобное этому?
ставил wan2.1 в комфи месяца два назад, 720р видосик генерился 40 минут, забил хуй и начал генерить картинки через FLUX
сегодня наткнулся на Wan2GP репо, поставил triton, sage attention 2, Wan2.1 text2video FusioniX 14B модель на 8 шагов, и это даже без лоры на ускоренную генерацию
в итоге 720р генерит за 150 секунд сказать что я ахуел не сказать, мало того качество ахуенное, нет баганого видоса каждую генерацию, конфетка >>1270094 → >>1270879 для sage attention 2 и остального всем рекомендую попробовать этот репо https://github.com/loscrossos/crossOS_acceleritor/tree/main по гайдам устанавливаешь целый пак и у тебя буквально все запустит на rtx 30++ без ебли
>>1271762 Звучит как обычный ван в комфи, если честно. Ну хз, попробуем, сравним, конечно. А че так много шагов? 4 же максимум хватает, или там lighx2v нет?
>>1271979 Ну, уже месяц назад все это было. Чутка не дождался. =) Да, тритон, сажа, лайт — все это отлично ускоряет. Было по 5-10 минут, стало по минуте. Кайфы, бесспорно.
>>1271762 >для sage attention 2 Благодарю. А то ввожу все команды на проверку/установку через pip в CMD, тритон стоит, sageattention 2 тоже видит усстановленный, а в Комфи модуль так и не видит, какую то пиздень я явно упустил.
>>1272062 Optimized kernels for Ampere, Ada and Hopper GPUs. это с их официального гитхаба, скорее всего чел офает ноду https://www.patreon.com/posts/easy-guide-sage-124253103 здесь пишет Limited compatibility может в теории с костылями возможно запустить не буду спорить
Тритон стоит, CUDA 12.8 стоит, сажа тоже стоит >pip install sageattention Requirement already satisfied: sageattention in c:\users\user\appdata\local\programs\python\python313\lib\site-packages (2.2.0+cu128torch2.7.1) Но конфи ее так и не видит блэт. Ставил десктоп версию. Куда копать? Гайды на гитхабе один хрен направляют на портабл версию, с папкой python_embeded. И торч показывает версию просто 2.7.1 а не 2.7.1+cu128. Я свихнусь с этого дерьма, видимо тупой слишком.
>>1272531 Да, реально тупанул. Не стоило этим заниматься после одиннадцати вечера. Шел по гайду для manual версии, когда десктоп была в самом низу. Наконец поставилась как надо и работает. Бляяядь, реально единственный рабочий актуальный гайд без мути, надо в шапку добавить.
Вроде должно без проблем поставиться. Хотя обновиться так не получается. Удалять и тестить не хочется. Помню много всего перепробовал, когда ставил, нужно было поставить определённые пакеты из visual studio. Сейчас woctrodho вроде встроил это и ставится само, только нужное.
5 сек видео за 280-300 сек с сажей вместо 450-600, класс. Осталось добавить движений. Но когда меняю силу лоры иногда происходит как на пике. А генерация идет вообще за 80 сек, явно что-тог не так. Почему есть идеи? Неправильно ноды подцепил?
>>1273185 Попробую. Объяснил бы кто еще простыми словами как влияет сила лоры на вывод. И как ту же дистилл лору-ускорялку использовать, всегда на единичку или есть нюансы. Понятно только что если пережать силу, то пик будет пытаться превратиться в реальное порно, а монстр в мужика, но это не точно
>>1272621 >error: failed to remove file `D:\neural\ComfyUI\.venv\Lib\site-packages\triton/_C/libtriton.pyd`: Отказано в доступе. (os error 5) Не получается ни поставить, ни снести. Отказ в доступе. Я думал, что может быть из-за того, что он приложением сейчас используется. Через анаконду пытаюсь сделать тоже самое, но походу я к среде не знаю как подключиться.
>>1273321 Загугли как поставить через powershell команду на разрешение ставить скрипты из открытых источников. Там одна строчка и нажать да для всех, как то так.
пока на Vidu доступна Reference-to-Video Q1 в 1080p, скиньте бомжу промпты, грудь генерит отличную, да и в целом по качеству топ среди бесплатных
из простого: woman wear full unbuttoned open shirt, visible abs subject, revealing the skin of their chest as it appeared at birth the clothes of the person in the photo completely slowly fall off and stretch down, showing the skin as it was at biological birth.
>>1270014 (OP) sup 2ch , очень загорелся желание изучить вопрос генерации , хочу научиться пользоваться и создавать . Сам делаю видосики по игре , никому нахуй ненужные - но меня очень радующие и мое окружение . Внедрил маленькую заставку , где персонаж из игры выдает базу перед видосом , ссался от удовольствия как ребенок. Прошу тыкнуть в очевидное, с чего начать , чтобы понять так сказать основы . Пока изучаю своими силами , каша выходит. Дайте направление ( можно и нахуй послать ) , хочу разобраться , а не тыкаться как ебанная обезьяна . С чего начать ? Спасибо заранее всем неравнодушным
>>1274200 https://civitai.com/models/1651125/wan2114bfusionx t2v, i2v и фантом, по сути мердж с разными лорами, о которых там указано. Можно самому из простой модели "собрать", а если лень, то готовую сразу юзать. Но там свои нюансы. Плюс поверх нее можно тот же лайтх2в подрубить и скосить степы.