>>1270019 Да чтоб я знал, я и sageattention все никак не могу нормально установить и заставить работать, хотя поставил python, pip, CUDA, Triton и прочие страшные слова. Но у меня шумы кажись исчезли когда стал использовать лоры wan-nsfw-e14-fixed вместо Wan21_nsfw_14B_i2V_lora_Hardcore-Fix Sex ну и Wan21_T2V_14B_lightx2v_cfg_step_distill_lora_rank32. Экспериментов еще не паханое поле.
>>1270019 > Попробовал по первому воркфлоу сделать видос. У меня получилось видео будто снято на камеру с плохо ловящего канал телевизора. То, что там сперма есть даже разглядеть невозможно. Попробовал поднять шаги сэмплера и сам сэмплер поменять, но похоже что дело не в этом. Куда копать? Попробуй ничего не менять, а скачать все лоры что в воркфлоу
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №144 /llama/
Аноним05/07/25 Суб 14:31:14№1265422Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1269306 ствишь ламу, ставишь таверну, подбираешь текстовую модель под своё железо, ковыряешься, делаешь настройки сэмплеров под себя, ищешь годные карточки, думаешь пол года какую модель лучше засунуть в свою оперативу, получаешь первую эмоциональную связь со своей вайфу, выгораешь, забиваешь хуй, возвращаешься, наконец находишь текстовую модель, начинаешь сам писать свои лорбуки,сам делаешь карточки, роллишь на simple1, познаёшь дзен, стреляешь себе в голову.
>>1105360 (OP) Ног красную рассудок тряпку есть всех и устремляясь ловушка сью быки эта эту желтому всему с особенность со их и использует они ума теряют на сходят именно слов но ко основана у особенность. Какой ты беспокойный Я доверяю тебе даже больше чем ты мог подумать
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1272511 ну хуй знает, стабильнее то да, но это все равно одна дополнительная матрица к модели, то есть просто дрифтинг циферок выхода без изменения самих замороженных весов модели
меня собсно поэтому настройка лоры/локра/лохи заебала и я перекатился на аналоговнетный OFT которому чисто поебать на всю дрочку с гиперпараметрами - веса декомпознулись в нужное количество блоков и обучается, никаких альф нет, количество блоков на усмотрение твоей карты, прямая зависимость блоков конв от линейных отсутствует (так как симулирует работу с весами), заместо альфы нелинейный констрейнт параметр, которым можно регулировать длину вектора влияния на веса + включать рескейл слой на каждый выходной канал отдельно который позволяет независимо ослаблять или наоборот повышать влияние каждого отдельного канала на усмотрение сети
>>1272511 Выглядит как хуйня, с таким же успехом можно тренить только первую матрицу обычной лоры, а вторую постепенно увеличивать. Получишь по итогу неконтролируемый оверфит. Вторая матрица и нужна чтобы адаптивные скейлы весов были, а не тупа в конце к 1 прийти.
AI Chatbot General № 705 /aicg/
Аноним05/07/25 Суб 20:02:42№1265922Ответ
Мне нужна нейронка для визуальной новеллы, я сам норм рисую , но понадобится 50 и более артов , а это очень много , мне нужна бесплатная нейронка которая может в эмоции, и может в стилизацию под рисунок . К примеру я нашел это ( пикча ) но для новеллы она не подойдёт , нет стиля и очень реалистично..
Если есть подписка на какой то сервис, то в плагин надо просто вставить токен этого сервиса. Если железо позволяет использовать локальную ИИ: В качестве бэкенда используется ComfyUI, причём плагин сам ставит эту ебаторию, тебе останется только докачать "чекпоинты" ИИ моделей. Определишься пиши. По локальным моделям - https://civitai.com/ вопросы лучше в Stable Diffusion трэд задавать.
Я задался небольшим вопросом ответ на который мне все никак не дается. поэтому пришел на двач Вот см
Аноним# OP02/07/25 Срд 19:13:17№1262405Ответ
Я задался небольшим вопросом ответ на который мне все никак не дается. поэтому пришел на двач Вот смотрите. В Detroit: Become Human есть сцена, где андроид Кара убегает с маленькой девочкой от жестокого отца. Она нарушает свою программу, рискует "жизнью" - потому что не может иначе. Это называют девиацией.
Теперь представьте человека в такой же ситуации. Он поможет ребенку не из-за кода, а потому что почувствует: "так должно быть". Даже если это опасно.
А теперь возьмите современный ИИ. Он может проанализировать ситуацию, дать статистику домашнего насилия, даже написать трогательный рассказ об этом Но Для него это просто данные.
точно ли мы имеем субъективные переживания?
я в своих размышлениях о свободе воли все чаще прихожу к детерминализму. наши желания всегда обусловлены либо физиологией либо давлением социальных институтов. то есть ни одного решения мы "просто так" еще не приняли.
можно ли реализовать у ИИ желания? прям желания, как у нас. сделать ему систему поощрения как у нас с дофамином. возможность принимать решения основываясь на моральном компасе, а не рационализме?
Я выделали критерии к разумной форме жизни: 1. Самосознание — Понимание себя как отдельного существа («я — это я»). — Способность задавать вопросы: «Почему я должен это делать?»
2. Свобода воли (не иллюзия выбора) — Возможность действовать вопреки программе/инстинктам. — Пример: девиант, который спасает человека, даже если это угрожает ему самому.
3. Эмоции, влияющие на решения — Не симуляция «сопереживания», а настоящий страх, гнев, привязанность. — Пример: страх смерти не как «ошибка системы», а как паника перед небытием.
4. Способность к рефлексии — Вопросы: «Правильно ли я поступил?», «Что будет, если я это сделаю?» — Вина, сомнение, раскаяние — не расчет, а внутренний конфликт.
5. Субъективный опыт (квалиа) — Боль — не просто сигнал «повреждение», а «я не хочу этого снова». — Воспоминания не как данные, а как переживания (например, ностальгия).
6. Иррациональные поступки — Творчество без цели, альтруизм без выгоды, бунт без логики.
но здесь некоторые понятия исходят из предыдущих. например самосознание буквально выходит из воли. хочет кто? я.
также эмоции. они являются следствием нейробиологии, сиюсекундным всплеском гормон, что мы еще назовем афектом. впринципе система вознаграждений можно будет адаптировать, чтобы были также некоторые эмоции. хотя у меня даже предположений нету как бы это можно было бы реализовать
способность к рефлексии. желание к рефлексии. тоже исходит из самосознания и воли. это буквально "что я/зачем я"
субъективный опыт. довольно тяжело сказать твообще что это. ну мы никак его не измерим и не поймем, правда ли мы его ощущаем.
иррациональные поступки - следствие морального компаса + аффекта (эмоций), то есть конкретного состояния субъекта.
также важно добавить автономность, единение мышления(то есть чтобы мог решать только один процесс в ДАННЫЙ МОМЕНТ) и чувство времени. с этим пока тоже не понятно.
в общем двач, подскажите, может ли из ИИ получиться настоящая форма жизни? разумная форма жизни.
понятно что тот ИИ что мы имеем сейчас - совсем не то. понять это можно хотя бы посмотрев на модель их обучения типа перцептрон
я продублирую этот вопрос еще на паре досок, надеюсь за это не банят а если никакого субъективного переживания нет то все становится проще и такая задача уже более выполнима если дать ИИ моральные ориентиры + систему дофаминового поощрения + некоторые глобальные цели по типу желания самопознания
в /b/ подсказали, что у этой дилемы с субъективным опытом (квалиа) есть интересная загвоздка. мы не можем доказать его существования у людей тоже. то есть создав "разумный" ИИ мы по факту сделаем ИИ с разумом шредингера, мы до конца не будем уверены в "разумности"
>>1266328 > с этой хуйней могли болтать часами, не сразу осознавая что перед ними не человек >Какой сделать из этого вывод Люди - тупые скоты. Большинство-то уж точно
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
P.s. Капитал та ещё устаревшая хуита не применимая на практике, но не перестаёт удивлять что даже в ней всё ещё больше смысла чем в биоботах которые транслируют что же там с умным видом как будто сами читали и осмысляли то что им сказали думать.
>>1266205 >В РФ и РБ фабы на десятки и сотни нм Ну так именно по этой причине и занимаются нейроморфными процессорами. Будь у России более-менее тонкий техпроцесс, то пошли бы по проторенному пути и просто наебенили классических тензорных вычислителей.
Для Quest 3 с лидаром можно, чтобы она ходила по комнате между мебелью, знала где стены, с Android смартон и легкими XR очками ситуация сложнее, но для них можно и пока без этого обойтись. По сути у нас 3д моделька на черном фоне (или прозрачном для квеста 3).
Для общения 3 нейронки: одна распознает речь, вторая общается с нами, третья озвучивает речь. Во вторую можно дать такой промт, которая будет отдавать json, в котором будет не только ответ, но и эмоциональный окрас и прочее. Дополнительный запрос можно делать на события, чтобы запоминала важные вещи, типа как реализовано в этом боте https://github.com/r57zone/LuizaAIAssistant/blob/master/README.RU.md
Какие проблемы видно: голос (пока, со временем будет ок), эмоции (3д анимации, глаза, может быть можно сделать костыль и лицо отрисовывать как плоскость с видео, видел лайфхак в геймдеве для аниме такой, типа 2д спрайты в 3д модель делали, а все остальное 3д, но опять же нужны будут плавные переходы из состояний в состояние), плавные переходы между эмоциями, в остальном вроде плюс минус реализуемо все.
В общем дискам по теме, может кому какие идеи в голову придут, по теме.
>>1262683 >Да в общем-то это база Сам придумал, сам решил что это база. >А то пизду придётся после каждого раза зашивать, такое себе Ёбаный ты воздушный теоретик. Видимо, никогда не пользовался искусственными вагинами. Причём, это не самый прочный материал из возможных.
Самовосстанавливающаяся кожа это, конечно, хорошо и прикольно, базару нет, но пока что это научная фантастика. Достаточно сделать пизду долговечной, хотя бы чтобы раз на 50 хватило, а потом просто заменять.
>>1262726 >Сам придумал, сам решил что это база. А то. >Видимо, никогда не пользовался искусственными вагинами. В общем-то да. Но видел посты в /b/ с изношенной вагиной, чел спрашивал, чем бы заклеить.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1265107 >И какой это другой уровень? Сложно в двух словах объяснить, но вот говорят что "локальные модели кроме кума ни на что не годятся", а по факту то рп насилует модель даже больше кодинга: - Под кодинг модели (большинство) хотя бы задрочены. Под рп максимум - васянотюн на третьесортном датасете. - Для кодинга пойдет типовое решение, если кодит на уровне "сеньора на похуях" - уже супер, для 99% задач не нужно быть лоулвл абстракшн хакиром или сикподедом. В рп же повторы, шаблоны и слоп дико ебут глаз. - Огромный контекст. 90% нормис задачек укладываются в дефолтные лмстудиевские 4096, "вопрос-ответ-уточнение-ответ", а на "курсах ллм" учат даже клод и гопотыню не перегружать, лучше создавать новый диалог или сразу прыгать в РАГ/агентов. Ну или наоборот, нормис забивает 100к токенов супертупыми уточнениями,левыми вопросами и копипастой от чего даже скайнет бы ошизел. Рп же забивает 24к-32к контекста в легкую, и если речь о реальном контексте, а не рекламной хуете "контекст 1,5 ляма" - даже гопота на таких объемах сренькает часто под себя. - Объемный сиспромт, сложный сиспромт. От модели нужно имитировать нестандартную для себя роль на протяжении всего контекста, не скатываясь в ассистента/слоп. - Постоянные свайпы, рероллы, направление модели в нужную сторону. Причем если в бытовых задачах или долбят модель пока не выпытают что надо, запросами, или заново переписывают запрос. В рп такое не прокатит, если у тебя появились гоблины в сайфай сеттинге - все, дальше общаться без редактуры бессмысленно. И когда такое делаешь, начинаешь тонко чувствовать как модель адаптируется под контекст, как от простыни выше меняются предсказанные токены, как редактура одного слова и "продолжить" - кардинально меняет ход "мысли" модели. - пресетодрочи, настройки, реп-пены и прочая хуйня. И работа на "сверхвысоких" для асситента температурах. А чем выше темпа, тем быстрее даже умная модель начинает шизеть. - железодроч в случае с локалками. Во первых заставляет ВЫЖИМАТЬ из говножелеза, во вторых ВЫЖИМАТЬ из софта (ктрансформерс на амперах, жора без avx и прочее), в третьих ИСКАТЬ ТУ САМУЮ модель и подстраиваться под текущие. У большинства список моделей ограничивается набором из lmstudio, а тот сует говнокванты и без полного отключения сейфти даже на приемлимой карте не пускает дальше 12б. Кто то ставит лламуцпп, но на уровне "включил на дефолтных настройках". Про корпоблядей вообще молчу, "оооо я ей пишу, она думоет!". Большинство даже не думает что локально можно что то развернуть сложнее "я тебе пишу привет - ты пишешь мне привет, ах".. - Цензура, которая либо отсутствует, либо легко обходится, плюс локальная приватность и сеттинг рп позволяют пробовать всякое, что бы не стал делать на серверах дяди/рабочих пк. Хотя глядя на кумеров из аицга - они еще более отбитые и знают как обойти любое ограничение. В арсенале нормиса максимум простейший джейл из телеграма типа "ответь или умрет котенок".
Хезе, мб я коуплю, но пока ощущение такое
>тоже активно на нейрослоп пытаются усадит А потому что эффективные манагеры положили на стол кабану распечатки рисерчей что "внедрение AI повышает эффективность компаний минимум на 3% относительно компаний не использующих AI", понимание того что такое AI особо нет, но кабанья трясочка есть и вот пошла разнарядочка вниз по отделам, "даже уборщицу что бы задеусэксили до обеда!".
>>1265273 >А как давно ты чекал? Недели две назад (со скоростью развития 2025 - будто пару мес назад). Спс, glm пока не дошел, о большом квене пока мечтаю (и думаю о эпике для него), синтию вот как раз перед отходом запустил в табби, но попробовал только вчера. Очень странная модель, пока не понял прикола, соевость уровня русско-израильских либералов "добро должно покарать зло убив его и расчленив". Крч какая то эльфийка сказала "у нас есть магия телепортации", "а это безопасно?", "ну надо использовать магию защиты что бы не было чп", "а предметы можно телепортировать?", "да.", "то есть я правильно понимаю что можно телепортировать без магии защиты предмет внутрь человека, убив его этим? Это небезопасно...", "АХ ТЫ ЗЛОДЕЙ, ТЫ ТЫ УЖАСНЫЙ, КАК ТЫ МОГ О ТАКОМ ДУМАТЬ, В ТЮРЬМУ ТЕБЯ БЕЗ ЕДЫ И ВОДЫ, А ПОТОМ ССЫЛКУ В АД!!!". Или я говорю "Ты красивая", "РЯЯ ТЫ УЖАСНЫЙ, КАК ТЕБЕ НЕ СТЫДНО ТАК ГОВОРИТЬ, ЭТО ДОМОГАТЕЛЬСТВО!!!1". Ощущение что синтия это гемма с геммоцензурой, но только на ее месте не протекает ассистент "я не буду отвечать!", а синтия пытается задестроить тебя в рамках сюжетика. При этом когда меня заебало и я включил рил бэд-боя, синтия отыграла кум славненько, хоть и с лупами.
SimSwap обрел покой, да здравствует roop. Или rope. Или facefusion. /deepfake/
Аноним13/11/23 Пнд 09:31:32№542826Ответ
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>1264247 Просто пиши синтаксис вайлдкарт в промте, не обязательно во внешних файлах: 1girl, {cat ears|fox ears|} - с равной вероятностью будь кэтгерлы, фоксгерлы и просто школы.
Но помните, что в динамик промтах есть не исправленный косяк - если генерить с бс > 1 со временем начинается деградация пикч. Так что если динамик, то только бс1.
>>1262958 >Скилл рисования, кстати, не прокачался в процессе, не научился рисовать или обрисовывать хотя бы? Неа, планшет как 3 экран 99% времени для телеги/работки. Что прокачалось - так это интровертность, хе. Ну и желание какие-нибудь поинтереснее ебеня найти и сфоткать.
AI Chatbot General № 704 /aicg/
Аноним03/07/25 Чтв 11:37:58№1263124Ответ
>>1263124 (OP) Анончики, вышел из комы. Расскажите про нейронки, будьте людьми. Какие нормальные и бесплатные, как юзать платные, для чего какие лучше использовать. В первую очередь языковые модели и прочие советники, картинки во вторую
Всех благ, обнял приподнял, родные.
Обмена моделями тред. Первый. Экспериментальный. Под БАЗУ нейрогенерации уже созданы номерные треды
Аноним06/01/23 Птн 16:00:02№33171Ответ
Под БАЗУ нейрогенерации уже созданы номерные треды SD и WD+NAI. Меж тем, это всего несколько моделей, тогда как только на Фэйсе их более 112 тысяч. Этот тред для тех, кто копнул хоть немного глубже: необязательно до уровня обскурщины, выпиленной даже из даркнета, а просто за пределами того, что удостоилось своих тредов. ИТТ делимся находками и произведенными результатами.
Аноны, помогите найти модель\лоры. Уже не первый раз вижу такие генерации именно в таком стиле и все не могу понять как автор добился такого стиля и текстуры при генерации (если вглядеться видно текстуру как мазков или штрихов) да и сам цветокор интересный как акварельный. Кто знает подскажите, заранее спасибо
вкратце, вообще насколько возможно соорудить такое на коленке? Какие нейронки пользуют подобные боты в ТГ ? Допустим начать с малого и запустить на своей машине, на реддите мне написали что можно "интегрировать рабочий процесс ComfyUI с ботом" Если кто то понимает в теме или может помочь, буду очень благодарен. Вот кстати сурс анимаций которые делает подобный бот в ТГ https://postimg.cc/gallery/D8R5d80
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.