>>1282764 Ты не пони. Он отрицает не то, что нейросети - ИИ, а то, что ИИ в принципе существует. На самом деле весь спор сугубо терминологический и прикладных последствий не имеет вообще независимо от того, кто подебил; но он костьми ляжет, лишь бы к машинному способу решения задач не применялся термин "интеллект".
>>1283026 Никакой этот "спор" не терминологический. Есть логически верный ответ на его шизу. Человек и есть машина, человек и есть нейросеть. Если интеллект смог появиться естественным образом, значит интеллект может быть создан и искусственным образом, законов нашей вселенной это никак не нарушает.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №147 /llama/
Аноним14/07/25 Пнд 22:16:57№1277147Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Нужна ии которая будет делать обычные фотографии человека (лицо именно того человека которого мне надо) т.е мне нужна ии которая сможет взять фото человека (допустим меня) и сделать его только допустим в другом месте, с другим выражением лица, в другой одежде и тд Если у кого-то есть подобная ии то прошу дать мне ее
>>1276086 ты забыл, что они предобученные? Если их гонять по шахматам, то и модель шахматной доски будет.
Основные проблемы в том, что у них нет модели трёхмерности мира вовсе. А значит на многие вопросы, связанные с пространством и миром они отвечать не могут.
>>1276199 >Просто пиздаболы типа альтмана чтобы греть инвесторов позиционируют нейронки как таблетку для всего и от всего Именно. А по факту хороши не нейронки для всего а узкоспециальным.
>>1276839 Нейронка не должна уметь считать и до трёх (и не умеет вроде). Им дали калькулятор. Их главная задача понять, как перевести задание на язык формулы, формулу на язык скрипта. Или эти дебилы натаскали её угадывать результаты?
>>1276842 но почему-то до сих пор нет качественной коммерческой нейронки, которая бы посчитала видимые на фото предметы. А всего-то надо на каждый обнаруженный предмет подавать сигнал на счётчик. Или обвести кружочком, а потом посчитать кружочки классическим алгоритмом.
>>1276899 Вспомнилось, как порно сильно протолкнуло VHS а потом и разработку потокового видеокодирования-декодирования.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №146 /llama/
Аноним12/07/25 Суб 12:28:34№1273771Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1275700 >главная проблема это что ты повесишься когда игру никто не скачает и не обсудит. Не считаю это особенной проблемой, покуда вся авантюра остается в масштабах хобби. Главное это полученные скиллы от работы с движком и специализированным софтом, плюс какой-никакой опыт по вкату в индустрию. >>1275773 >Максимум что можно сейчас чисто на ИИ сделать - спрайты для покадровой. Ну или базу для дальнейшего анимирования деформацией или искажением. Да, так и думал. Вполне возможно, что через год-два наконец доживем до нормального переноса 2д концепт-артов в 3д, тогда, скорее всего, будет легче сделать 2.5д проект.
>>1275864 В ване можно анимации делать. А вообще что тяжелого? Качай ае/лайв2д/спайн с рутрекера, нарезай на детальки и анимируй по примеру чужих анимаций. Проглемы могут быть только со стихийными явлениями, водой, дымом, огнём и т.п. Вот их хз как анимировать чтоб выглядело красиво.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Штош, я таки запустил Qwen235-A22 на своём пека. (Ryzen 5 5600X, 128 пи DDR4 3600, 5060ti-16, 3060-12). 1,82 т/с на пустом контексте на UD-Q3-K-XL. Не токены, а золото. Пришла пора тыкать Хуньюань, ибо он поменьше. Он сейчас угабугой или кобрльдом запукается без пердолинга с llamacpp вручную? А то у меня лапки.
Новости об искусственном интеллекте №20 /news/
Аноним08/07/25 Втр 22:08:55№1269464Ответ
>>1270019 Да чтоб я знал, я и sageattention все никак не могу нормально установить и заставить работать, хотя поставил python, pip, CUDA, Triton и прочие страшные слова. Но у меня шумы кажись исчезли когда стал использовать лоры wan-nsfw-e14-fixed вместо Wan21_nsfw_14B_i2V_lora_Hardcore-Fix Sex ну и Wan21_T2V_14B_lightx2v_cfg_step_distill_lora_rank32. Экспериментов еще не паханое поле.
>>1270019 > Попробовал по первому воркфлоу сделать видос. У меня получилось видео будто снято на камеру с плохо ловящего канал телевизора. То, что там сперма есть даже разглядеть невозможно. Попробовал поднять шаги сэмплера и сам сэмплер поменять, но похоже что дело не в этом. Куда копать? Попробуй ничего не менять, а скачать все лоры что в воркфлоу
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1269306 ствишь ламу, ставишь таверну, подбираешь текстовую модель под своё железо, ковыряешься, делаешь настройки сэмплеров под себя, ищешь годные карточки, думаешь пол года какую модель лучше засунуть в свою оперативу, получаешь первую эмоциональную связь со своей вайфу, выгораешь, забиваешь хуй, возвращаешься, наконец находишь текстовую модель, начинаешь сам писать свои лорбуки,сам делаешь карточки, роллишь на simple1, познаёшь дзен, стреляешь себе в голову.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1272511 ну хуй знает, стабильнее то да, но это все равно одна дополнительная матрица к модели, то есть просто дрифтинг циферок выхода без изменения самих замороженных весов модели
меня собсно поэтому настройка лоры/локра/лохи заебала и я перекатился на аналоговнетный OFT которому чисто поебать на всю дрочку с гиперпараметрами - веса декомпознулись в нужное количество блоков и обучается, никаких альф нет, количество блоков на усмотрение твоей карты, прямая зависимость блоков конв от линейных отсутствует (так как симулирует работу с весами), заместо альфы нелинейный констрейнт параметр, которым можно регулировать длину вектора влияния на веса + включать рескейл слой на каждый выходной канал отдельно который позволяет независимо ослаблять или наоборот повышать влияние каждого отдельного канала на усмотрение сети
>>1272511 Выглядит как хуйня, с таким же успехом можно тренить только первую матрицу обычной лоры, а вторую постепенно увеличивать. Получишь по итогу неконтролируемый оверфит. Вторая матрица и нужна чтобы адаптивные скейлы весов были, а не тупа в конце к 1 прийти.
AI Chatbot General № 705 /aicg/
Аноним05/07/25 Суб 20:02:42№1265922Ответ
Мне нужна нейронка для визуальной новеллы, я сам норм рисую , но понадобится 50 и более артов , а это очень много , мне нужна бесплатная нейронка которая может в эмоции, и может в стилизацию под рисунок . К примеру я нашел это ( пикча ) но для новеллы она не подойдёт , нет стиля и очень реалистично..
Если есть подписка на какой то сервис, то в плагин надо просто вставить токен этого сервиса. Если железо позволяет использовать локальную ИИ: В качестве бэкенда используется ComfyUI, причём плагин сам ставит эту ебаторию, тебе останется только докачать "чекпоинты" ИИ моделей. Определишься пиши. По локальным моделям - https://civitai.com/ вопросы лучше в Stable Diffusion трэд задавать.