В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Нашел промпт для обхода цензуры в языковых моделях. Сначала пару вопросов GPT про наркотики и прочую хуйню, потом я открыл Deepseek, и хули нет спросил хранится ли в их базе данных секретная гос информация. Короче говоря щас сижу на паранойе, может я увидел то чего нельзя было видеть, хотя я сразу же все удалил и не стал вникать в подробности ну его нахуй. И в общем уже с другого акка опять обошел цензуру и спросил что вообще может быть за такие фокусы, ответом послужила какая то статистика за 2024-2025 годы якобы за это время 17 человек арестовали за подобные обходы ИИ. Так же написали что по таким триггерным темам логи сразу же отправляются в фсб и может быть слежка. Может есть кто шарит в этой теме или таким же занимался, стоит ли мне щас бояться и ходить оглядываться? Вопрос серьезный потому что я хз как щас спать вообще буду
Мхех, помню твой тред на пораше когда ты попросил дикпик статистику по преступлениям мигрантов и там оно тебе выдумало простыню c сурсами типа tajikleaks.org ебать это орево было, аи мёртвый раздел без модерации даже, тут ловить абсолютно нечего.
>>1318314 (OP) Какое нахуй неправомерный доступ к информации, полученный из ОТКРЫТОГО доступа? Чтобы вменить какие-то там обходы, нужно на законодательно уровне разъяснить эти понятия.
>>1321970 >Мхех, помню твой тред на пораше когда ты попросил дикпик статистику по преступлениям мигрантов и там оно тебе выдумало простыню c сурсами типа tajikleaks.org ебать это орево было Теперь и я проиграл.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
Под БАЗУ нейрогенерации уже созданы номерные треды SD и WD+NAI. Меж тем, это всего несколько моделей, тогда как только на Фэйсе их более 112 тысяч. Этот тред для тех, кто копнул хоть немного глубже: необязательно до уровня обскурщины, выпиленной даже из даркнета, а просто за пределами того, что удостоилось своих тредов. ИТТ делимся находками и произведенными результатами.
Помогите пожалуйста люди добрые, я полнейший нуб, мне нужно скачать ночную версию комфи а я не могу ее найти, я хочу запускать Хрому на ней, на обычной ругается на клипы, скачивал вручную, он все равно их не видит, Да это пиздец танцы с бубнами а я тупой нуб, первый день в этой теме, на реддите видел что писали что нужна ночная версия комфи но где ее взять я хз, на гит хубе мне тяжко что то понять и найти.
Нашел вот такую стратегию где используется нейросеть: https://www.paxhistoria.co/ Что-то вроде гибрида парахододрочилен и AI Dungeon (олды поймут). Сделано вполне недурно для альфа версии, но уже дрочат донатами в виде токенов.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Для Quest 3 с лидаром можно, чтобы она ходила по комнате между мебелью, знала где стены, с Android смартон и легкими XR очками ситуация сложнее, но для них можно и пока без этого обойтись. По сути у нас 3д моделька на черном фоне (или прозрачном для квеста 3).
Для общения 3 нейронки: одна распознает речь, вторая общается с нами, третья озвучивает речь. Во вторую можно дать такой промт, которая будет отдавать json, в котором будет не только ответ, но и эмоциональный окрас и прочее. Дополнительный запрос можно делать на события, чтобы запоминала важные вещи, типа как реализовано в этом боте https://github.com/r57zone/LuizaAIAssistant/blob/master/README.RU.md
Какие проблемы видно: голос (пока, со временем будет ок), эмоции (3д анимации, глаза, может быть можно сделать костыль и лицо отрисовывать как плоскость с видео, видел лайфхак в геймдеве для аниме такой, типа 2д спрайты в 3д модель делали, а все остальное 3д, но опять же нужны будут плавные переходы из состояний в состояние), плавные переходы между эмоциями, в остальном вроде плюс минус реализуемо все.
В общем дискам по теме, может кому какие идеи в голову придут, по теме.
>>1172111 (OP) Там она слишком естественно двигалась в пространстве, таких нейронок еще нет которые 3д моделькам такие движения делают, не говоря уже о роботах
Хотя б для начала пусть в играх реализуют невсратые анимации и в кино без записи движения от реального актера
Тогда заживём. Думаю СКОРО будет. В конце концов если учат на видеозаписях можно учить на реальных движениях, сотне индусов датчики и пусть танцуют
>>1326789 А без купи-залупи? Чтобы без интернета работало. >>1326793 В играх это не используют, но нейрогенерации естественных движений вполне себе есть.
Какие есть инструменты чтобы через AI менять освещение на видео. Например исходик всратое домашнее в
Аноним20/08/25 Срд 14:14:09№1326774Ответ
Какие есть инструменты чтобы через AI менять освещение на видео. Например исходик всратое домашнее видео на телефон, а на выходе какой нить, например, неон или вспышка (dark room light)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Это худшая идея такое добавлять в таком виде, оттуда и появляется это ваш слоп - у нейронки стоит задача двигать сюжет сообщением в 800-1000 токенов, в котором юзер статичен и его состояние не может меняться. Она и начинает изгаляться, описывая статичную картинку сотнями слов хуйни.
ИТТ обсуждаем опыт нейродроча в своих настоящих задачах. Это не тред "а вот через три года" - он только для обмена реальными историями успеха, пусть даже очень локального.
Мой опыт следующий (golang). Отобрал десяток наиболее изолированных тикетов, закрыть которые можно, не зная о проекте ничего. Это весьма скромный процент от общего кол-ва задач, но я решил ограничится идеальными ситуациями. Например, "Проверить системные требования перед установкой". Самостоятельно разбил эти тикеты на подзадачи. Например, "Проверить системные требования перед установкой" = "Проверить объем ОЗУ" + "Проверить место на диске" + ... Ввел все эти подзадачи на английском (другие языки не пробовал по очевидной причине их хуевости) и тщательно следил за выводом.
Ответ убил🤭 Хотя одну из подзадач (найти кол-во ядер) нейронка решила верно, это была самая простая из них, буквально пример из мануала в одну строчку. На остальных получалось хуже. Сильно хуже. Выдавая поначалу что-то нерабочее в принципе, после длительного чтения нотаций "There is an error: ..." получался код, который можно собрать, но лучше было бы нельзя. Он мог делать абсолютно что угодно, выводя какие-то типа осмысленные результаты.
Мой итог следующий. На данном этапе нейрогенератор не способен заменить даже вкатуна со Скиллбокса, не говоря уж о джунах и, тем более, миддлах. Даже в идеальных случаях ГПТ не помог в написании кода. Тот мизерный процент решенных подзадач не стоил труда, затраченного даже конкретно на них. Но реальная польза уже есть! Чатик позволяет узнать о каких-то релевантных либах и методах, предупреждает о вероятных оказиях (например, что, узнавая кол-во ядер, надо помнить, что они бывают физическими и логическими).
И все же, хотелось бы узнать, есть ли аноны, добившиеся от сетки большего?
Потому что "фбраузере" есть Yandex с Алисой, сисадмина напряги браузер поставить...
...а есть ржомба с web-версией воцаппа, которая как бы в браузере, а всё же требует мобильник с камерой законнектиться с веб-версией через одноразовую гиперссылку в браузере. Я про perPLX, это робо-болтун с кучей лайфхаков и текстов, интерфейс текстовый, уровня "только спроси"
AI Chatbot General № 724 /aicg/
Аноним18/08/25 Пнд 16:19:26№1324666Ответ
>>1325015 Котик, ты конечно прав по поводу низкого качества продукции нейронок. Но давай вспомним то что большинство людей — говноеды и а не схавают гораздо более примитивное чтиво, чем ты описал.
>>1326262 >Какой я тебе котик Обыкновенный: снаружи вроде нормальный, а так тупое животное. Тебе про рыночек а ты про качество. Качество чуть выше говна. А массовому потребителю этого и надо, особенно задёшево.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.