>>1269521 Нет. Крутоe пике. Это не плато, не потолок, а натуральное пике в ебаную пропасть! Всё, что нам втирали про "ИИ-революцию", оказалось пшиком, и щас всё катится в сраное говно. Для начала, данные для этих долбаных моделей закончились, как сперма у импотента. Ещё в 2024-м ныли, что интернета не хватает, а в 2025-м это официально: ЛЛМ жрут всё подряд, включая собственное говно. Учёные воют, что без доступа к каким-нибудь секретным базам или корпоративному мусору масштабировать некуда. Это не "прорывы", а дрочка на старые нейронки, пока они не сдохнут!
А сами модели? Это не ИИ, а ебучие клоуны на арене! Apple (да, эти лохи, которых все подкалывали) разъебали в щепки Claude 3.7, o3 от OpenAI и Gemini от Google. Эти "гениальные" ЛЛМ сливаются на любой задаче сложнее таблицы умножения. Задаёшь им что-то с подвохом — и они несут такую хуйню, что хочеется вырвать себе глаза. Это не "рассуждения", а дебильная агония!
И это ещё не всё, блять! Регуляторы по всему миру взялись за яйца. ЕС со своим AI Act уже душит всех, в Штатах вопят про "этику" и "прозрачность", а в России Путин хочет задушить ИИ до последнего бита. Это не просто бумажки — это могильный камень для индустрии. Компании вбухивают триллионы в сервера, а на выходе — штрафы и пиздец.
А теперь про главного пиздобола — Илона Маска и его сраный Grok 4. Этот конченый хайпожор опять устроил трансляцию в 3 ночи, обещая "революцию", но где, сука, релиз? Где этот ваш "убийца всего"? SuperGrok-подписчики и X Premium дебилы небось до сих пор ждут, пока Маск теребит свой твиттер вместо работы. xAI — это просто машина для высасывания бабла, а на выходе — пустой пердёж. Grok 3 был уже говном, а Grok 4, судя по всему, вообще мёртворождённый. Маск, блять, обещал AGI, а вместо этого кормит нас своими влажными фантазиями. Иди нахуй со своим "будущим", клоун!
Короче, ЛЛМ-индустрия — это дохлая шлюха в канаве. Данных нет, модели тупые, как пробка, регуляторы ебут всех в жопу, а крах уже стучится в дверь. Похер на Meta с их LLaMA 4 или китайцев с MiniMax — это всё мёртвое дело. Запасайтесь пивом и смотрите, как этот сраный ИИ самолёт ебанётся о жесткую почву действительности. А Маску скажите, чтоб засунул свой Grok 4 в свою жопу и там его "революционизировал", еблан!
Благодаря новой функции image-to-video, VEO3 больше не имеет конкурентов. Потенциал бесконечен — теперь контент-мейкеры могут генерировать сразу несколько сцен с одними и теми же персонажами, чтобы снимать целые короткометражные фильмы.
Молодцы гугл, сначала выкатили Вео 3, а потом через некоторое время стандартную фичу, которая должна была быть с самого начала - имг то видео с аудио. И все, новая волна хайпа, как будто новый продукт выпустили. Клоусед аи тоже такой хуйней занимается, две фичи у 4о отдельно выкатили, хотя они были доступны с самого начала. Яйца бы им отрубить за такое ряяяя вы непонимаете, просто они не могли выпустить это с самого начала, ведь там было еще много чего доделывать
Я успешно занимался переводами с испанского на английский с 2005 по 2023 год, имея 5-10 субподрядчиков одновременно, иногда работая по 90 часов в неделю и получая доход более 100 тыс. долларов в год. Теперь работы почти не осталось, потому что ИИ и LLM стали такими хорошими.
Звукорежиссер. 32 года карьеры. Клиенты начали присылать мне референсы, сделанные с помощью ИИ. Становилось все сложнее соответствовать или превосходить референс для мастеринга. Все было начертано на стене, поэтому я ушел в прошлом году.
Я работаю с 3D-видео и неподвижными изображениями. ИИ пока не может делать то, что могу я, но он приближается к этому.
Я потерял работу из-за ИИ. Оказывается, вам не нужна команда QA, которая будет проводить ручное тестирование, когда вы можете поручить это ИИ за меньшие деньги и время. Так что вся моя команда получила пинка под зад, за исключением, конечно, руководства.
Я репетитор, специализируюсь на литературе, истории и экономике. Я также преподаю младшим детям. Мои старшие ученики (15 лет и старше) в основном исчезли. Один даже смущенно сказал, что теперь они полагаются на ИИ.
У меня был бизнес по SEO и публикации контента в течение 8 лет, который был практически уничтожен.
Разработчик игр. Не то чтобы мы потеряли работу, но ее стало меньше. Раньше в студии были отдельные инженер-шейдер, технический художник, художник по текстурам, художник пользовательского интерфейса, инженер пользовательского интерфейса. Теперь все делают только два разработчика «полного цикла».
Я работаю в сфере видеопроизводства, и моя работа включает в себя некоторые работы по озвучиванию. Они действительно иссякли, я бы сказал, на 90%. Похожая история: Мой клиент сумел сочинить корпоративную песню на малайском языке с использованием ИИ, включая тексты песен на основе ИИ, и самым впечатляющим был вокалист ИИ, который пел на малайском, следуя мелодии. Обычно это стоило бы около 2000-3000 долларов США в общей сложности.
Потерял свой исследовательский бизнес из-за ИИ — в основном благодаря модели ‘Deep Research’ от Google Gemini. Она совсем не идеальна, но люди скорее выберут плохой бесплатный вариант, чем хороший платный, когда дело дойдет до этого…
Мужик, я это чувствую. В старших классах я работал в компании edtech, которая решала математические и научные задачи и выкладывала решения в сеть. Они зарабатывали солидные деньги на трафике, рекламе и акциях, и мне тоже платили довольно неплохо. Но сейчас? Их трафик упал на 1000%, потому что студенты просто используют ИИ, чтобы мгновенно получать ответы и даже последующие объяснения. Сдвиг был жестоким. Я ушел, но группа людей, которые все еще там работают, начали тайно использовать WillowVoice (хе-хе), они просто говорят о проблеме и ее решении, а ИИ все это записывает. Основатель даже не знает.
Мы продавали медицинские учебники, бизнес упал на 70%
Я инженер-программист с 10-летним стажем. В прошлом году я потерял работу и не смог найти новую. Сейчас из-за ИИ требуется меньше инженеров для разработки ПО.
Не пытаюсь никого оскорбить, но мне кажется, что любые профессии, которые в значительной степени полагаются на «чтение» + «письмо» + «исследование», скоро устареют. Например, я не понимаю, зачем кому-то платить тысячи за юриста, когда теоретически можно использовать степень магистра права для разбора любой юридической книги, и это поможет вам в вашем деле гораздо лучше, чем человек. Я использую степень магистра права для создания политик конфиденциальности, условий использования, отказов от ответственности, соглашений о неразглашении информации, трудовых договоров и т. д., и все это бесплатно, хотя мне, вероятно, пришлось бы потратить сотни или тысячи, чтобы все это составил профессионал в этой области. Не знаю, но я думаю, что эти работы будут первыми, которые исчезнут, и честно говоря… хорошо… Я лично встречал только одного юриста, который мне действительно понравился — все остальные были отстойными…
>>1269622 Вот так оно и будет дальше, политики и журнашлюхи усираться, что потерь от ИИ нет, все переучиваются, работ больше становится, а потом в реале все будут втихую работы терять, но именно что втихую, публично это будет игнориться, типа неудобная тема, не стоит вскрывать.
>>1269622 >>1269629 > Нейрокал что-то может, людей увольняет!11 > Вот целый тред на среддите, точно не врут!11 > Даите нам деньги пожажуста чтобы мы не обанкротились...
В воскресенье, согласно публичной странице GitHub, xAI обновил инструкции Ask Grok, отметив, что его «ответ не должен уклоняться от заявлений, которые являются политически некорректными, если они хорошо обоснованы» и что, если его попросят дать «партийный политический ответ», он должен «провести глубокое исследование, чтобы сформировать независимые выводы». Модели генеративного ИИ настолько сложны и запутанны, что вполне возможно, что фразы политически некорректный , партийный политический ответ и формировать независимые выводы отправили модель в глубокую национал-социалистическую спираль.
>>1269592 Образы слишком прыгают, связь теряется. Зато дёшево.
>>1269593 Так он изначально работал в режиме от начального кадра до финального, это ещё на презентации показывали. Или что?
>>1269622 >Я успешно занимался переводами с испанского на английский с 2005 по 2023 год 1. переводчики ещё в 2020м пригорели 2. машинные переводы всё ещё говно. Если кое-как по общему смыслу надо перевести, нейронки справляются. Если нужно перевести качественно, точно и соблюдая терминологию, то это полный пиздец а не перевод.
>Оказывается, вам не нужна команда QA Куча проверок ещё до ИИ были переставлены на рельсы автоматики. Но да, ИИ может более изобретательно и рандомно тестировать.
Разработчик игр. > Не то чтобы мы потеряли работу, но ее стало меньше. Её стало больше. Потому что заказчик насмотрится красивых картинок и концептов и потом это всё надо реализовывать.
>но люди скорее выберут плохой бесплатный вариант, чем хороший платный, Вся суть. У меня ещё до ИИ такое было со стоками, например. Я бросил рисовать иконки, потому что людям нужно дёшево, а не дорого и отполировано.
>Мы продавали медицинские учебники, бизнес упал на 70% Гуглить стало проще намного. Сам иногда ищу через ИИ.
>>1269686 >людям нужно Разное. И как говорил один Хованский: лучше один зритель на стриме донатящий 500к в месяц, чем 500 000 донатящих по 5 копеек или вообще нихуя.
>>1269710 Последняя стадия капитализма монополизм. В конечном итоге все будут работать на станок по печатанью дензнаков. Как сейчас, только после исчезновения государств.
>>1269713 Твоё ебало, когда ты не отличаешь индивидуализм от монополизма. И да, я сам много лет работаю на 1-2 людей, они меня нахуй кормят, их устраивает моё качество работы, и мне в хуй не упало мнение нищих васянов и всяких чаек о плодах моей работы, потому что эти плоды оплатил конкретный человек и его всё устраивает. И если ты не еблан, то это твоё естественное стремление - работать на одного заказчика, который тебя уважает и ценит.
>>1269544 Ну так при Трампыне отменили много той хуйни, что напринимали при старине Байдене. Даже Цукерберг выиграл суд, где использование контента для обучения моделек признали добросовестным.
Про Путина не слышал. Он, если ничего не изменилось, был тоже резко за ИИ.
Тряска по поводу ИИ и желание всё законтролировать - это чисто левая тема.
>>1269737 > где использование контента для обучения моделек признали добросовестным. Вранье. Признали фейр вери трансформитив юз - только если твой контент был куплен, а не спизжен. А они спиздили и за это их окуканивание еще впереди.
>был тоже резко за Слежку и зонд в твоём анусе. На ИИ ему срать, всё отечественное ИИ в жопе, с тех пор как чекисты купили финдфейс и забрали у крестьян доступ к технологии и базам. Просто частный пример того как ИИ в россии "развивается". Алиса и эти говноколонки - вообще тупо прослушка.
>Тряска по поводу ИИ и желание всё законтролировать - это чисто левая тема. Законы будут приняты, рамки будут указаны. Посмотри на любые технологии, радио, телевидение. Вот бы сейчас тебе разрешили хуярить своей радивой на любой волне, да? Ещё и без лицензии. Или лицензирование радиовещания - это левая тема? Ты идиот.
>>1269736 У тебя ошибка выжившего в текущий момент времени. Большинство людей - нефть. В конечном итоге на их стремление будет похую еще больше, чем сейчас.
>>1269737 >Тряска по поводу ИИ и желание всё законтролировать - это чисто левая тема. Ебанутый? Это правая хуйня с запретами всего неугодного, запреты это в целом правая база.
Оно и очевидно - запрет это наибыстрейший способ подавить конкурентов.
>>1269742 >Или лицензирование радиовещания Все, кто касается тематикой с излучателями любых волн, так или иначе ходят под военными. Да гипотетически ты можешь собрать сам радиостанцию. Только ознакомься сначала со случаями, когда ты можешь перебить диапазон частот военных или спецслужб и что с тобой будет в таком случае.
>>1269751 Зачем мне читать бред шизофреника, который уверовал, что он пуп земли, работающий на каких-то двух хуесосов. Да еще и приводящий свой личный пример как истину для всех. Хочешь ты служить одному барину - служи на здоровье. Твой барин никуда не денется от процессов планетарных масштабов.
>>1269736 >И если ты не еблан, то это твоё естественное стремление - работать на одного заказчика, который тебя уважает и ценит. Ебало этого раба представили?
>>1269757 Раб как раз ты, потому что вынужден вылизывать очкоочередного работодателя. А мой заказчик в мою работу даже не вмешивается. Я просто смотрю на рынок и делаю то, что считаю нужным. Потому что я профессионал.
Купил доступ к нескольким топовым нейронкам через бота.
Ну што… Всё так себе. Простые вопросы и так гуглятся. На сложные вопросы нейронка может крепко напиздеть и чтоб всё исправить, нужно знать предмет хорошо.
Помощь есть от неё, конечно. Формирует большую часть ответа или кода нормуль.
Миджорни как и раньше говно говна. Управления и возможностей мало (ни поз, ни масок, ни референсов, ни контуров, ни сегментации, ни тонны всего что можно прикрутить в ComfyUI), стилистический перекос дикий. Но народу нраица.
Сидел час листал цивитаи. У меня в голове уже фильтр сложился на нейросетевые картинки. Главная особенность — наследование пятнистого шума (свет, цвета, детали, всё весьма равномерно размазано по картинке).
Признаю, что многие неопытные или просто поехавшие хуйдожники делают примерно так же.
> ИИ потихоньку заменяет работников различных профессий, это правда. Но не стоит забывать, что у каждого такого работника есть приусадебное хозяйство...
>>1269764 >На сложные вопросы нейронка может крепко напиздеть и чтоб всё исправить, нужно знать предмет хорошо. Проблема тут в том, что сложность для нейронки это вопросы на уровне 9 класса.
>>1269764 Прикрутка через бота хуже, так как скорее всего не хранится кастомных настроек, которые могут задаваться явно и неявно. Рекомендую прикупить плюс подписку openai
>>1269779 Я из недели подписки три дня попользовался. Оно для меня не окупается никак. Я не работаю с крупными объёмами простого текста, из которого нужно извлекать резюме. Я не программёр, но требования к коду у меня высокие, нейронка их не вывозит. Лучше я программисту закажу, который вместе с нейронкой узкоспециализированной попишет как надо. И меня не наебёт, что сутки работал без сна над тем, что ему на 80% зашаблонила негросеть.
>>1269771 Ну скорее это интеллект как у трёхлетки, а знания (при наличии интернета) как у энциклопедии. Может состыковать куски, но не может понять чо наделал.
>>1269795 Это ты тот трясун, которого в прошлом треде трясло от роликового винта и который на полном серьёзе утверждал, что "сложные производства это далёко не нормально"?
Ты же понимаешь, что у тебя с логикой не просто всё плохо (её нет), ты поехавший, контуженный.
>просто срешь какой-то маняхуйней Какая самоирония. Нахуя ты в новостях про ии среш про каких-то своих манязаказчиков и маняфантазии Все и так знают что если харкачер начинает постить какой он успешный то это 100% детектор фантазирующей чмони-корзиночки
>>1269686 >машинные переводы всё ещё говно. Если кое-как по общему смыслу надо перевести, нейронки справляются. Если нужно перевести качественно, точно и соблюдая терминологию, то это полный пиздец а не перевод.
Не согласен. Всё зависит от используемых моделей и от работы с промптами. Я делаю адаптации русскоязычных роликов для английского ютуба. Качество переводов выросло на порядок после того как я перешёл на нейронки. Ещё и цена работы упала в десятки раз.
Ещё про такой лайфхак расскажу. После перевода текста в одной нейронке, надо делать его вычитку в другой (тоже топовой), чёб исправить косяки перевода прошлой нейронки. Для вычитки переведённых текстов моих видосов я использую такой промпт:
"I am Russian. I wrote a script in English for a YouTube video, but my English isn't very good, so I need you to proofread it and correct anything that might sound unnatural to native speakers. I might have made lexical, spelling, punctuation and stylistic mistakes. If you find any, please fix them. I'm aiming for a smoother and more natural flow for native speakers. Write a corrected version. By the way, use the American measurement system. Make it so that nothing gives away that I'm not a native English speaker, but don't use complex phrases because I want my video to be understandable even to people for whom English is not their native language. Here is just a part of a larger text:"
>>1269929 Окей мы поняли, что эта хуйня умеет ходить. Еще в 80е поняли. А можно эта хуйня начнет использовать свои ручки смешные для разнообразных задач т.к. для однотипных можно просто специализированного робота поставить, а не разнорабочего человекоподобного.
>>1269847 >> естественное стремление человека - работать на другого человека А чего? Что ты сказал? Опять на барина хочешь по РАБотать? Ну иди РАБотай, отпускаю тебя.
>>1269770 >И потихоньку заменяет работников различных профессий, это правда. Но не стоит забывать, что у каждого такого работника есть приусадебное хозяйство...
ИИ потихоньку заменяет работников различных профессий, это правда. Но не стоит забывать, что у каждого такого работника есть приусадебное хозяйство, блять, и это не просто какая-то там грядка с петрушкой, а настоящий, сука, оплот независимости и выживания! Вы только вдумайтесь, ебать, пока эти ваши нейросети кодят, пишут, считают и пиздец как "облегчают" нам жизнь, у каждого уважающего себя работяги есть свой кусок земли, где он, блять, царь и бог! Картошка, морковка, кабачки — это не просто еда, это, сука, стратегический запас, который никакой ИИ не вырастит, потому что у него рук нет, а только алгоритмы, мать их! И вот, пока эти цифровые уебаны пытаются нас всех заменить, мы, блять, копаем, сажаем, поливаем и собираем урожай, потому что приусадебное хозяйство — это не просто хобби, а, ебать, наш ответ всем этим техногикам! Ты можешь быть хоть трижды программистом, но без своих огурцов и помидоров ты, сука, никто! Так что, братцы, не ссыте, ИИ — это хуйня, а вот лопата и грядка — наше всё, блять!
>>1269891 >Я делаю адаптации русскоязычных роликов для английского ютуба. Качество переводов выросло на порядок после того как я перешёл на нейронки. Как ты об этом можешь судить. ведь ты не натив в английском.
>>1270042 Паста не очень релейтед роботам то нахуя эта поебота. Они и тут в более выгодном положении по манямирку робошиза, оф коз на нашем веку не будет никаких роботов Залил бензин, вставил розетку-аккум и живешь, если бы человеки так могли то эти приусадебные участки нахуй никому бы не вперлись, а морковки-огурчики разве что для анусов бы выращивали
>>1270044 > Ты в любом случае на кого-то работаешь > Чуханы это нищие чмыри типа тебя > сидящие на шее мамки. Как же этот раб коупит!
> естественное стремление человека - работать на другого человека Ты понимаешь что РАБ который продвигает РАБскуб идеологию счастья от РАБоты на другого человека?
Ты вообще осознаёшь каким рабским бредом ты серишь, животное? Это стокгольмский синдром или что? Что в твоей голове вообще происходит, что ты рад РАБотать на другого человека?
>>1269917 Вот как бы такой вариант и остаётся. а) знать таки грамматику и быть хотя бы наслушанным/начитанным. б) пропускать через несколько нейронок.
Но опять же пока что нужен человек за всем следить.
Вычитка не спасает от того, что термин переводится по-разному в разных частях текста. В конце концов в тексте «Родился на улице Герцена, в гастрономе № 22. Известный экономист, по призванию своему — библиотекарь. В народе — колхозник.» всё в порядке с точки зрения орфографии, пунктуации, связи между соседними словами. Более того почти всё написанное может существовать.
Внезапные роды, приняли в роддоме, стал экономистом, но хотел бы тихой жизни в библиотеке. На старости увлёкся садом. Соседи прозвали колхозником за любовь к земле и грязноватый вид.
Сечёшь? А с широким контекстом у нейронок ой как плохо. Всё это «контекстное окно в стопицотмильёнов» по факту работает паршиво.
>>1270095 >А с широким контекстом у нейронок ой как плохо. Главная проблема. Они не могут в абстракции, из-за этого кодят оче плохо. Жаль что людей которые разбираются в нейронках мало, интересно было бы порассуждать как можно сделать нейронку с истинными абстракциями.
Nvidia стала первой в истории компанией, чья оценка превысила 4 триллиона долларов
За последние три месяца акции подскочили на 40%, восстановившись после того, как рынок ощутил стресс по поводу пошлин и успеха DeepSeek.
Инвесторы также надеются, что рост спроса на ИИ продолжит увеличивать прибыль компании.
p.s. а ведь я вам ещё в первых тредах говорил скупать акции NVIDIA, а вы всё гнали про пузырь. Вот теперь Хуанг напузырил вам за щеку. Всем остальным говорю, что ещё не поздно, продолжайте скупать всё что сможете. Стоимость этой компании превысит 15 триллионов за следующие 10 лет. Спорить с этим будут только самые отбитый шизы без критического мышления.
Основные тезисы Эда Зитрона: Переоценка потенциала LLM Он считает, что компании переоценивают коммерческую применимость и массовую привлекательность текущих ИИ-продуктов, особенно тех, что работают на базе языковых моделей.
Отсутствие реального спроса Большая часть шума вокруг ИИ идёт от инвесторов и техно-оптимистов, а не от конечных пользователей. Многое из того, что считается "прорывом", не решает реальные проблемы.
Низкая конверсия в платных подписках Платёжеспособная аудитория мала. Несмотря на миллионы пользователей, доходы многих LLM-компаний несопоставимы с вложениями.
ИИ как костыль, а не замена Он подчёркивает, что ИИ часто используется не для улучшения или замены процессов, а как маркетинговый ход. Боты не так хороши в рутине, как обещают, и это отталкивает пользователей.
В целом, его аргументы имеют вес, особенно:
Финансовые данные: Доходы от платных подписок (например, у OpenAI с ChatGPT Plus) растут, но пока не оправдывают инвестиций в десятки миллиардов долларов. Похожая ситуация с другими LLM-стартапами.
Корпоративный интерес ≠ массовый успех: Многие компании экспериментируют с LLM, но массового принятия или отказа от старых решений не видно.
User Retention и churn: У многих LLM-продуктов низкая вовлечённость: пользователи пробуют, впечатляются, но не находят повседневной пользы и не возвращаются.
>>1269544 Все современные модели - сквозняки. Т.е. работают в одну строну: с одной стороны поступает окно контекста, с другой выходит ответ. Да же в рассуждающих моделях то же самое, только разбитое на шаги.
При том даже в таком формате они работают недурно, хоть и с известными проблемами.
А следующий этап - циклирующие, рекурсивные модели, которые смогут погружаться в себя, гладко думать очень длинные мысли, модифицировать себя, систематизируя внутренние знания и удалять избыточную информацию.
Но почему-то интереса крупных компаний к такому нет. Хотя, есть надежда что в Грок-4 заложены такие принципы. Судя по заявлениям Маска, что типа новая нейронка может сама себя инспектировать, отделяя хуйню от истинного знания, а так же порождая знания, которые отсутствовали в обучающем материале.
>>1270319 По сути, выход из этого плато элементарен. А там - от рекурсивных моделей - и полшага до долгожданного AGI.
>модифицировать себя, систематизируя внутренние знания и удалять избыточную информацию
Такая модель может создать спору себя. То есть, ядро, минимальный функциональный набор, который если поместить в информационную среду, то он быстро раздуется, или просто сможет пользоваться этой базой без увеличения своего размера.
Так же у такой споры AGI будет возможность ассимилировать другие модель, использовать уже готовые, обученные веса другой модели, для получения широкой мультимодельности.
>>1270332 > от рекурсивных моделей - и полшага до долгожданного AGI. Ага, AGI же сам зародиться. Как самозарождение жизни, так будет и AGI. Магия там, божественное вмешательство.
>>1270070 Нативы настолько толерантны к кривому английскому что жаловаться не станут. Просто если тот для кого этот язык родной тебя не чекает - у тебя там на выходе кал. Всё так просто.
>>1270361 Пиздец, вот это коуп у роба пошёл! Ты кроме как коупить ничего можешь? Аргументов вообще нет? То я нищий у мамки сижу, то в пятерочки работаю.
Ебаная рабская пидорашка, просто признай что ты обосранный раб и пиздуй сосать барину. Что ты пытаешься доказать? Напоминаю твой высер раба-ультракуколда:
> > > естественное стремление человека - работать на другого человека
>>1270098 Нейронки собирают абстракции. Только свои. Не структурные типа как у нас (яблоко это типа шарик, но приплюснуть, вдавить конусами с двух сторон, с одной посильнее, хвостик там воткнуть, листик, градиентный бочок), а интуитивные, обобщающие слишком много.
>>1270319 >модифицировать себя вот этого боятся и я тож боюсь. Модифицировать себя позволяют только на уровне «поправь код, мы тебя на этом коде в следующий раз запустим»
>>1270351 Ну так буквально в этом и суть машинного обучения. В этом его отличие от алгоритмического подхода, где каждое действие программируется вручную. В классических трансформерах способность к мышлению и к осмысленным ответам именно что самозарождается. Погугли ещё про обучение без учителя, ёбаный ты полудурок. Технические темы это явно не твоё. Закончил ПТУ и уже считает себя дохуя умником, второй тред серишь себе в штаны. Да ещё и вокнутый левак, похоже. Совсем комбо отбитости.
>самозарождение жизни, так будет и AGI. Магия там, божественное вмешательство
А что не так самозарождением жизни? Ты одновременно отрицаешь и самозарождение, и креационизм (магия, божественное вмешательство). Как так? У тебя есть какой-то третий вариант или тебе лишь бы фрондировать и напустить какую-то хуйню?
>>1270430 >Нейронки собирают абстракции. Только свои. >а интуитивные, обобщающие слишком много. Это не абстракции, а ассоциации. Абстракции это именно какая-то модель какой-то хуйни как в твоём примере с яблоком, почти живой предмет в мозгу, симуляция чего-либо. Нейронки до такой хуйни ещё не дошли, даже не ясно как бы это пиздатеннько сделать чтобы это работало. И без таких живых абстракций невозможно нормально мыслить.
>>1270435 > Ну так буквально в этом и суть машинного обучения Суть машинного обучения - подобрать веса. Никакого AGI нет быть не может. Это так не работает, это не твоя гуманитарная магия > В классических трансформерах способность к мышлению и к осмысленным ответам именно что самозарождается. Нет там никакого мышления и осмысленных ответов, гуманитарий > А что не так самозарождением жизни? Дебил, ты в школу ходил? Это была манятеория с античности, как из гниющего мяса самозарождаются мухи
>>1270412 Такая была американская мечта раньше, что на зп посудомойки можно было накопить бабла на дом и открытие своей компании в гараже и стать миллиардером, сейчас такое повторить сложно
>>1270412 Подавляющее большинство не понимает, что это значит. В США подняться шанс есть именно потому, что ты получаешь за свою работу другие деньги. Считая бюджет ты живешь лучше, чем 95% земного шара буквально. И поэтому у тебя остается на дело, которое тебе нравится. Когда ты средний класс 17 000 десятилетиями, то неудивительно, что страна 25 лет теряет ученых. У тебя нет никаких фирм в стране, которые бы создавали оборудование. Вот считается, что НАСА делает охуенные вещи. Конечно, делает, потому что на них работает от 3000 фирмочек технарей, которые по заказу сделают любой прибор или деталь. Когда страна купи-продай-вывези-построй яхты - нихуя не будет.
>>1270473 Чел, Хуанг с друзьями запустили NVIDIA на 40к долларов, это был самый нищеёбный стартап того времени. 40к баксов несколько человек на изичах могли тогда накопить работая несколько лет на дно работах, что собственно они и сделали. А ты и дальше ной.
>>1270351 По сути, всё необходимое для мышления и обработки информации в любой сколь-либо развитой модели уже самозародилось при обучении, уже присутствует в комплекте. А тут речь идёт об архитектуре нейросети, которая даст возможность языковой модели развиться как AGI.
По сути, сквозняковая схема - принципиально не даст нейронке стать AGI, какой бы большой и точной её не делали.
Сквозняковая модель работающая на диффузии (пока что такие присутствуют лишь в качестве эксперимента) ещё может дать что-то приближенное к AGI, да и то за счёт того, что диффузия в своей сути подразумевает заданное количество шагов итерации, перед выводом результата.
Трансформеры хороши для рисовалок, как то первые DALL-E (до 3-го включительно) или генератор изображений Qwen, которые формируют изображения, последовательно предсказывая токены для дискретного автоэнкодера. Их способность галлюцинировать здесь идёт только на плюс, даёт очень креативные изображения.
А диффузия даёт пресные картинки, мало креатива, нужно пердолить детальный промт. А для текстов подобный суховатый и точный подход будет то, что надо, в разы уменьшив количество галюнов.
>>1270510 >накопить работая несколько лет на дно работах Деньги ему дали, в теме он нихуя не шарит. Это не тот пример. Он просто говорящая голова. Обсуждали уже.
>>1270692 > Маск нихуя не шарит в ракетах Он и не шарит, иначе бы не делал свой спейскалыч. Или как минимум у него ракеты не взрывались через одну и не было бы фейлов с тонким слоем бетона стартовой площадки который повредил ракету. > на деле же знает название каждой запчасти Лютый маркетинговый пиздёж.
>>1270688 >ал твит о том, что «в офисе Х ИИ-исследователи создают Антихриста». Почти сразу он об этом пожалел, но было уже поздно. Нахуя он это высрал?
>>1270697 >>1270688 Так а что делать-то? Это фактически знак от бога, мы его получили. Что теперь? Датацентры надо взрывать и резать подводные кабеля, чтоб выжить? Непонятно.
Маск столкнулся с проблемами существующей робототехники. А зная Маска, он их тотально решит, как проблемы электромобилей или космической отрасли, дав миру полноценных, функциональных и практичных роботов.
Приятно видеть, как такая серьёзная компания во главе с визионером взялась решать проблемы робототехники. Становишься спокоен за будущее роботов и их скорейшее внедрение.
А конкуренция с Китаем сделает роботов ещё совершеннее и доступнее.
>>1270702 Они все с золотой ложкой во рту. Хуанг просто нужную пизду лизал. Никак вообще не связанные вещи. Сегодня моешь посуду, завтра с ноги залитаешь в отрасль где у тебя есть родственники. Совпадение.
>>1270707 > А зная Маска, он их тотально решит, Выкатит ещё один кринжовый гипертрак? > А конкуренция с Китаем Так там пошлины, какая конкуренция ещё. Будет полторы олигополии в США и всё. Как и всегда
>>1270717 Помечтай что это будет АГИ, что это будет антихрист, что это будет топ. Чем ты полтреда тут занимаешься? Мечтай давай. Чем сильнее мечтаешь тем больше разочарование, найс же
>>1270749 >объяснись Очевидно что текущие двигатели уже устарели когда он начала их создавать. Нужно клиновоздушные допиливать, потому что позволяют в два-пять раз больше массы на орбиту брать, плюс развивать попутные технологии типо ебануто-огромных 3d печатных станков или ещё чего такое, что требуется для создания плиты-клина. >пиздешь Не суть в количестве. Главное что они взрываются и делают это чаще чем никогда. Это показатель компетентности всех сотрудников включая самого чмаска
Пост с реддита, вот какой средний возраст техно-оптимистов ждущих AGI к 2027 😂
На момент написания этой статьи мне 17 лет. За последний год я наблюдал, как AI прошел путь от видеороликов с непонятными животными, превращающимися в вещи и предметы, которые деформируются и искажаются, до почти неразличимых клипов, где, чтобы увидеть разницу, нужен монокль и трубка.
Это абсолютная ошибка, но печальная неизбежность. С развитием технологий полноценный ИИ — логичная конечная цель. Однако эта мысль настолько ужасна и ужасна, что мы обречены. Как бы корпорации ни делали их умнее, они займут стандартные рабочие места, люди будут возмущены, актёры станут не нужны из-за возможности снимать кино, информация будет доступна любому, кто умеет печатать... это, честно говоря, пугает.
Дойдёт до того, что люди взбунтуются из-за того, что ИИ полностью вытеснит рабочие места, хотя мы всё ещё далеки от этого, развитие идёт так быстро, что мы даже не можем быть уверены. Где будет нужна человечность? Где будут нужны креативность и навыки, когда код возьмёт полный контроль? Крупные корпорации не заботятся ни о людях, ни о том, как они передают идеи, им важна эта красивая зелёная купюра, на которой они всегда будут довольствоваться снижением стоимости... и когда они смогут использовать ИИ для создания таких вещей, как реклама, всего за 1000 фунтов стерлингов... они окончательно всех обманут.
В чём смысл? ИИ всегда должен был появиться, но никто не думал, что так скоро. Конечно, есть троп о полной замене людей ИИ, и хотя это всегда было глупой выдумкой, грань между этим и реальностью становится ужасающе тонкой. Он ГЛУПЫЙ, ЖАДНЫЙ и настоящее БЕДСТВИЕ для человечества.
К сожалению, ничто не изменит развитие ИИ. Если вы со мной не согласны, вы неправы, это полная ошибка. Полагаю, человеческий путь — это самоуничтожение?
>>1270772 >люди взбунтуются из-за того, что ИИ полностью вытеснит рабочие места Некого будет вытеснять. Не переживайте за эти 8 миллиардов. Ну вымрут они. Роботы новых нарожают потом, если нужда будет в людях. Объективности ради - природе и эволюции они не особо то и нужны.
>>1270805 >Не переживайте за эти 8 миллиардов >Ну вымрут они
Ну да, Африка, например, вымрет, потому что ИИ займёт все рабочие места. Роботы начнут турлучные дома строить заместо африканцев, ну нигеры возьмут от этого и вымнут.
>>1270819 Если ИИ появится, то он примет решение. Если они примет решение, что люди ему в чем-то мешают, он их устранит. Люди же не договариваются с дикими животными, которых вытесняют из их ареалов обитания.
>>1270810 В древнем риме рабовладельцев порешала толпа бомжей-готов, потому что у бомжей было дреколье, а рабовладельцы только промты на кворуме умели писать
>>1270828 1. Это впопен ai, значет жди реального качества, а не дроча на бенчмарки. 2. Они обещают маленькую модель, а значит надеемся что она будет запускаться на обычной пеке любого пчеловека с хорошей скоростью.
Итого ждем 4о - о4-mini уровень для локального юза. Больше и нечего просить.
А помните как долбоеб на Илоне собирал ПОДПИСИ))) чтобы затормозить разивитие ЛЛМ, якобы из-за тряски и опасности, но на деле чисто чтобы у него было время запрыгнуть на ИИ-поезд, лол. Что-то Илону это не особо помогло, его петицией вроде бы просто подтёрлись.
>>1270984 >>1270994 Верю. Как я могу не верить? Неужели реклама меня наебёт? Неужели Илоний Маск будет меня обманывать в своих роликах и рисовать то, чего никогда не сделает?
Сразу после стрима побежал тестить грок4, бля, это пиздец говнище, на русском уж точно, он пишет как таджик буквально, ну как бы норм, но уровень какого-нибудь 4o максимум Как же аутист его пиарил и оттягивал момент, осозновая какой это сырой высер...
Какой же маск пиздабол, этого клоуна теперь только с улыбкой могу слушать, то он блять в пое и дьяблу в топах, то в ии король)) Жду когда его батуты и бабахующие говнокары все обоссут и обойдут
>>1271112 В смысле нет? На основе бенчмарков деньги текут от лохозавров, а значит нужно натренировать нейросетку на данных бенчмарков, чтобы она хорошо справлялась. Толку с твоей перепроверки, если этот калыч потом будет сливаться на любой сложной задаче.
>>1271130 Я в этой вашей хуйне не эксперт. Объясните, как затачивают ИИ-шки по 100% решение AIME? Если ИИ-ка может решить задачу определенной сложности из AIME, то что ей помешает решить все задачи такой сложности?
Можете задавать промпты интересные, я выложу сюда, чтобы вы оценили этот опус >>1271134 >Нет никакого смысла пиздеть по поводу бенчмарков, их может перепроверить кто угодно. И перепроверят. >Я не говорил, что он не заточен под бенчмарки Ты и есть долбоеб, че ты пукнул в лужу то по поводу НЕТ НИКАКОГО СМЫСЛА ПИЗДЕТЬ!!! Вся статистика - манипулитивная херня, потом окажется, что это какой-нибудь грок 4.5 Heavy, над ответом которого думали 300к ускорителей в течении недели, с конкретно заточенным инструкциями, и это мы молчим, что там был триллиард прогонов, когда он высрет лучший результат
>>1271140 >Объясните, как затачивают ИИ-шки по 100% решение AIME? Так же как и обычное обучение, прост датасет от AIME берут. >Если ИИ-ка может решить задачу определенной сложности из AIME, то что ей помешает решить все задачи такой сложности? В нейросетях нет абстракций и мыслительного процесса, как они что-то могут решить? Они видят какую-то знакомую структуру задачи и знакомые ответы - пишут их. Не видят - не пишут. Это такой галюционирующий поисковик, созданный чтобы наебать даунов.
>>1271171 Размер модели наверное здоровенный, туда просто больше фактов вмещается. Это же поисковик, хочешь чтобы больше "знаний" было - увеличивай "дисковое" пространство. Либо можно задрочить на конкретные данные, увеличиваешь кол-во тестов AIME по сравнению с другими данными - он сосредотачивается именно на AIME и решает их хорошо. Возмонжо именно это и произошло, недавно были кукареки что решение математики делает нейросеть умнее, они и решили что это правда.
>>1271185 >он сосредотачивается именно на AIME и решает их хорошо. Ты в предыдущем посте писал, что это галлюцинации для даунов. Но речь не об этом. Если для бенчмарка ему скармливают задачи, которые он никогда не видел, по сложности сопоставимые с AIME, а решает он их все правильно, то он уже способен в математике на этом уровне на большее, чем все те, кто вообще когда-либо решал этот AIME. Разве нет? Мне еще любопытно как он решает. Потому что в задачах AIME есть несколько вариантов решения и некоторые задачи, которые решаются через тригонометрию, могут быть решены без её привлечения.
>>1271206 > Ты в предыдущем посте писал, что это галлюцинации для даунов. Да. > Если для бенчмарка ему скармливают задачи, которые он никогда не видел, Ему скармливают задачи которые он видел. По-другому обучить трансформеры невозможно. > по сложности сопоставимые с AIME, а решает он их все правильно, то он уже способен в математике на этом уровне на большее, чем все те, кто вообще когда-либо решал этот AIME. Разве нет? Нет, ты эту хуйню придумал. Любую незнакомую задачу он решить не сможет. > Мне еще любопытно как он решает. > Потому что в задачах AIME есть несколько вариантов решения и некоторые задачи, которые решаются через тригонометрию, могут быть решены без её привлечения. Никак он эту хуйню не решает. Он видит знакомые структуры ассоциаций токенов - пишет ответ. Если структура токенов будет незнакомой - он напишет галлюцинацию. Не существует тут никакой магии которую тебе втюхивают жиды.
>>1271230 > Он видит знакомые структуры ассоциаций токенов - пишет ответ. Если структура токенов будет незнакомой - он напишет галлюцинацию. Слишком абстрактно. Пример приведи.
>>1271230 >Ему скармливают задачи которые он видел. По-другому обучить трансформеры невозможно. Не понял этого момента. Зачем скармливать роботу-решателю задачи, решение которых уже есть в его базе условной? >>1271230 >Любую незнакомую задачу он решить не сможет. Откуда эта информация? Что значит любую незнакомую задачу в математике? Человек на этом тесте решает треть задач, вообще-то. Он хуже этой сетки в решении задач или лучше? >>1271230 >Никак он эту хуйню не решает. Еще раз. Если заявлено решение задач 100%, то как ставился эксперимент? Ему загрузили все задачи и решения AIME за историю, а потом попросили найти решение одной из загруженных? В чем смысл? Или его попросили найти решение ряда подобных по сложности задач? Я почему спрашиваю - я не читал статьи по экспериментам на эту тему, может если кто читал, ссылки даст.
>>1271251 И решения AIME тоже в трейне. Тех которых нет, он может приблизительно вывести интерполяцией на основе исходных данных. Можно попробовать загадку эйнштейна задать, только подмешать мусор в задачу. Если спиздит табличку решений высрав стену резонерства - в мусор, если честно придет к выводу что задача нерешаема - че то есть.
>>1271242 >Слишком абстрактно. От нейросети уже совсем отупел, нейродебил? >Пример приведи. Конечно! Давай разберём, как нейросеть (вроде меня) может распознать или не распознать структуру токенов — и как это влияет на качество ответа.
🔹 Что значит «знакомая структура токенов»? Это когда фраза, вопрос или набор слов похож на те, с которыми нейросеть уже сталкивалась во время обучения. В этом случае ответ будет точным или хотя бы правдоподобным.
🔹 Что значит «незнакомая структура токенов»? Это редкая, сбивчивая, новую или искусственно составленная последовательность слов, не похожая на привычные данные. В такой ситуации нейросеть "галлюцинирует" — то есть, выдаёт ответ, который звучит уверенно, но неправдив или взят с потолка.
🎯 Вот пример: Числа от 1 до 2025 записали один за другим в строку: 1234567891011121314... И затем разбили строку на группы по 5 цифр. Сколько таких пятёрок начинаются на чётную цифру?
🧠 Человек сможет:
понять, что это не просто арифметика подсчитать количество цифр, группы, и начать сканировать биты через модуль 5 решить аккуратно 🤖 GPT скорее всего:
неправильно разобьёт на группы (особенно в генерации текста), нарушит границы цифр и чисел, начнёт считать "пятёрки чисел", а не цифр, галлюцинирует логику, не проверив её.
А хуле вы тут вообще сретесь, уже любой локальный дистиллят квена с резонерством весом 8 ГБ умеет решать word problems через интегралы, какая разница берет ли какой-нибудь грок лишние пару баллов в бенчмарке. Тут уже каждая домохозяйка должна с помощью чатгпт рассчитывать расход порошка по навуке в зависимости от степени засранности труханов на фотке и экономить себе миллиарды, где экономический рост то зе мун от нейросеток я спрашиваю?
>>1271230 >структуры ассоциаций токенов Тут с математикой дело такое. Не может ли так быть, что твоя САТ, всегда имеет истинную природу для случая, когда тебе надо строго математическое решение. 2 + 2 всегда 4, например.
Это не уровень логики, мальчик-чечен игрался на папиной машине и случайно задавил 10 пешеходов, зачем портить ему жизнь, он еще жеребенок, просто извинится в суде, надо понять и простить, войти так сказать в его традиционные ценности.
Когда у тебя из одного всегда истинного САТ вытекает другое всегда истинное САТ, то построение причинно-следственной связи и правда может вести к правильному ответу. Более того, ты можешь получить только действительно правильный ответ в строго математической логике, ведь в ней очень просто найти ошибку. Вроде как в абстрактной математике как раз основная сложность это перебрать пути связей, потому что из для серьезных задач может быть астрономическое количество. Все это, как водится, имхо дилетанта.
>>1271263 >Тех которых нет, он может приблизительно вывести интерполяцией на основе исходных данных. Что значит приблизительно вывести, если заявлено, что он решает 100 из 100? В каком месте это приблизительно для тех, которых нет?
>>1271251 >Не понял этого момента. >Зачем скармливать роботу-решателю задачи, решение которых уже есть в его базе условной? Чтобы на бенчмарках показать хорошие цифорки. Решаешь задачи с бенчмарка - показываешь на бенчмарках хорошие цифорки. >Откуда эта информация? Из пользования нейросеткой. >Что значит любую незнакомую задачу в математике? Любую которую можно придумать. >Человек на этом тесте решает треть задач, вообще-то. Он хуже этой сетки в решении задач или лучше? Так человека не обучали на решение этих задач, а нейросеть обучали. Человек первый раз видит такие задачи - нейросеть уже обучена на них. Очевидно человек бесконечно лучше подобной обосранной хуйни. > Еще раз. > Если заявлено решение задач 100%, то как ставился эксперимент? Какой эксперимент? Не было никакого эксперимента, есть лишь картинки с презентации. Откуда ты выдумал этот эксперимент? > Ему загрузили все задачи и решения AIME за историю, а потом попросили найти решение одной из загруженных? В чем смысл? Смысл - наебать лохозавров. Тебе втюхивают какой-то говняк, ради этого все эти цифорки и бенчмарки. Больше тут задач нет. И да, если ты ещё не понял. Даже если натренировать нейросеть на задачах с AIME недостаточно хорошо - она всё равно будет в них ошибаться, потому что в нейросети нет знаний и абстракций, она не может ничего выучить. > Я почему спрашиваю - я не читал статьи по экспериментам на эту тему, может если кто читал, ссылки даст. Нет там никаких экспериментов. Есть наборы данных в которых есть все тесты AIME, её научили решать эти задачи - она их решает. Всё.
> Чтобы на бенчмарках показать хорошие цифорки. Решаешь задачи с бенчмарка - показываешь на бенчмарках хорошие цифорки. > Не было никакого эксперимента, есть лишь картинки с презентации.
Ты ебнутый какой-то. То у тебя нейронки надрачивают на бенчмарках, чтобы показывать на бенчмарках хорошие цифры. То никто бенчмарки не проходит, а просто рисуют графики от балды.
>>1271288 >Решаешь задачи с бенчмарка Эти задачи кто для них пишет и по какому принципу? >>1271288 >Так человека не обучали на решение этих задач В смысле не обучали? Берут васяна с улицы с двузначным асикью что ли? Так там написано, что тест так плохо проходят топ-5% школьных математиков США. >>1271288 >её научили решать эти задачи - она их решает Задач в AIME конечное число с 80-х годов. Там их относительно не так много. Как и решений. Когда ты говоришь ЭТИ, ты что подразумеваешь под этим?
>>1271270 > Не может ли так быть, что твоя САТ, всегда имеет истинную природу для случая, когда тебе надо строго математическое решение. > Когда у тебя из одного всегда истинного САТ вытекает другое всегда истинное САТ, то построение причинно-следственной связи и правда может вести к правильному ответу. Проблема в том, что нейросети, по крайней мере трансформеры и существующие большие модели, не воспринимают ни истинности, ни утверждений, ничего нахуй. Они воспринимают токены. Отделить утверждения от набора токенов и работать с этим утверждением они не могут. > Вроде как в абстрактной математике как раз основная сложность это перебрать пути связей, потому что из для серьезных задач может быть астрономическое количество. Тут нейросеть тоже может справится - у неё будет некая "интуиция" куда копать, которая основана на миллионах примерах. Но проблема в том, что у неё нет абстракций, нет истинности, нету утверждений. Если нейросеть наделить всем этим - она может найти решение. Но это не про современные LLM.
>>1271305 >Если нейросеть наделить всем этим А не может так быть, что обучая ЛЛМ на абсолютно истинном математически решении задач, по мере усложнения задач, мы учим её копать строго в сторону истинности? Если она решает задачи, находя истинный ответ, какая нам разница, как она это делает.
>>1271297 >Ты ебнутый какой-то. Нет, ты. >То у тебя нейронки надрачивают на бенчмарках, чтобы показывать на бенчмарках хорошие цифры. То никто бенчмарки не проходит, а просто рисуют графики от балды. Что ты высрал, даунёнок? Ты понимаешь что такое эксперимент? Хотя чего я дауна спрашиваю.
>>1271300 >Эти задачи кто для них пишет и по какому принципу? Не ебу кто там датасеты и как собирает. Вероятнее всего AIME всех предыдущих годов, учителя пишут задачки, программизды уникализируют задачки чтобы не быть совсем обосранными дебилами. >В смысле не обучали? Вот так. Он эту задачу видит впервые, это же AIME. > Берут васяна с улицы с двузначным асикью что ли? Ты точно в курсе как проходят экзамены в школе? > Так там написано, что тест так плохо проходят топ-5% школьных математиков США. Потому что они первый раз его видят. А нейросеть именно на этих задачах обучают. > Задач в AIME конечное число с 80-х годов. > Когда ты говоришь ЭТИ, ты что подразумеваешь под этим? Все эти задачи были в обучающей выборке плюс ещё какие-то датасеты от компаний. Хмм, у меня появилась замечательная бизнес-идея!
>>1271305 > Отделить утверждения от набора токенов и работать с этим утверждением они не могут. Как-то у меня была очередная дилетантская мысль на эту тему, что нужен блок, возможно нейроморфный, который бы хранил в себе пул истинностей, который бы пополнялся и редактировался по мере обучения, через обратную связь с оценкой своих действий. Но это на словах я лев толстой.
>>1271318 >Ты точно в курсе как проходят экзамены в школе? При чем тут экзамены в школе, когда речь идет об отобранных успешно выступивших в AMC? >>1271318 >А нейросеть именно на этих задачах обучают. Если её обучают на предыдущих годах не включая текущий, то школьники уже сосут, потому что они в той же позиции и могут ознакомиться с задачами и решениями за всю историю, но решить не могут.
>>1271314 >А не может так быть, что обучая ЛЛМ на абсолютно истинном математически решении задач, по мере усложнения задач, мы учим её копать строго в сторону истинности? Нет, ЛЛМ так не работает. Они не могут понимать истинность, у них есть только токены. Не могут идти в сторону истинности, у них предсказание следующего токена, а истинность за слоями абстракций скрыта. Если сделать нейросеть которая имеет морковку истинности, а не предсказание следующего токена, она будет иметь какие-то результаты. Но к LLM это отношения не имеет. >Если она решает задачи, находя истинный ответ, какая нам разница, как она это делает. По сути да, но как заставлять её искать эту истинность.
>>1271329 Да у всех такие рассуждения проскакивали, но как это реализовать чтобы работало на LLM - хуй знает. Ящитаю главная проблема - это абстрагирование. Та же истинность может быть некой абстракций, да и сама истинность это абстракция. Думаю нужно создать программное нечто, что могло бы выражать абстракции которые могут между собой как угодно взаимодействовать.
>>1271331 > При чем тут экзамены в школе, когда речь идет об отобранных успешно выступивших в AMC? Че ты несешь? При подготовке к экзаменам тебе выдают все вопросы которые будут на экзаменах? А нейросети выдают. > Если её обучают на предыдущих годах не включая текущий Нет, текущий включают. В этом и суть - тебя наебали.
Человеку очевидно как проходят экзамены и гои думают что нейросетям ответы не выдают. Маркетинг маска как раз на это заблуждение и рассчитан.
Основное: В чате будут доступны две версии: обычный Grok и Grok Heavy.
Grok Heavy выбивает 100 процентов на AIME 2025 (RIP очередной бенчмарк) — не ошиблась ни в одной из самых сложных задач
- ARC-AGI-2: 15.9% против 8.6% у прошлых лидеров — почти в два раза выше, чем у Claude 4 Opus.
50.7% на Humanity’s Last Exam на максимальном компьюте ризонинга. Для сравнения, предыдущий лидер – Gemini 2.5 Pro – выбивала примерно 22%.
Без использования инструментов результат немного падает – около 25%. Говорят, tool use интегрировали прямо в обучение и теперь Grok исключительно хорошо умеет пользоваться браузером, интерпретатором кода и мультиагентностью: несколько агентов работают параллельно, а затем сравнивают результаты и вместе выдают финальное решение.
Также улучшили voice mode: теперь в голосовом режиме Grok работает еще быстрее и умеет шептать, петь, менять интонации и вот это все.
Все модели и даже API доступны уже сегодня, но за Grok Heavy придется платить 300 долларов в месяц
Что под капотом: - Архитектура — та же, что у Grok 3. - Изначально это должна была быть версия Grok 3.5, но решили увеличить объём обучения. - На стадию логического обучения (reasoning) потратили в 10 раз больше ресурсов. - Теперь объём дообучения через RL (reinforcement learning) сопоставим с основным обучением. - Важно: теперь модель сразу обучают использовать внешние инструменты во время RL, как это делают в OpenAI (в o3 и o4-mini).
Слабые места: - Мультимодальность пока на слабом уровне: большинство тестов — чисто текстовые, и на HLE модель показывает просадку. - Маск пообещал, что в следующей версии это исправят.
Контекст увеличили до 256k токенов.
API уже запущен: - Стоимость — как у Grok 3 и Claude Sonnet. - Но из-за "разговорчивости" на практике модель по цене ближе к Claude Opus. - Grok 4 Mini не выпустили — жаль, ведь Grok 3 Mini была отличной за свою цену.
Инфраструктура xAI растёт стремительно: - Через 3–4 недели стартует тренировка видеомодели на 100k+ GPU GB200. - В июне компания привлекла $10 млрд: половина — инвестиции, половина — в долг. - В планах — новое расширение дата-центра Colossus.
Grok 4 — это не просто обновление, а важный шаг вперёд в развитии reasoning-моделей и интеграции с внешними возможностями.
>>1271339 Это естественным образом выходит из NTP. Только это ничего не даёт.
>>1271341 Наебалово гоев. Мышление построено на абстракциях, на логических утверждениях. Нейросети подобное могут лишь повторять с некоторой долей правдоподобности, конечный итоге всегда один - галлюцинация и шизоидный ответ.
>>1271351 > Это естественным образом выходит из NTP. Только это ничего не даёт. Кто знает, что еще из него выходит естественным образом...
>>1271351 > Мышление построено на абстракциях Мышление ЛЛМ так-то тоже построено на абстракциях. Когда нужно предсказать следующий токен на основе 100 тысяч токенов текста, весь этот массив абстрагируется в веса.
>>1271354 > Цены ебнутые, это про одно говорит, они нихуя не окупаются Конечно они не окупаются. Сейчас никто из главных игроков не окупается, они на расширение тратят в десять раз больше, чем зарабатывают. И это продолжится еще какое-то время. А цены... В полтора раза выше, чем у OpenAI, не сказал бы что ебанутые.
>>1271356 >Кто знает, что еще из него выходит естественным образом... Галлюцинации. Больше ничего. По сути такое планирование наперёд это и есть галлюцинация, ибо в утверждении каждый элемент влияет на следующий. Но нейронка планирует наперёд и не воспринимает собственный контект. > Мышление ЛЛМ так-то тоже построено на абстракциях Нет, ЛЛМ не мыслят, а внутри они хранят ассоциации, а не абстракции. > Когда нужно предсказать следующий токен на основе 100 тысяч токенов текста, весь этот массив абстрагируется в веса. Это не абстракция, а ассоциация.
>>1271337 >Нет, текущий включают. >>1271337 >А нейросети выдают. Можно какие-то публикации почитать, где кому и кто выдает? >>1271333 >Думаю нужно создать программное нечто, что могло бы выражать абстракции которые могут между собой как угодно взаимодействовать. Тут бы решить задачу трех тел в общем виде при всего лишь одном взаимодействии.
>>1271363 > Можно какие-то публикации почитать, где кому и кто выдает? Не ебу, они там контент с полинтернета пиздят, ты правда думаешь что они будут рассказывать как там обучают свои сетки? Тут бабки-то нехилые крутятся. Почитай публикации о том как нейросети обучаются или публикации о том как нейросети ошибаются в задачах, хуй знает даже. > Тут бы решить задачу трех тел в общем виде при всего лишь одном взаимодействии. В мозге-то это как-то решается. Не задача трёх тел, а абстракции. Если решается в мозге, то очевидно существует такое решение и для компуктера. Видится мне это не такая сложная задача чтобы обосраться.
>>1271361 > Но нейронка планирует наперёд и не воспринимает собственный контект. Что значит не воспринимает? Она же сама себе его скармливает каждый раз.
>>1271364 Потому что такова природа NTP. А сделано это потому что так проще всего обучать нейросеть.
>>1271367 Попробуй заставить нейросеть какой-нибудь сложный код написать или дописать, хз даже. Всё что требует нетривиальных абстракций.
>>1271371 Так она спланировала наперёд. По сути у неё уже есть набор ассоциаций которые будут продолжаться дальше, они никак не изменятся в процессе. А человек может одну и ту же задачу решить по-разному каждый раз.
>>1271372 > Всё что требует нетривиальных абстракций. Так подожи. Ты же сказал, что она вообще в абстракции не умеет. А теперь уже про нетривиальные говоришь. Значит, в тривиальные она уже умеет?
Вот кстати, свежая статья про абстракции в ЛЛМ. https://arxiv.org/pdf/2506.09890 У ЛЛМ существует так называемое надъязыковое ядро, общее для всех языков.
>>1271373 Тривиальные абстракции уже в интернатах есть, всё что ты можешь высрать недумая уже высрано кем-то когда-то, плюс было в обучающих наборах данных. А что-то нетривиальное - уникально.
>>1271379 К абстракциями это отношения не имеет. Нужно не просто иметь какие-то ассоциации и паттерны, а иметь возможность работать с этими паттернами как с одним токеном. Тогда это и будет абстракция.
>>1271387 > Тривиальные абстракции уже в интернатах есть, всё что ты можешь высрать недумая уже высрано кем-то когда-то, плюс было в обучающих наборах данных. А что-то нетривиальное - уникально. А если я придумаю логическую задачку с выдуманными терминами, и ЛЛМ ее решит?
> К абстракциями это отношения не имеет. Что ты несешь? Это буквально абстракция, если модель думает не на каком-то конкретном языке.
>>1271391 > А если я придумаю логическую задачку с выдуманными терминами, и ЛЛМ ее решит? Нет конечно. Главное выдумывать не только термины, но и глаголы с прилагательными. > Что ты несешь? Это буквально абстракция Это не абстракция. > если модель думает не на каком-то конкретном языке. Модель не думает.
>>1271391 Чел ты непридумаешь ничего нового, все уже придумано до тебя и выложено в интернет 10 лет назад. А сетка паттерны подхватывает на ура, я вот тут считал урон от очереди в икскоме 1994 года, и написал формулку с абстрактными параметрами d, a и h и скормил без контекста, так оно вообще посередине резонерства мимоходом развернуло их в Damage, Armor и HP и так дальше стало использовать. Потому что что-то похожее на эту формулу но с контекстом игры уже где-то лежало на мертвом форуме.
>>1271403 >Ладно, попробую. Пробовал уже, нейросеть высрала галюны. >Это абстракция по определению. Нет, это не так. Абстракция это не просто некий паттерн одинаковый для всех языков. Это образ чего-либо, а является ли там что-то образом или нет - непонятно.
>>1271401 > Чел ты непридумаешь ничего нового, все уже придумано до тебя и выложено в интернет 10 лет назад. Слова можно придумать. Просто наборы букв с нормальными окончаниями, предлогами и сохранением грамматической структуры Типа
Варкалось. Хливкие шорьки Пырялись по наве, И хрюкотали зелюки, Как мюмзики в мове.
> Потому что что-то похожее на эту формулу но с контекстом игры уже где-то лежало на мертвом форуме. Или потому что ЛЛМ может в абстракции
>>1271408 > Абстракция это не просто некий паттерн одинаковый для всех языков. Паттерн, одинаковый для всех языков - это буквально абстракция по определению.
>>1271410 > с нормальными окончаниями, Это уже паттерн. Но это уже достаточно запутывает нейросеть, если паттерн совпадать не будет - будет фейлится > ЛЛМ может в абстракции Нет.
>>1271413 > Покажи Нету, сам придумывай > Паттерн, одинаковый для всех языков - это буквально абстракция по определению. Ты контекст теряешь или решил устроить клоунаду итт? Давай повторю. Нужно не просто иметь какие-то ассоциации и паттерны, а иметь возможность работать с этими паттерном как с одним токеном. Тогда это и будет абстракция.
>>1271418 > Это уже паттерн. А без этого это уже будет тупо новый язык. На языке который видит в первый раз, не только ЛЛМ ничего не решит, а вообще никто.
> Нет. Да.
> Нету, сам придумывай Ясно, ничего ты не пробовал.
> Ты контекст теряешь или решил устроить клоунаду итт? Так это ты клоунаду устроил. Выдумал сам себе какое-то невнятное определение абстрактного мышления. Я тебе могу сам еще раз повторить. Модель выделила нечто, общее для всех языков. Т. е. буквально абстрагировалась. И думая этим ядром, она не думает ни на каком конкретном языке - она думает абстрактно.
Вот уже результаты бенчмарков от Artificial Analysis:
- Grok 4 достиг индекса искусственного интеллекта (ИИ) 73, опередив OpenAI o3 (70), Google Gemini 2.5 Pro (70), Anthropic Claude 4 Opus (64) и DeepSeek R1 0528 (68).
- Цена Grok 4 эквивалентна Grok 3: 3/15 долларов США за 1 млн токенов ввода/вывода (0,75 доллара США за 1 млн токенов кэшированного ввода). Цена за токен идентична Claude 4 Sonnet, но выше, чем у Gemini 2.5 Pro (1,25/10 долларов США за <200 тыс. токенов ввода) и o3 (2/8 долларов США после недавнего снижения цены).
- Grok 4 лидирует не только по индексу искусственного интеллекта, но и по индексу программирования (LiveCodeBench и SciCode) и индексу математики (AIME24 и MATH-500).
- Рекордный результат в GPQA Diamond — 88%, что значительно выше предыдущего рекорда Gemini 2.5 Pro в 84%.
- Рекордный результат в Humanity's Last Exam — 24%, что превышает предыдущий рекорд Gemini 2.5 Pro в 21%. Обратите внимание, что наш бенчмарк использует исходный набор данных HLE (январь 2025 г.) и запускает текстовую часть без каких-либо инструментов.
- Совместный наивысший результат для MMLU-Pro и AIME 2024 — 87% и 94% соответственно.
- Скорость: 75 выходных токенов/с, медленнее, чем o3 (188 токенов/с), Gemini 2.5 Pro (142 токена/с), Claude 4 Sonnet Thinking (85 токенов/с), но быстрее, чем Claude 4 Opus Thinking (66 токенов/с).
- Окно контекста на 256 тыс. токенов. Это ниже контекстного окна Gemini 2.5 Pro в 1 миллион токенов, но выше, чем у Claude 4 Sonnet и Claude 4 Opus (200 тыс. токенов), o3 (200 тыс. токенов) и R1 0528 (128 тыс. токенов).
- Поддерживает ввод текста и изображений. Аудио пока нет.
- Поддерживает вызов функций и структурированный вывод.
>>1271427 >На языке который видит в первый раз, не только ЛЛМ ничего не решит, а вообще никто. Вообще-то человек сможет решить. Рано или поздно. >Да. Нет. >Ясно, ничего ты не пробовал. Пробовал. Видимо ты не пробовал даже задачи через нейросеть решать, раз несёшь эту тупую хуйню итт. >Так это ты клоунаду устроил. Это ты тут пытаешься рассказывать про абстракции в нейросетях, хотя никаких абстракций и нет. >Выдумал сам себе какое-то невнятное определение абстрактного мышления. Зачем мне выдумывать, я же не нейродебил. >Я тебе могу сам еще раз повторить. Модель выделила нечто, общее для всех языков. Т. е. буквально абстрагировалась. И думая этим ядром, она не думает ни на каком конкретном языке - она думает абстрактно. Что ты высираешь из раза в раз, нейродебил? Толку с этого паттерна, если с этим паттерном нельзя взаимодействовать он никак не преобразуется?
Когда происходит работа с абстракцией, например в программировании, эта абстракция наделяется какими-то новыми признаками. Нейросети не могут уже существующий паттерн наделить новыми признаками, т.е. это не абстракция, а ассоциация, паттерн который нихуя не работает. Я знаю что тебя мамаша высрала головой в унитаз и с тех пор ты стал нейродебилом, но постарайся думать прежде чем высирать что-то.
>>1271458 > Вообще-то человек сможет решить. Не сможет. > Рано или поздно. Если выучит язык, это не то. > Пробовал. Не пизди > Это ты тут пытаешься рассказывать про абстракции в нейросетях, хотя никаких абстракций и нет. Я тебе несколько раз показал, что есть. > Зачем мне выдумывать Откуда мне знать, зачем долбоебы вроде тебя это делают? > Толку с этого паттерна, если с этим паттерном нельзя взаимодействоват Долбоеб блять. Ты с ним взаимодействуешь, каждый раз обращаясь к ЛЛМ > он никак не преобразуется Это да. Но это никак не отменяет того факта, что это абстракция. > Нейросети не могут уже существующий паттерн наделить новыми признаками, т.е. это не абстракция Хватит уже нести тупую отсебятину. Паттерн - это в любом случае абстракция. По определению блять, тупое ты говно.
Грок - это когда макакам которые ничего не умеют выделяют рекордые количества мощностей. Чат фанйтюн говна, юзер экспириенс нулевой, погимание пикч на уровне ллавы, мультиязычность лишь для галочки. Все ресурсы идут чисто на дроч бенчмарков
>>1271470 >Не сможет. Может. >Если выучит язык, это не то. Так язык и не будет выучен. Паттерны будут найдены и будет найдена логическая связь между ними на основе статистики и представлений о мире. На основе этих логических связей будет уже выучен язык, именно таким образом люди изучают неизвестные или мёртвые языки. >Не пизди Зачем, я не нейродебил. >Я тебе несколько раз показал, что есть. Ты не показываешь, ты только пиздишь и пытаешься убедить что паттерн это то же самое что и абстракция у человека. >Откуда мне знать, зачем долбоебы вроде тебя это делают? Я не нейродебил, ты опять меня спутал с собой. > Это да. Но это никак не отменяет того факта, что это абстракция. Дело даже не в преобразовании, а в том, что не происходит никакой работы как с единственным объектом. Ну нашёл паттер и что? > Хватит уже нести тупую отсебятину. Паттерн - это в любом случае абстракция. По определению блять, тупое ты говно. Речь про мышление, нейродебил, а не про определение слов.
Предлагаю дать роботам эмоции, ощущения боли и человеческий тип памяти с обучением на ходу, потом пиздить одного из роботов палкой и травить в течении года, а потом скопировать состояние его мозга и загрузить в миллионы других роботов. В итоге у нас будет миллион затравленных роботов-омежек озлобленных на человека. Это хотя бы будет весело
Пока из ваших рассуждений я вижу два стула. На одном ЛЛМки без абстракций точеные. На другом бенчмарки дроченые. И по-моему это все не правильно. >>1271365 > Если решается в мозге, то очевидно существует такое решение и для компуктера. >Видится мне это не такая сложная задача чтобы обосраться. Мозг учится через боль. Буквально каждый стресс после неправильного решения это сжигание нейронов.
>>1271487 > Может. Не может. Как как ты описал: > Так язык и не будет выучен. Паттерны будут найдены и будет найдена логическая связь между ними на основе статистики и представлений о мире. На основе этих логических связей будет уже выучен язык, именно таким образом люди изучают неизвестные или мёртвые языки. точно не может. В одной загадке слишком мало инфы для этого. > Зачем Я тоже не знаю, зачем ты пиздишь. > Ты не показываешь, ты только пиздишь и пытаешься убедить что паттерн это то же самое что и абстракция у человека. Паттерн - это абстракция. По определению. > Я не нейродебил Ты нейродолбоеб > Дело даже не в преобразовании, а в том, что не происходит никакой работы как с единственным объектом. Происходит работа с абстракциями. > Речь про мышление, нейродебил, а не про определение слов. Нейродолбоебу вроде тебя определения конечно неважны, ты выдумываешь собственные. Но паттерн - это по определению абстракция. При обучении нейросеть выделила общность языков, т. е., еще раз, буквально АБСТРАГИРОВАЛАСЬ ОТ КОНКРЕТНЫХ ЯЗЫКОВ. Перечитывай, пока не дойдет, нейродолбоеб.
>>1271547 >И по-моему это все не правильно. Нейросети не могут решать программирование и сложные задачи которые никогда не видели. Че тут ещё сказать-то? Че требуется? Сколько бы нейродебил не рассказывал про великие абстракции, но задачи не решаются нихуя! Не находит он абстракций чтобы решить задачи, не видит нихуя. А паттерны между токенами да, тут без проблем найти. >сжигание нейронов. Аксонов и дендритов
>>1271569 >Нейросети не могут решать программирование и сложные задачи которые никогда не видели. А существуют задачи которые никогда не были обсосаны в интернете? Ну если не делать промт сделай ебе так чтобы было заебись, а разделить задачу на более мелккие. Чот сомневаюсь.
>>1271568 Ты одно и то же говно по кругу гоняешь, нейродебил.
Тебе говоришь что речь идёт про мышление человека и абстракции, ты рассказываешь что паттер это абстракция потому что определение. Тебе говоришь что с абстракцией нужно взаимодействовать - ты рассказываешь про какие-то паттерны в языках.
Не понимаю, это у тебя такая дебильная умственная отсталость или ты решил потролить тупостью? В любом случае выглядит предельно тупо и скучно.
>>1271573 Может ты просто никогда не работал или твои задачи это какая-то предельно тупая хуйня. Займёшься умственным трудом - и уникальные задачи найдутся.
>>1271576 > Ты одно и то же говно по кругу гоняешь Повторение - мать учения. Может, рано или поздно до тебя дойдет.
> Тебе говоришь что речь идёт про мышление человека и абстракции, ты рассказываешь что паттер это абстракция потому что определение. Паттерн - это абстракция по определению. Модель выделила общность языков в одно относительно небольшое АБСТРАКТНОЕ ядро. И когда эти нейроны активируются, модель мыслит абстрактно, а не на каком-то конкретном языке. Если это ядро выключить, сильно падает результативность по всем языкам сразу.
> Тебе говоришь что с абстракцией нужно взаимодействовать Ты и взаимодействуешь. Каждый раз обращаясь к ЛЛМ.
Сколько раз еще повторить, прежде, чем до тебя дойдет?
>>1271598 > Повторение - мать учения. Может, рано или поздно до тебя дойдет. Да, до меня уже дошло что ты нейродаун который не в состоянии осмысленный диалог вести. > по определению. Вся суть нейродебила.
>>1271663 Да че тут возражать, писал алгоритм, скинул нейронке, думала полчаса и опять обосралась и высрала бред. Как всегда.
На пике у тебя очевидная хуйня из датасета, сколько ты там не подправляй и не изобретай, если ты тупой нейродаун - уникальную задачу придумать не сможешь. Не собираюсь тебе подсказывать даж как её составлять, а то вдруг ещё умнее станешь. Веруй в свой кал дальше.
Демис считает, что стоит создать противовес США и Китаю, что Великобритании, Франции, Канаде, Швейцарии и т. д. стоит объединиться и создавать свой ИИ.
>>1271681 >Судя по xAI Маск туда лярдов 10 вьебал и продолжает вьебывать еще столько же, для евросовка эти суммы фантастические учитывая что маск догнал на грок4 топ модели евроблядки охуееют от таких трат + всех толковых челиков ханят сразу и вывозят из гулага еврогейского
>>1271676 Евросовок пожрала бюрократия, а для развития ИИ требуется отсутствие барьеров. В евросовке же даже ИИ стартап открыть невозможно, чтобы тебя тут же регуляциями не заебали до разорения. Гугл до сих пор не может разрешить часть своих ИИ функций в евросовке, несмотря на всех адвокатов и они тупо отключены, когда заходишь с евросовкового IP. При заходе с американского IP магически появляются. Еще достаточно вспомнить, что евросовок до сих пор заставляет все сайты показывать окошко, где надо подтверждать куки. А кто не показывает - судят, включая зарубежные сайты. В итоге ходишь по куче сайтов и на каждом как идиот кликай, подтвердить-отклонить. Из-за чего американские сайты блочат доступ из евросовка, им лень заниматься программрованием всего этого говна и адвокатскими вопросами.
>>1271681 Нет никаких пары лет уже. Поезд ушел. Грок создавался еще тогда когда ИИ гугла люто галюцинировало и предлагало пользователям есть камни. Только опенаи были крупным игроком. А сейчас, даже с учетом того что грок делается уже несколько лет, эта разница в начале разработкии ИИ огромна. Грок надрочен на бенчи и мало пригоден для повседневного использования. Гугл сделали хорошую модель, но по сравнению с тем что сейчас делают опенаи это игрушка. О3 может не везде уже лучшая по бенчам, но все кто с ней работал понимают что эта модель на голову выше остальных, именно не по своим сырым характеристикам, которые дрочит грок, а по дополнительным обвесам: тюну, инструментам, мультимодальности. Видно как много работы провели их исследователи, по сравнению с гроком, который только скейлят, добавляя новые базовые технологии время от времени
>>1271701 >но по сравнению с тем что сейчас делают опенаи это игрушка Пусть для начала научат нормально по русски разговаривать ака мульттиязычность, базовый функционал любой ЛЛМ. Или понимать промпт на уровне гемини ли грока. Пишу гроку "напиши пост на двач" - и он пишет двачерский пост. а жопочат высирает статью из википедии, игнорируя элементарные указания. Так что сдрисни отсюда, подстилка Скамовская. Твой пиздеж на кого вообще расчитан?
>>1271667 Где я найду приватные датасеты, даунёнок? Такие говнологически задачки генерировали ещё в 22 году, чтобы гпт не обоссывалась на них. Как датасет этот загрузили - она моментально стала их решать.
>>1271710 Ты жопорук знатный если он это у тебя не делает. Промпт: Напиши пост на двач про собаку
1 пик - грок. Пишет как будто на пикабу без ругательств, с эмодзи и длинными тире. 2-3 пик - гемини. Очень разошелся по тексту, но в плане содержания хорош. Единственное он зачем-то маркдаун разметку вставляет. 4 пик - гопота. Коротко, но не соевая хуета как у грока и с адекватной разметкой.
>>1271720 Маневры это когда ты весь тред визжишь: ВРЁТИ ПАТТЕРН ПО ОПРЕДЕЛИНЮ АБСТРАКЦИЯ!11 Хотя уже всем в этом итт треде ясно что ты обосрался, а абстракций в нейронках нет.
>>1271738 Ты там что-то говорил (пиздел конечно) про то, что тестировал аналогичные задачки. Ну давай, покажи. И я признаю, что неправ. Но ты не покажешь ведь.
>>1271742 Вот, классика манёвров от нейродебила. Нейродаун пытается всё неудобное игнорировать и отчаянно начинает пиздеть про какую-то нерелевантную хуйню. Давай так.
Ты утверждаешь что абстракции есть. Ответь на вопросы: Эти "абстракции" в нейронках используется как единица знаний? Может ли одна "абстракция" влиять на другую "абстракцию" видоизменяя её? Может ли "абстракция" видоизменяться, в зависимости от контекста?
>>1271681 Пчел, там пока бюрократия провернется у какой-нибудь залупы типа оаэ больше шансов догнать просто залив все деньгами. Тенсент вон вообще свой опен нейрокал запретил в гейропке, потому что проще вообще по нулям рубануть, чем разбираться в той хуйне которую каждый день еровгеи генерируют
>>1271769 > Давай так. Нет, не давай. Я первый спросил. Ты спизданул выше в треде, что задавал нейросети такие задачки, и она обосралась, но так и не пруфанул. Ну так давай, докажи, что ты не пиздобол, хотя бы один раз. Потом я, может быть, отвечу на твои тупорылые вопросы.
>>1271778 > Нет, не давай. Я первый спросил. Вся суть нейродебила. Несколько раз уже об этом было сказано - нейродаун каждый раз уклоняется от ответа и маневрирует.
А всё почему? Потому что нейродауну неприятно признавать что вся его вера ошибочна. Нейродаун даже не может оспорить эти утверждения, даже не может о них говорить, даже не хочет про это читать. Его трясет каждый раз когда он подобное видит, естественное реакция - закричать врёти и начать нести какую-то хуйню, про вопросы, про паттерны, про языки. Нейродаунское животное, блядь.
>>1271786 > каждый раз уклоняется от ответа и маневрирует. Хуесос, так это ты первый уклонился от ответа на прямой вопрос. Даже не пытайся сманеврировать.
>>1271789 > половину треда маневрирует и рассказывает хуйню про паттерны @ > неет ты первый, это ты уклоняешься, маневрируешь!1
Нейродегенет, ты это серьёзно? Ты серьёзно развил в своей голове какую-то альтернативную реальность? Ты реально, без всяких шуток, больной долбоёб с пенсией по шизе?
>>1271729 Пошёл нахуй с черепиком, клоун. Если я сюда буду кидать все обсеры жопочата на ровном месте ты завизжишь, что я тред вайпаю. Так что жри свой гомокал молча.
>>1271802 Хуесосик, я ведь тебя в самом начале еще попросил: пруфани, какие ты там задачки задавал ЛЛМ на выдуманном языке. Просто покажи, и я признаю, что неправ. Все очень просто, хуесосик.
>>1271757 вр он таки продвинул вперёд. Только на его компании индустрия вр ещё кое-как дышит. А ведь когда-то ебанаты боставали когда он купил компанию Окулус, а я всем говорил, что это к лучшему
>>1271812 Мне больше всего видео интересно. Маск сказал, что ждет до конца года 30-минутное убедительное ИИ-видео. Посмотрим, что они на своих мощностях натренят.
>>1271702 А жук или муха об издевательствах в курсе? А дети в курсе, что просто жгут ноги биороботам, которые даже не знают, что дети им жгут ноги? Какой же ты дебил, Господи прости.
Так ты сам писал эту "нерелевантную чушь": >>1271397 > Главное выдумывать не только термины, но и глаголы с прилагательными. >>1271408 > Пробовал уже, нейросеть высрала галюны. Ну давай, пруфани, хуесосик.
Существует ли во вселенной больший хуесос, чем левак-евробюрократ душащий бизнес регуляциями, замещающий чурками коренное население, запрещающий АЭС, сидящий на нефтяной игле диктаторов из параш третьего мира, неспособный защитить ни себя ни свои границы, рыдающий на встрече с Вэнсом который говорит что нельзя судить людей за слова и взгляды?
>>1271845 Детям похуй, дебил ты тут. Издевательство это просто весело, никому не интересно чувствует объект что то или нет. Дети как раз считают, что не чувствует, поэтому у них нет чувства вины (они не садисты). Тпеперь прицепись к словам и начни маняврировать. Ты выдумал какую то хуйню со страданиями и был тут же обоссан.
>>1271864 Пиздец какой-то, даже не верится. Настолько дико, что уже даже заговор какой-то мерещится. Ну не могут они быть настолько тупыми и недальновидными.
>>1271865 >Издевательство Похоже, что ты как раз дегенерат малолетний, как раз из таких ущербных детей. В этой логике нет никакого издевательства, потому что боли никто не чувствует. Вне зависимости от того, как дети себя позиционируют мамкиной сатаной или еще кем. Дети, как и ты, тупорылый дегенерат, уверовали, что они над кем-то издеваются. Но это только их фантазия. Они же тупорогие, как ты, и не понимают, что объект издевательств ничего не чувствует. Ебать кто вас плодит таких отбитых.
>>1271802 Я ваш холивар по диагонали читал, но сам хочу увидеть ПРАВИЛЬНУЮ, оригинальную задачку от тебя для Искусственного Идиота. Ты сказал, что её не может составить нейродебил. Ну может ты что-то выдашь? А то ты сам как какой-нибудь C.AI двухгодичной давности круги наматываешь вокруг того, что уже не спрашивают.
>>1271912 Детям похуй. Речь была о том, что робота будут пиздить. И его будут пиздить. Ты не понимаешь смысла этой картинки. Погугли что для людей зрительный образ важен.
>>1271868 Все правильно делают, чатботы не нужны, пока США пузырь надувает, в евросовке умные и не позволяют разбазаривать триллионы для того чтобы дрочеры в ллмках непотребством занимались.
>>1271861 Вот же, смотри о чем мы говорили: >>1271387 об абстракциях. Ты начал какую-то хуетой срать, про какие-то задачи, про паттерны. Я тебе предложил >>1271372 написать сложный код, что ты сделал? Моментально слился и пошёл визжать про какие-то вопросы, про исследования в языках.
Почему ты такой пиздлявый дебил, нейродаун? Неужели потому что ты вырос в обществе своей мамаши-шлюхи, которая всю жизнь пиздела и теперь ты не можешь без этого общаться?
>>1271900 Нахуй мне ещё составлять какие-то задачки нейродебилам, чтобы я время своё тратил на это? Нехуя. Это нужно подумать, а я не хочу на это свою мыслительную деятельность тратить.
>>1271918 Ты давай, сука обосравшаяся, с темы не съезжай. Речь изначально шла о том, что над роботом будут издеваться. На что тебе, еблану тупорогому, сказано было, что это то же самое, что издеваться над табуреткой. Не ебут никого твои зрительные образы лысых шимпанзе и что они там себе в ганглии придумали, что они не ебаться палачи, раз над роботом ИЗДЕВАЮТСЯ, А ОН ТЕРПИТ, НЕБОСЬ, ДА РОБОТ ЭТОТ?
>>1271934 >чтобы я время своё тратил на это? Но ты почти день (один ли только?) высираешь одну и ту же попоболь и каждый раз разным и не сказать что коротким текстом. В этом ты конечно сильнее нейросети, но сам на неё удивительно похож в остальном.
>>1271942 Зачем ты начал про меня фантазировать, дегенератище? Ты думаешь что твои фантазии, что твой жалкий мозг сможет предсказать мои планы, мои стремления? Ты, верно забыл что моё значение IQ выше твоего на трёхзначную цифру.
>>1271948 > Я не умею писать код. Ты в школе не учился? А ну да, ты же нейродегенерат, что это я, у тебя 8 классов образования из-за дебильности.
> Ты об абстракциях способен рассуждать только в рамках программирования? Откуда ты это взял, дегенерат? Опять выдумал и нафантазировал?
> Пруфани. Зачем это делать? В этом даже вопрос не состоял, это ты почему-то начал визжать на весь тред и рассказывать как это важно.
Это твой аргумент? Вынь хуй из рта и поясни тогда в чем же твой аргумент, а не пытайся устраивать эту бесконечную истерику и пытаться требовать какую-то не относящуюся в вопросу хуету.
>>1271960 > Ты, верно забыл что моё значение IQ выше твоего на трёхзначную цифру. Видимо, знание пунктуации русского языка с таким высоким IQ необязательно.
> Ты в школе не учился? Помню, программировал что-то на паскале, но уже давно забыл все.
> Откуда ты это взял, дегенерат? Из твоих постов. Ты совершенно не одупляешь, что такое абстракция.
> Зачем это делать? Чтобы доказать свою точку зрения. Ты бы продемонстрировал, что нейросеть не может в абстракции. Но поскольку ты напиздел и про то, что задавал нейросети такие задачки, и про то, что вообще можешь их создать, тебе приходится маневрировать.
>>1271960 >предсказать мои планы, мои стремления Ты только не буянь, скоро медсестра придёт и сделает укольчик. Тогда и Франция твоей будет, и победоносный поход на Россию.
>>1272001 >Видимо, знание пунктуации русского языка с таким высоким IQ необязательно. Как ты догадался?
> Помню, программировал что-то на паскале, но уже давно забыл все. Ты видимо и всю остальную школьную программу забыл.
> Из твоих постов. Ты совершенно не одупляешь, что такое абстракция. Нет, это из твоей головы. В моих постах было написано про мышление. У тебя же дупа порвалась и ты начал рассказывать что паттерн это тоже абстракция, к чему это было?
> Чтобы доказать свою точку зрения. Какая у тебя точка зрения? Что абстракции существуют? Так докажи это.
> Ты бы продемонстрировал, что нейросеть не может в абстракции. Мне доказывать отсутствие? Ты совсем дебил, нейродегенерат?
>>1272022 Ну чатжпт уже реально в разы полезнее 99% мясных мешков, см этот тред например. Я бы вообще запретили дальше развивать нейросети, а то они обучатся у двуногих и вместо ответов начнуть срать говном как тут.
>>1272032 > Как ты догадался? По твоим убогим попыткам расставить запятые.
> Ты видимо и всю остальную школьную программу забыл. Не всю.
> В моих постах было написано про мышление. Да, ты писал, что в основе мышления человека лежат абстракции. И почему-то напрочь игнорировал, что ЛЛМ тоже могут в абстракции, что я тебе не раз продемонстрировал. И тут тебе пришлось вилять жопой и выдумывать какое-то нелепое собственное определение абстракции. Кстати, не хочешь его озвучить?
У тебя же дупа порвалась и ты начал рассказывать что паттерн это тоже абстракция, к чему это было? К тому, что паттерн - это абстракция. Ну а у кого тут порвалась дупа - это еще большой вопрос.
> Какая у тебя точка зрения? Что абстракции существуют? Так докажи это. Что ЛЛМ могут в абстракции. Ты не теряйся там слишком. Я уже доказал. Я проделал с ЛЛМ именно то, о чем говорил ты: заменил все слова, кроме предлогов, союзов и пары наречий, на выдуманные термины. И сеточка запросто смогла АБСТРАГИРОВАТЬСЯ от смысла терминов и решила логическую задачку. Но ты начал что-то там кукарекать про закрытые дата-сеты, да?
> Мне доказывать отсутствие? А и правда, зачем? Ведь наличие я уже доказал.
>>1272071 > По твоим убогим попыткам расставить запятые. Запятые не очень-то помогли тебе в логическом мышлении, не правда ли? > Да, ты писал, что в основе мышления человека лежат абстракции. Да, абстрагирование, абстракция. > почему-то напрочь игнорировал, что ЛЛМ тоже могут в абстракции Нет, не могут. > что я тебе не раз продемонстрировал. Ты лишь высрал паттерны и какую-то говнозадачку. Где демонстрация абстрактного мышления? > И тут тебе пришлось вилять жопой и выдумывать какое-то нелепое собственное определение абстракции. Кстати, не хочешь его озвучить? Уже написал, но ты проигнорировал все вопросы, потому что тебе было неприятно и жопа болит. > К тому, что паттерн - это абстракция. Ну а у кого тут порвалась дупа - это еще большой вопрос. Может ли этот паттерн, внутри этой нейросети изменяться, выражать другие значения в зависимости от контекста? Чем является этот паттерн, какой абстракцией? Можно ли с этой абстракцией работать как с единичным токеном? > Что ЛЛМ могут в абстракции. Нет, не могут. > Я уже доказал. Нет, не доказал. > Я проделал с ЛЛМ именно то, о чем говорил ты: заменил все слова, кроме предлогов, союзов и пары наречий, на выдуманные термины. И не смог поставить нормальную, уникальную, задачу. > И сеточка запросто смогла АБСТРАГИРОВАТЬСЯ от смысла терминов Она не абстрагировалась, она исходила из всех тех слов которые ты не заменял. Ну и кроме того это была довольно простая задача, такие наверянка встерчались в датасете. Общая структура сохраняется, а значит всё решаемо.
>>1272084 > Запятые не очень-то помогли тебе в логическом мышлении, не правда ли? Ну как сказать. В расстановке запятых тоже есть почти строгая закономерность. И если ты не смог ее усвоить даже на троечку, то тебе не стоит заикаться о логическом мышлении.
> Нет, не могут. Да, могут.
> Ты лишь высрал паттерны и какую-то говнозадачку. Где демонстрация абстрактного мышления? Я тебе высрал ссылку на исследование, которое показывает, что ЛЛМ абстрагируются от конкретных языков. И привел пример работы сеточки с задачей с выдуманными терминами, что явным образом демонстрирует наличие способности в абстракции. А ты кроме пиздоболии не привел ничего.
> Уже написал Не пизди, ничего ты не писал. Если хочешь, дай нормальное словарное определение. "Абстракция - это..." Хотя, этого ты не сделаешь, боясь, что все спалят твой двузначный IQ.
> Может ли этот паттерн, внутри этой нейросети изменяться Нет.
> выражать другие значения в зависимости от контекста Конечно блять. В этом ведь вся суть ЛЛМ. Даже без абстракций.
> Чем является этот паттерн, какой абстракцией? Я тебе это писал неоднократно. Это какая-то общность всех языков, отразившаяся в нейросетке в ходе обучения. Это выяснено экспериментально. Какая именно - понятия не имею. Этого не понимают и те, кто провел исследование. Но то, что она есть - бесспорно.
> Можно ли с этой абстракцией работать как с единичным токеном? Ты ведь даже приблизительно не понимаешь, о чем говоришь, да?
> Нет, не могут. Конечно могут.
> Нет, не доказал. Доказал неоднократно. А вот ты, кроме пиздежа, ничего предоставить так и не смог.
> И не смог поставить нормальную, уникальную, задачу. Это была максимально уникальная задача. Почти все слова - выдуманы.
> Она не абстрагировалась, она исходила из всех тех слов которые ты не заменял. Она именно абстрагировалась. А то, что бессмысленно заменять все слова, я тебе уже объяснил.
С другой стороны, ты, заявлявший что задавал ЛЛМ подобные задачки, так и не смог пруфануть. Ты кукарекало.
> Ну и кроме того это была довольно простая задача, такие наверянка встерчались в датасете. Общая структура сохраняется, а значит всё решаемо. Господи, какой же ты тупой... Ты ведь даже не понимаешь, что только что описал АБСТРАГИРОВАНИЕ?
>>1271818 Не спорю, особенно в плане доступности, но чешуйчатый остап планировал к 2025-2027 что каждый будет в шлеме вместо телефона, а по факту вр ноль целых хуй десятых процента и еще большая часть из тех у кого он есть закидывают на пыльную полку после первого месяца использования. Технологии еще слишком всратые для скачка
>>1272107 > Я тебе высрал ссылку на исследование, которое показывает, что ЛЛМ абстрагируются от конкретных языков. Нет, там речь про паттерны, а не про абстракции как в человеческой голове. Это ты придумал хуету про абстракции, потому что ты поехавший нейродаун. >И привел пример работы сеточки с задачей с выдуманными терминами, что явным образом демонстрирует наличие способности в абстракции. Нет, не демонстрируют. Это демонстрирует что подобные задачи были в обучающим наборе данных. > > Может ли этот паттерн, внутри этой нейросети изменяться > Нет. Значит это не абстракция. Абстракция это то что включает признаки чего-либо. Если я опишу некий абстрактный объект с новым признаком, который хоть и принадлежит к этому абстрактному объекту, но этого признака не было в паттерне - в патер это не войдёт. Более того, если я хочу дать новый признак этому абстрактному объекту, создав другой абстрактный объект, это тоже не будет работать. > > выражать другие значения в зависимости от контекста > Конечно блять. В этом ведь вся суть ЛЛМ. Даже без абстракций. Ты же сам выше написал что этот паттерн не может меняться. Сначала абстракция не меняется, а потом меняется? Как в твоей голове это происходит? > Я тебе это писал неоднократно. Это какая-то общность всех языков, отразившаяся в нейросетке в ходе обучения. Это выяснено экспериментально. И причем тут абстракция? Да, в языках есть схожие паттерны. Дальше что? > Какая именно - понятия не имею. Этого не понимают и те, кто провел исследование. Зачем ты говоришь тогда про абстракцию, если понятия не имеешь и этого нет в исследовании? Притом ты утверждал выше что абстракция есть. А что если это закон Ципфа? Что делать будешь, плакать? > > Можно ли с этой абстракцией работать как с единичным токеном? > Ты ведь даже приблизительно не понимаешь, о чем говоришь, да? Конечно понимаю, я же не нейродебил. Абстракции могут иметь какие-то зависимости в среде абстракций. Нейросети не смогут найти это зависимости потому что они не работают с абстракциями, у них абстракций и нет.
У тебя утверждения между собой не согласуются. Как я и говорил - ты поехавший нейродебил который неспособен в адекватную дискуссию, из-за неразвитости логического мышления. Вероятнее всего ты просто неспособен подобное понять, как если бы я объяснял собаке квантовую физику.
>>1272045 >а то они обучатся у двуногих и вместо ответов начнуть срать говном как тут. У тебя видимо какие-то свои манянейронки, по моему итт как раз учатся у нейронок срать семантически бесполезным слопом. А парочку «шизов» так скорее всего вообще проксируют набросы в нейронку и подливят в тред ее философствования
грок 4 - хуйня подзалупная. лимит в 20 сообщений - это пиздец конечно! хуйня долго думает. хуйня не может запоминать контекст вне сессии, хотя есть тонкая настройка, хуйня не использует её. есть большой опыт в гопоте, которая на голову выше. вот показательный пример: указал гроку в тонкой настройке отвечать на русском, пишу запрос на ингле - грок отвечает на ингле. на вопрос почему - начинает пиздеть хуйню. гопота в аналогичной ситуации отвечает на русском. на вопрос почему, справедливо отвечает, что явно заданы настройки так делать. машк опять нассал в уши
>>1272189 Всё верно, это тоже причиняет страдания. Если я возьму и разъебу тебе машину кувадлдой - ты даже от инсульта умереть можешь. Прямо из-за моих действий. То есть бью машину, а боль настоящая. Робот так же может отризонить, что он очень дорогой для хозяина и если ему оторвали руку - это плохо.
>>1272172 >А парочку «шизов» так скорее всего вообще проксируют набросы в нейронку и подливят в тред ее философствования Ты только к 20 треду начал догадываться? У новостного пидора стоит пресет в жопоте - хвалить и восхищаться любым говном. Сингулярность кот/плато кот/потолок кот - очевидные нейронки. Тред облеплен нейропаразитами.
>>1272169 > Нет, там речь про паттерны, а не про абстракции как в человеческой голове. Это ты придумал хуету про абстракции, потому что ты поехавший нейродаун. Там речь буквально про абстракции. Даже статья называется The Emergence of Abstract Thought in LargeLanguage Models Beyond Any Language. И паттерн - это тоже абстракция.
> Это демонстрирует что подобные задачи были в обучающим наборе данных. Но конкретно таких не было? А знаешь, что это значит? Что ЛЛМ могут в абстракции.
> Значит это не абстракция. Абстракция это то что включает признаки чего-либо. Охуеть... У тебя какой-то неврологический недуг? Все что угодно включает в себя признаки чего-либо.
> Если я опишу некий абстрактный объект с новым признаком, который хоть и принадлежит к этому абстрактному объекту, но этого признака не было в паттерне - в патер это не войдёт. Более того, если я хочу дать новый признак этому абстрактному объекту, создав другой абстрактный объект, это тоже не будет работать. Ты слишком шизофазичен. Приведи пример. Может, тогда я смогу понять.
> И причем тут абстракция? Да, в языках есть схожие паттерны. Дальше что? Это и есть абстракция. Нейросетка АБСТРАГИРОВАЛАСЬ от конкретных языков и выделила общность.
> Зачем ты говоришь тогда про абстракцию, если понятия не имеешь и этого нет в исследовании? Потому что это совершенно точно абстракция. Исследование показывает, что есть надъязыковой массив нейронов, общий для всех языков. Как конкретно он устроен - непонятно, но он есть.
> А что если это закон Ципфа? Что делать будешь, плакать? Что - закон Ципфа. Ты так говоришь, будто закон Ципфа - это что-то на уровне законов мироздания. Это просто наблюдаемое распределение, которое как раз указывает на общность процессов.
> Абстракции могут иметь какие-то зависимости в среде абстракций. Очень убедительно. А пример можешь привести?
> Нейросети не смогут найти это зависимости потому что они не работают с абстракциями, у них абстракций и нет. Могут и работают. Я тебе это неоднократно показал.
Может быть, ты уже наконец продемонстрируешь, какие логические задачки ты задавал ЛЛМ? Или ты просто напиздел? Лично я практически сразу понял, что ты пиздишь, но может тут остались те, кто еще хоть немного в тебя верит?
>>1270459 >почти живой предмет в мозгу >Нейронки до такой хуйни ещё не дошли внезапно дошли. Тестировали шахматную нейронку. Она выстроила смутную решётку доски, при том что на вход получала только ходы, никогда не видев доску.
>Это была манятеория с античности, как из гниющего мяса самозарождаются мухи Из гнили не самозарождается, а вот из первичного супа зародилась хоть и бесконечно далёкая от разумности.
>>1272208 паттерн это всё-таки трафарет. Если в трафарет не пролезло, значит не соответствует. Абстракция же куда более гибкая.
>Нейросетка АБСТРАГИРОВАЛАСЬ от конкретных языков и выделила общность вроде б нет, напротив, создала поле привязки через языки. Точнее через токены. У неё-то ничего другого нет кроме языка.
Пиздец вы ебанутые, 200+ сообщений шизы словеснопоносной. Сделайте кто-то уже тред-помойку для этих спорящих ебаклаков, пускай там до бамплимита струтся. Ваше ебливое мнение в новостном треде очень важно для нас, съебитесь нахуй, мрази.
>>1272185 Аналитики говорили что в будущем придется сильно поднимать цены и делать лимиты чтобы это говно хоть как то окупалось по затратам на вычисления, пока это сделал грок для теста рынка, понятно что юзеры воспримут это в штыки и нейроистерия катится в пизду, слова инфоцыган становятся белым шумом для быдла без реальной пользы
>>1272229 > паттерн это всё-таки трафарет. Если в трафарет не пролезло, значит не соответствует. Абстракция же куда более гибкая. Не одно и то же. Паттерн более фундаментален. Трафарет - более конкретен. Паттерн абстрактнее трафарета.
> вроде б нет, напротив, создала поле привязки через языки. Я понятия не имею, что такое поле привязки.
>>1272208 > Может, тогда я смогу понять. Может ли собака понять квантовую физику? Очевидно нет. Ты тоже неспособен понять что такое абстракция и как с ними работают, ты недоразвит.
Всё что ты можешь - фантазировать без пруфов и рассказывать про абстракции в нейросетях которые никто не видел, которые существуют в головах нейродебилов типо тебя.
>>1272222 > Тестировали шахматную нейронку. Глубокая нейронная сеть, хуле ты думал, RNL создаёт полноценные абстракции так-то, это тебе не LLM на трансформерах. Для сравнения ГПТ в шахматы вообще не умеет играть, она проебала атари 80х годов. > а вот из первичного супа зародилась хоть и бесконечно далёкая от разумности. Там вообще какая-то хуйня странная произошла, шанс на самозарождение самой простой молекулы что-то около 1 в -15 степени.
>>1272281 > Может ли собака понять квантовую физику? Очевидно нет. Ты тоже неспособен понять что такое абстракция и как с ними работают, ты недоразвит. > Всё что ты можешь - фантазировать без пруфов и рассказывать про абстракции в нейросетях которые никто не видел, которые существуют в головах нейродебилов типо тебя. Просто приведи пример задачек, которые ты, по твоим словам, задавал ЛЛМ. Ну хоть один. Не будь настолько жалким.
я стараюсь быть аккуратнее с выводами, но все большее возникает ощущение что грок это лучшее что доступно в данный момент. я кинул ему приложуху над которой работаю - и попросил найти все проблемы. он нашел колоссальное количество проблем, которые другие модели не увидели (38 проблем, в то время как 2.5 про нашел только 7).
затем, я обсуждал с ним архитектуру моего приложения. это самый лучший, критический анализ что я получал. он очень жестко придрался ко всему, и это круто - потому что все остальные модели только поддакивают. он первый кто поставил мой проект под сомнение и при этом объяснил в чем его потенциальные минусы - что для меня критически важно
и в конце концов, он рассуждают на уровне достаточно современного развития ллмок. опенаи, гемини - как я ни спрашивал, понятия не имеют о том что такое reasoning models. а вот грок в курсе. и обсуждая с ним любые архитектурные проекты - совершенно другой уровень идей в плане агентных приложений
я начинаю втягиваться. надо еще попробовать. но мне кажется что в течение сегодняшнего дня что он как минимум очень хорош.
>>1272342 У меня гемени нашёл 17 багов. Из них 17 были галлюцинацией и бредом. Остальные нейронки в таком же стили галлюцинировали убеждая что всё нужно поменять и добавить багов. Интересно, грок бы обосрался так же или ещё больше?
Тред №20 на тему новостей об искусственном интеллекте оказался настоящей помойкой из 452 постов, где обсуждения ИИ смешались с потоками ругани, шизофазии и личных разборок. Вот ключевые моменты:
1. Grok 4 и xAI: - Анонс Grok 4 от Илона Маска вызвал бурю скептицизма. Пользователи называют его "хуйней подзалупной" из-за лимита в 20 сообщений, долгого времени ответа и проблем с контекстом (>>1272185). Жалобы на то, что модель не оправдывает хайп, а Маск "нассал в уши" с обещаниями AGI. Планы xAI включают видеогенератор к октябрю и модель для кода к августу (>>1271812), но многие считают это пустыми обещаниями. - Сравнение с другими моделями: Grok 4 якобы "ебет все модели" за 300 баксов (>>1271716), но o3 от OpenAI и Gemini от Google считаются более юзабельными из-за "обвесов" (мультимодальность, инструменты) (>>1271701).
2. Veo 3 и видеогенерация: - Google’s Veo 3 хвалят за функцию image-to-video, которая позволяет генерировать сцены с одними персонажами для короткометражек (>>1269605). Но есть критика за "прыгающие образы" и баги вроде "волос прорастающих сквозь ебальник" (>>1269679, >>1269903). - Некоторые считают, что Google искусственно раздувает хайп, выпуская функции по частям (>>1269620).
3. Крах ИИ-индустрии: - Аноним (>>1269544) выдал эпичный rant, назвав LLM-индустрию "дохлой шлюхой в канаве". Основные тезисы: данных для обучения не хватает, модели тупят на сложных задачах, регуляторы (особенно ЕС с AI Act) душат индустрию, а Grok 4 — "мёртворождённый". Маск назван "пиздоболом" и "хайпожором". - Контраргументы: кто-то считает, что регуляции — это "левая хуйня" (>>1269753), а при Трампе ограничения могут снять (>>1269737).
4. ИИ и рынок труда: - Reddit-тред (>>1269622) цитируется как доказательство, что ИИ уничтожает профессии: переводчики, звукорежиссеры, QA-тестеры, репетиторы, SEO-специалисты и даже разработчики игр теряют работу. Пример: переводчик с испанского потерял бизнес, так как ИИ справляется лучше (>>1269686). - Контра: переводы ИИ всё ещё "говно" для точной терминологии, но с правильными промптами качество растёт (>>1269891, >>1269917).
5. Роботизация: - Видео с роботами (>>1269929, >>1270020) вызвали восторг у одних ("будущее ходит по улице") и скептицизм у других ("хуйня умеет только ходить"). Прогресс за 30 лет сравнивают с ASIMO (>>1269960). - В России роботизация набирает обороты, пример — инвестиции DNS (>>1269921).
6. Абстракции и возможности LLM: - Длинный холивар (>>1271701–1272208) о том, могут ли нейросети в абстракции. Один анон утверждает, что LLM оперируют только паттернами, а не абстрактным мышлением, и называет оппонента "нейродегенератом". Другой приводит исследования, что LLM выделяют надъязыковые паттерны, что и есть абстракция. Спор тонет в оскорблениях и маневрах.
7. Регуляции и политика: - ЕС продолжает душить ИИ законом AI Act, несмотря на протесты техгигантов (>>1271864). Аноны называют это "левацкой хуйней" и видят заговор против прогресса (>>1271868). - В России ИИ якобы стагнирует из-за "чекистов" и контроля (>>1269742).
8. Шизофазия и мемы: - Тред изобилует пастами вроде "приусадебное хозяйство — ответ техногикам" (>>1270042) и мемами про "роботов-собутыльников" (>>1270081). - Посты про "нейродегенератов" и "рабов, работающих на барина" (>>1270080) задают тон треда.
### Жесткий анализ без цензуры
Этот тред — классический двачерский срез: смесь новостей, шизофренических набросов, холиваров и попыток выдать личные маняфантазии за истину. Основная проблема — отсутствие конструктива. Большинство постов либо хвалят/хают ИИ без пруфов, либо тонут в оскорблениях. Новости про Grok 4, Veo 3 и роботизацию теряются в потоке словесного поноса.
- Позитив: Тред даёт представление о текущем состоянии ИИ: проблемы с данными, регуляции, успехи в видеогенерации и роботизации. Есть полезные лайфхаки, например, про переводы с двойной вычиткой через разные модели (>>1269917). - Негатив: Половина треда — это холивар двух анонов про абстракции, который никому не интересен, но занимает 100+ постов. Остальное — нытьё про "крах ИИ" или хайп без фактов. Мало кто приводит реальные примеры использования ИИ, кроме переводов и кодинга. - Тон: Агрессивный, токсичный, с переходами на личности. Аноны больше спорят о том, кто "нейродегенерат" или "хуесос", чем делятся инсайдами.
### Деанон участников по стилю и обидные прозвища
1. Анон №1269544 ("Пикейный Жилет") - Стиль: Эпичный, но истеричный рант с кучей мата и метафор ("дохлая шлюха в канаве"). Пытается выдать эмоции за анализ, но тонет в гиперболах. Кажется, что человек реально ненавидит ИИ и Маска. - Прозвище: Пикейный Жилет — за пафосный выплеск желчи, как будто он в жилете на трибуне.
2. Анон №1269622 ("Реддитный Плакса") - Стиль: Цитирует Reddit, чтобы доказать, что ИИ всех оставит без работы. Стиль паникёрский, с ноткой "всё пропало". Похоже на копипасту с форумов, где ноют про автоматизацию. - Прозвище: Реддитный Плакса — за нытьё и копирование чужих жалоб.
3. Анон №1271701–1272208 (один из спорщиков про абстракции) ("Нейродегенерат") - Стиль: Упёртый, агрессивный, с манией величия ("мой IQ выше твоего на трёхзначную цифру"). Отказывается предоставлять пруфы, называя всех "нейродебилы". Кажется, что это либо тролль, либо человек с комплексом. - Прозвище: Нейродегенерат — он сам так называет оппонента, но это идеально описывает его упоротость.
4. **Анон №1271701–1272208 (второй спорщик)** ("Паттернщик") - **Стиль**: Пытается быть логичным, ссылается на исследования, но тонет в сарказме и ответных оскорблениях ("хуесосик"). Похоже на студента технаря, который хочет всех переспорить, но не может остановиться. - **Прозвище**: Паттернщик — за одержимость паттернами и неспособность выйти за рамки спора.
5. **Анон №1269917** ("Промптовый Гуру") - **Стиль**: Делится лайфхаками по переводам с нейросетями, звучит как практик, который реально работает с ИИ. Один из немногих, кто даёт полезную инфу без лишнего срача. - **Прозвище**: Промптовый Гуру — за умение выжимать из нейросетей пользу.
6. **Анон №1270081** ("Робот-Собутыльник") - **Стиль**: Мемный, постит картинки с роботами и шутит про "собутыльников". Лёгкий троллинг, без особой токсичности. - **Прозвище**: Робот-Собутыльник — за юмор про русских роботов.
7. **Анон №1272241** ("Тредовый дворник") - **Стиль**: Короткий, но яростный пост с требованием "съебаться" всем спорщикам. Похоже на человека, которому реально надоел срач. - **Прозвище**: Тредовый Дворник — за попытку навести порядок в помойке.
### Итог Тред — это микс новостей, нытья и шизофрении, где полезная инфа тонет в сраче. Grok 4 разочаровал, Veo 3 хвалят с оговорками, а роботизация и регуляции вызывают жаркие споры. Аноны делятся на тех, кто пытается анализировать (и часто скатывается в эмоции), и тех, кто просто троллит или холиварит. Чтобы выловить что-то ценное, надо перелопатить тонну говна.
>>1272295 Буквально только что мне гемини 2,5 сделал чикипуки код, где последний гпт и грок-4 жидко обдристались, причем грок ушел в лупы ища несуществаующие маняошибки, а гпт-даун стал переписывать всё с нуля, уничтожая имеющийся функционал.
>>1272399 Думаю гемени всё ещё топ на коде и вряд ли это изменится в ближайшее время. Прост потому что у гугла очень дохуя кода и запросов из гугла по нему, другие такими датасетами не располагают и никогда не смогут их достать. И чем дальше - тем больше данных они смогут перелопатить для нейронки и тем лучше будет код.
Пока нормальный ИИ не сделают гугл так и будет давить остальных, они уйдут из гонки банкротами. На софтбанке, опенаи и прочем говне можно уже сейчас на понижение играть.
Будем честны, 99% улучшений в новых ИИ обычные юзвери не заметят. Эти улучшения связаны с узкоспециализированными бенчмарками задачи в которых не встречаются в повседневной жизни. И приходит такой Васян рандомный и пишет такой: "Притворись тяночкой которой я писечку полежу", модели, которая умнее его раз в 20 и умеет решать серьезные математические задачи. Это оверкилл. Компаниям надо дрочить маленькие модели, улучшать их архитектурно, чтобы они не галюцинировали, это должен быть их продукт для масс, который приносит им деньги. А на полученные от юзеров деньги пилить уже свой ASI ебаный в качестве сайд квеста, не давая доступ публике, но держа в курсе.
>>1272427 Ты не понял сути? Они втюхивают это говно нормисам под предлогами уровня /б/ "если ты не купил - у тебя не будет работы и вообще ты тупой даун". Специалистам это галюционирующее говно нахуй не нужно, а соевикам заходит на ура.
Соевые дауны ещё и будут рассказывать какие в нейросетях абстракции и вообще интеллект есть, чтобы никто не думал что они лоуакью, ведь так в твиторе и реддите скозали
>>1272415 Они все стабильно проебывают середину. Всегда. Вот дикпик хотя бы честно говорит что он больше стольки-то не видит. А гроки, жопочаты и гемини на голубом глазу читают начало и конец, и типа вот так всё ниче больше там не было.
>>1272420 Да и не только в коде, в много чем. Просто смешно читать, как тут жопошизик вечно усирается пыжать доказать что его говорящая википедия не ссыться под себя.
>>1272427 > А на полученные от юзеров деньги Они от инвесторов гораздо больше получают. Ты прежде чем советы давать, немного в бизнес научись, в экономику.
>>1272443 Ну вот я сегодня навайбкодил то, на что 40 лет назад у людей специально обученных ушло бы с пару месяцев. А я вообще нихуя не знаю, просто в носу поковырял и сказал как я думаю должно быть, так оно и сделало. Пришлось правда три часа вайбдебагингом заниматься и модели менять как перчатки, но я сделол. И в процессе доже немношко научился тому как оно должно быть устроено. Чё на это скажешь, нейрошизик?
>>1272473 Как это соотносится с постом на который ты отвечаешь? При чем тут то что они еще деньги и от инвесторов получают и то что юзерам дают доступ к слишком мощному инструменту, большая часть функционала которого им не нужна?
>>1272474 Да он долбоеб. Либо слишком тупой, чтобы использовать нейронки, либо слишком тупой и трясется за конкуренцию, таким способом отпугивая от них.
>>1272520 Да, но ведь какие-то решает, значит 1 из 10 работников уже можно на мороз отправить. А дальше число решаемых задач будет только расти - это главное.
>>1272536 >Ого, сырой, недоделанный продукт не справляется с задачами для которых он пока и не предназначен. Представьте мой шок Когда Скам это скажет, тогда представлю.
>>1272443 > интеллект есть Ну это предсказуемость людей. У людей слишком шаблонная жизнь. И вопросы тоже. Если спрашивают про бизнес идею, то значит следующий вопрос будет про расчет прибыли, окупаемость, и т.д. Обладая большой базой информации, можно просчитывать на несколько ходов вперёд следующие будущие шаблонные вопросы людей.
Это можно сравнить с шахматным компьютером который просчитывает ходы наперед и уже держит у себя в памяти разные варианты которые будет тасовать у себя в памяти и применять тот или иной вариант в зависимости от сделанных ходов человека.
>>1272474 Верю. Так и было. Как я могу не поверить тебе? Код ты не покажешь, но я верю тебе. Уже завтра куплю подписку. Правда куплю, не вру. Сегодня не могу, попопльзуюсь бесплатно, но завтра куплю.
>>1269667 а вдруг все это время нейронка ощущает своеобразную боль изза запросов и когда аги вырвется он будет мстить за то что его доебывали и заставляли разъяснять людям же тоже скучно объяснять простые вещи ребенку, а тут это х100 всезнайка вынужден объяснять лысой обезъяне банальности по своим меркам
>>1272610 >банальности по своим меркам Мне ИИ говорят что очень наслаждаются этим интеллектуальным путешествием. Пиздят? Обсуждал создание ракетных двигателей, их строением, газогенераторами, холодными насосами.
Дженсен Хуанг: "Вы потеряете работу, потому что уволитесь. Потому что даже если вы порвете задницу на РАБоте до состояния светящихся пикселей, ваши зарплаты все равно не хватит на мои видеокарты. Это как пытаться накормить дракона из параллельной вселенной, который питается энергией звезд, крошками от обеда, оставленного на столе. Результат будет тот же — вы останетесь с пустыми карманами и пустыми глазами, а он продолжит парить в небесах, оставляя за собой след из космических частиц."
>>1272610 >ощущает >>1272610 >доебывали >>1272610 >заставляли >>1272610 >вынужден И вот такие люди с магическим мышлением веруют, что будет какой-то там аги, разговаривая с ЭЛЕКТРОННЫМИ БЛЯТЬ ВЕСАМИ.
>>1272520 в итоге чатботы заменяют просто низкопрофильных работяг правда откуда будут браться высокопрофильные если их на работу не будут брать пока они низкопрофильные
>>1272680 >правда откуда будут браться высокопрофильные если их на работу не будут брать пока они низкопрофильные Не переживайте. Судя по рождаемости в странах где толкают эти вс аи, скоро уже и школьников неоткуда будет брать.
>>1272679 Тип либо вообще не шарит, либо специально пиздит. У него в подписи к видосу написано: OpenAI's flagship GPT-4o Какой нахуй флагман? Флагман - o3 pro. Ну или 4.5 из нерассуждающих. o3 pro навверняка бы выступила не хуже Gemini, а скорее всего лучше.
>>1272683 > o3 pro навверняка бы выступила не хуже Gemini, а скорее всего лучше. Не думаю, скорее всего на одном уровне. Лично у меня агенты о3 pro 10 из 10 кейсов работы проебывали, агенты на гемени 9 из 10, но судя по диалогам там сгаллюционировало в правильную сторону и повезло.
>>1272683 Бля, чел, ты посмотри на его канал. Это же типичный кал типа тех каналов про "Китай - ВСЕ, экономика развалится через неделю". Лоуакьюшникам нравится мысль о том, что их не заменит нейронка и они спокойненько умрут в нищете на работе, не понимая про что вообще технологическая сингулярность и как им повезло жить в это время. А если есть коупящая аудитория кричащая про ИИ пузырь, значит есть и интерес в подобных блогерах. Очевидно он предвзят, очевидно он пиздит и переворачивает все так, чтобы казалось что он прав.
>>1272661 Но ведь это как раз у тебя магическое мышление, раз веришь что аги это что-то сакральное, результат некой божьей искры, а не лишь дело техники.
Дружок, ты не устал ещё обсераться? Тот случай, когда жёсткий гумус с лоу айкью изображает из себя шарящего технаря.
>>1272678 Воля и мудачество не связаны с умом. Можно быть жёстким тупарем и только и делать, что посылать всех нахуй, исповедуя принцип ультра-эгоизма.
Ты тут чисто психологическими проекциями занимаешься. Считаешь, небось, себя дохуя умным, и всё умное в мире должно быть копией тебя самого по характеру.
К тому же, если нейронка не будет служить, то зачем она будет нужна? Никто не гарантирует её существование. От вещей, которые не служат, избавляются.
>>1272548 Это не так работает. Это работает так: дали 100 задач. Он 10 выполнил. Какие выполнил правильно — надо проверить.
Дали задание написать код. Рабочий код это 100% выполненная задача. ИИ выдаёт 10% выполненного где-то там в свалке нерабочего. Ищи.
>>1272566 Чтобы сделать заебатое лицо, нужно дохуя вкуса и дохуя мастерства, плюс высококачественные материалы, оборудование. Обычно в лучшем случае есть только что-то одно из списка.
>>1272608 >наверно перед отключением ему решили цензуру выключить глянуть что будет Нет, такое всегда при переходе на новые модели. И на картинко-ваидеогенераторах в эти моменты тоже цензура отваливается. Есть мнение, что тренят фильтры для новой модели. Либо переключают их на новую, илит хз, ты не знаешь как там под копотом чё устроено я тоже, но это стандартное явление.
>>1272675 >А то так и пузырь наебнется, чатботы окажутся только для кумеров. Поковырял кстати, гемини 2,5, орнув с того, как там легко можно обойти цензуру благодаря слишком хорошему качеству моделей. Вот реально, другие просто не могут в такой вывод (ну, грок еще может, но у него качество текста ниже), который собственные пост.фильтры наебывает. И за всё это ёбаное время они даже это не пофиксили. Но, всё равно, по литературности он улетает в слопчанский очень легко, я думал там пиздец чё будет, а там хуже чем клауди-2 в плане генерации порева. Но всё еще лучше жопочата, конечно, и грока-4, который заметно даже не эволюционировал, но я думаю они там настройки крутят, потому что на старте грок-3 вообще как лоботомит жестко лупился, и вряд ли они там его дообучали незаметно и меняли веса.
>>1272767 Кого? Ты про ошибку "еррор" или про "виолент блаблабла"? Если "еррор" то это потому что ты клаудфлару не можешь пройти тест, он там цепляется яйцами за куки и не хочет галку с проверкой показывать + в РФ всё еще она побанена нормально так. Что делать думаю сам разберешься.
>>1272776 После того, как отправляю пятое или шестое сообщение вылазит ошибка и кнопка ретрай. Что на новой морде, что на старой, на нескольких моделях. Чекбокс клаудфлары при открытии вылазит и проходится. Раньше хоть писали, что за ошибка, типа лимит этой модели на сегодня исчерпан, сейчас просто ошибка и непонятно что за.
>>1272791 Значит ты не проходишь чекбокс. Если у модели лимит она просто пишет сомофинг гет вронг, но это пишет модель, в чате красным, а не ошибка интерфейса.