Домен arhivach.hk временно не функционирует! Используйте адрес ARHIVACH.SITE.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №115 /llama/

 Аноним 18/03/25 Втр 19:19:18 #1 №1103326 
Llama 1.png
Альфа от контекста.png
KL-divergence statistics for Mistral-7B.jpg
17422437054910.jpg
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст, бугуртим с кривейшего тормозного говна и обоссываем калотарок.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/

Инструменты для запуска на десктопах:
• Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/llm-models
• Неактуальный список моделей устаревший с середины прошлого года: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Moraliane и https://huggingface.co/Aleteian
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/

Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1098615 (OP)
>>1094772 (OP)
Аноним 18/03/25 Втр 19:22:42 #2 №1103341 
IMG4098.jpeg
Я ужас формирующий мнение на чужиших отзывах, я хейтер популянрго, я долб…
К чему я это : реквестирую Ваше кря относительно новой мистрали. Что гоняли, как по цензуре, что по языкам ?
Аноним 18/03/25 Втр 19:30:16 #3 №1103361 
>>1103346 →
>файнтюны на NemoMix-Unleashed-12B
https://huggingface.co/Aleteian/Darkness-Reign-MN-12B

>>1103338 →
>>1103341
>Ваше Кря относительно новой мистрали
Гавно. Чуда не случилось.
Просто на бенчмарки решили подрочить видимо.

>>1103328 →
>Не забываем обоссывать калотарку
Я не он(а), но осуждаю.
Аноним 18/03/25 Втр 19:38:21 #4 №1103369 
>>1102952 →
>pci-e карточки для рабочих станций и серверов имеют мощность в 300вт и существуют, не вводи в заблуждение.
Почитал, вроде бы и да, но какого хуя тогда 8 пин передают 300 (по 75 на пару), а 6 пин псины всего лишь 150 (по 50 на пару). Какой-то лютый проёб, даже сильнее, чем я думал. Нахуя тогда невидиевское новомодное горящее говно, если хватает двух процессорных.
Аноним 18/03/25 Втр 19:38:23 #5 №1103370 
>>1103361
>Гавно. Чуда не случилось.
>Просто на бенчмарки решили подрочить видимо.
Что отыгрывал ? Сколько постов написал ? В чём говно ? Тупая и не понимает оборотов? А на каком языке ?
Аноним 18/03/25 Втр 19:40:52 #6 №1103371 
>>1103361
>Я не он(а), но осуждаю.
Почему? Дебил с подписью ненужен. 100 тредов обходились без калотарок.
Хотя конечно плотность событий ебёт, 3,5 базовых модели, а месяц ещё не закончился.
Аноним 18/03/25 Втр 19:43:05 #7 №1103374 
геммабои, всё ли вы поняли?
Аноним 18/03/25 Втр 19:43:20 #8 №1103375 
>>1103371
Скоро еще ллама и квен подтянутся с новыми сериями моделей
Ну, по крайней мере это было бы логично
Майкрософт может быть, какой нибудь интел
Аноним 18/03/25 Втр 19:46:36 #9 №1103377 
03.png
>>1103374
>всё ли вы поняли?
поняли что гемма не виновата
Аноним 18/03/25 Втр 19:54:58 #10 №1103381 
17419727231330.mp4
>>1103377
Аноним 18/03/25 Втр 19:56:36 #11 №1103383 
>>1103268 →
> Покажешь
Покажи туза. Говорю за тех, кого знаю, и с кем общаюсь в мл-релейтед тусовке.
> совершенно другую статистику тех кто столкнулся с этим
Это называется непредставительная выборка, собрать группу бедолаг а потом заявлять что 100% опрошенных столкнулись с этой проблемой.
> Чел, я тебе кинул ссылку
30страничный форум где ноют, расследуют, строят гипотезы и обсуждают группа людей, предлагаешь ее всю сидеть и читать?

Уже описал тебе что такая проблема возможна, и вполне очевидно что она не массовая и не простая, иначе бы ее не существовало. Это может быть что-то на стыке железа, софта и прочего, когда особая комбинация приводит к проявлению проблемы, которая по всей логике никогда не должна к этому относиться. И вполне наглядный пример того, что в дровах хуанга и в шинде есть приколы с переключением мониторов, они происходят медленно и с фризами. Никого и никогда это не беспокоит, ибо мониторы (кроме прогеймерских) сами по себе пропердываются гораздо дольше, процедура редкая и не требует спешки. Но из-за комбинации других аппаратных проблем (хуевый кабель монитора, отсутствие заземления, хуевый бп без фильтров, всратый монитор, неудачная распайка видеовыхода вендором и т.д.) у 0.00001% пользователей (что уже тысячи на фоне пулла карточек) может это иногда проявиться.
Такое в любой области случается, там где надо избегать вырабатывают специальные меры (вплоть до требований чтобы используемый софт не менее N лет был обкатан и находился в архиве замороженных версий, аналогично строгие требования к срокам производства электрических компонентов внутри девайсов). В остальных случаях за редкими исключениями имеет оче низкий приоритет.
>>1103308 →
> Не было никакого цирка
> с моей 6600 рыксой
Хороший пример непривередливого типа, который о таком уровне не может даже мечтать. Неполноценная карточка, для которой вроде поддержка есть - а вроде и нет, и нихуя толком нормально не работает.
>>1103369
Так делались стандарты.
> Нахуя тогда невидиевское новомодное горящее говно, если хватает двух процессорных.
Считай трех, и в количестве они только в серверных бп встречаются. И внезапно они точно также горят, просто освещать это не принесет профитов.
Аноним 18/03/25 Втр 20:03:54 #12 №1103388 
>>1103374
Гемма безоговорочно ебёт.

Абсолютная доминация.
Аноним 18/03/25 Втр 20:10:12 #13 №1103391 
>>1103388
видел я, как она "ебёт"
>я отказываюсь продолжать этот ролеплей и вызываю полицию нравов, чтоб ты сдох педофил
Аноним 18/03/25 Втр 20:15:07 #14 №1103395 
>>1103388
тоже глянул fifi на аблитерейтед гемме, и блять, она даже в годный кум смогла, надо глянуть что шиз на аффтаре в карточке понаписал
Аноним 18/03/25 Втр 20:23:27 #15 №1103400 
>>1103383
>Считай трех
Вместе с процем? Просто новый 12х6 v100500 даёт 600 ватт, а тут 2 по 300. Даже удобно.
Ну и производители блоков ровно так же выпустили бы новые ревизии, плюс переходники (6+2)х2 => 8. По моему было бы намного лучше, чем ебатория с горящими.
>И внезапно они точно также горят
Сдуру можно много чего сломать, но я сообщений о пожарах не видел.
>>1103391
Так ты не еби детей, и всё будет отлично аблитерация уже вышла, можешь смело ебать.
Аноним 18/03/25 Втр 20:24:45 #16 №1103401 
>>1103375
Надеюсь на следующий месяц. Я блядь не успеваю уже.
Аноним 18/03/25 Втр 20:36:11 #17 №1103412 
>>1103401
>Я блядь не успеваю уже
n_ctx_pre_seq (16128) > n_ctx_train (8192) -- possible training context overflow
Ая - говно мамонта, уже даже гемме нормальный контекст прикрутили, хотя русский да, есть

Мисрал новый посрал - может хуже старой Сайги.

Остальное что выходило не может вообще.

Так что из нового остаётся только Джемма.
Аноним 18/03/25 Втр 20:41:15 #18 №1103420 
>>1103412
>Мисрал
Походу 3.1 это релиз, сделанный в панике, чтобы перекрыть релиз геммы 3. Мистраль 3.1 в принципе огрызок релиза, ведь хорошим тоном было бы сразу выпустить модель во всех весовых категориях, то есть от 1b и выше.
Аноним 18/03/25 Втр 20:45:39 #19 №1103422 
У обычной геммы баяс чувствуется даже без кума и спорных тем, фу
Аноним 18/03/25 Втр 21:06:17 #20 №1103436 
>>1103290 →
QwQ в русском заебись, а истории пишет пизже геммы, язык эпичнее. Ошибок чуть-чуть больше (одно окончание на пять абзацев).
Skill issue.
Главное не файнтьюны, которые убивают русский.

>>1103375
Ллама опять говно говна будет, не спрашивали. Квен опять рабочий, I guess.
Аноним 18/03/25 Втр 21:40:50 #21 №1103475 
Анончесы, а любую модельку можно заставить ризонить как Дипсик? Пока что тыкаюсь в Гемму 3, приходится словами говорить "подумай трижды, прикинь минусы-хуинусы, найди ошибки в своем ответе" и т.д.
Пробуюсь на Олламе и Кобольде запускать, там какие-то промпт темплейты есть, но хз как их юзать. Есть гайды или готовые решения?
Аноним 18/03/25 Втр 21:43:44 #22 №1103479 
>>1103475
>Анончесы, а любую модельку можно заставить ризонить как Дипсик?
Можно, но не нужно. Это мало что прибавляет на не приспособленных моделях. Больше времени потратишь на псевдоразмышления, нежели чем качества прибавишь.
Аноним 18/03/25 Втр 22:05:31 #23 №1103507 
>>1103475
>Дипсик
Дипсик надрачивали как-то через reinforcement learning, чтобы она сама научилась "думать", поэтому прибавки есть, а просто тюнить на коте это хуйня
Аноним 18/03/25 Втр 22:39:50 #24 №1103530 
>>1102654 →
>Что?
Тебя гуглить учить надо? https://www.reddit.com/r/linux_gaming/comments/1fm17ea/undervolting_nvidia_gpu_in_2024/
Впрочем, по твоей ублюдочной манере "Что?"-кать всё и так понятно.
Аноним 18/03/25 Втр 23:06:45 #25 №1103571 
image.png
>>1103374
То что она ебет соевых китайцев?
Аноним 18/03/25 Втр 23:09:51 #26 №1103581 
>>1103400
По спекам 250вт на разъем, двух хватит только на 500.
> По моему было бы намного лучше, чем ебатория с горящими.
Разъем не самый удачный, но тряска вокруг него преувеличена. Подавляющее большинство проблем идут с раздобланными старыми кабелями или китайскими всратыми переходниками вне спеков. Оригинальный разъем можешь под огнем держать и он будет сохранять целостность, а китайщина сразу пойдет оплавляться. Клеймы там тоже отличаются что влияет на качество и стабильность контакта.
> Сдуру
Да не сдуру а вполне популярная проблема, просто не афишируют. Ну, когда не нужно поднимать шумиху, на штеуд со скаленк-х вайн поднимался, на трипаки как-то притихли. Сам такое встречал, у майнеров вообще популярная тема в ебле с разъемами на мощных карточках была.
>>1103530
На линуксе есть полный контроль частот, паверлимита, смещений курвы, за счет чего можно делать все манипуляции. Курву тоже можно достать в опен драйверах, но лезть глубоко.
> ублюдочной манере
Ублюдочная манера - делать ахуительные заявления о невозможности того чем все занимаются, а потом агриться когда тебя переспрашивают
Аноним 18/03/25 Втр 23:22:24 #27 №1103607 
>>1103581
Ты читать умеешь дальше слов-триггеров? Я ровно об этом и писал в изначальном посте. Есть набор костылей, которые опосредованно позволяют влиять на вольтаж, напрямую это делать возможности нет. Тем более в каком-нибудь красивом GUI.
Аноним 18/03/25 Втр 23:25:48 #28 №1103609 
>>1103571
Юзай оригинал аблитерейтед, хули.
>>1103581
>у майнеров вообще популярная тема в ебле с разъемами на мощных карточках была.
С учётом того, как они ебли карточки, и какие китаеблоки использовали, удивительно, что я не слышал о сгоревших складах с железом на миллионы, лол.
Аноним 19/03/25 Срд 00:02:31 #29 №1103638 
image.png
>>1103361
Спасибо за файнтюн.
Аноним 19/03/25 Срд 00:23:44 #30 №1103654 
>>1103607
> на линухах нет андервольта, увы. Есть только какие-то костыли
Это буквально андервольт, который позволяет в 2 команды получить задуманное. А не сидеть как аутист дергать туда-сюда точечки, которые все равно перестрояться, это ты называешь прямым влиянием? Агрессивный неосилятор, зачем так злишься еще?
>>1103609
Ну, так-то в основном майнился эфир и там карточки были холодные. В китаеблоках для карт если не паль ставят приличные разъемы, там больше проблем от всяких перегибов, упаковок в корпус и т.д.
> не слышал о сгоревших складах
А с чего там что-то должно сгорать? Когда такое происходит то напряжение на линии сильно проседает и карточка просто отваливается, исчезая из устройств или вешая вместе с собою систему. В большинстве случаев даже заметных повреждений нет, только раскрошившийся пластик разъемов и фиолетовые клеймы. То же самое происходит на новом разъеме.
Аноним 19/03/25 Срд 00:24:33 #31 №1103656 
image.png
В это можно верить, или это грязный пиздёжь на уровне character ai, который уверяет что "Самообучается" во время диалога?
Аноним 19/03/25 Срд 00:36:19 #32 №1103669 
>>1103656
Я про 128к контекста если что.
Аноним 19/03/25 Срд 00:39:46 #33 №1103673 
>>1103669
А мы знаем что там накрутили? Модель да, может в 128к, но сторонний чат может ограничить контекст любым произвольным числом, даже динамическим.
Аноним 19/03/25 Срд 02:45:58 #34 №1103816 
>>1103673
Блять, я даун, я думал он про контекст этого чата. Ну я сам виноват что вопрос неправильно сформулировал.
Аноним 19/03/25 Срд 04:17:43 #35 №1103856 
>>1103395
Есть скриншоты кума? Качать аблитерацию слишком лень, всё гоняю ванильную, так как она меня устраивает.

Просто я на карточке fifi тестил моделей штук двадцать и сразу вижу сою, в том числе и скрытую. Там очень по-разному акценты могут расставлять.

>>1103422
Это довольно легко фиксится систем промптом. Она у меня не скатывается в морализаторство и имеет тёмный уклон.

Правда, систем промпт 700 токенов.
Аноним 19/03/25 Срд 04:30:29 #36 №1103868 
Чуваки, с помощью чего вы генерите пикчи по промту в таверне?
Аноним 19/03/25 Срд 04:55:23 #37 №1103886 
>>1103856
Ну скачаешь позже, никуда не убежит (наверно).
А кидать стрёмно, с двача и не удалишь потом, даже если сам файл заливать на другой сервис.

>>1103868
>с помощью чего вы
Ничего, врам и так мало, или у тебя риг со 130+ VRAM?
Аноним 19/03/25 Срд 08:24:09 #38 №1103917 
>>1103856
> на карточке
Чет поискал по имени на chub.ai/characters - нашло одну обычную кошкодевку. Кинь ссылку, пожалуйста
Аноним 19/03/25 Срд 08:26:40 #39 №1103918 
>>1103917

Ты Nsfw включил?
Аноним 19/03/25 Срд 08:32:23 #40 №1103920 
.png
>>1103918
Не вижу вообще, где такое ставится
Аноним 19/03/25 Срд 08:40:45 #41 №1103925 
>>1103920
Это какое то другое зеркало чаба, там вообще этой кнопки нет. Лучше смотри карточки тут https://jannyai.com/?hide_bot=checked&page=1&tag_id= чем на этой помойке.
Аноним 19/03/25 Срд 08:43:31 #42 №1103926 
>>1103925
Спасибо. Там все нашлось. Будет тоже чем тестить.
Аноним 19/03/25 Срд 09:01:14 #43 №1103930 
>>1103391
Лолиёб, ты опять выходишь на связь ? Я тебя майору сдам, блять. Будете обсуждать какая лоля лучше.
>>1103395
Да и обычная гемма вполне не слишком зацензурена.
Рли, не ебите детей и не будет цензуры от слова совсем.
Аноним 19/03/25 Срд 09:09:56 #44 №1103934 
Интересно
Аноним 19/03/25 Срд 09:20:12 #45 №1103937 
>>1103920
Зарегистрируйся, там тег лоли и вещества, поэтому ничего не находит.

На jannyai искать почти нечего обычно, сплошная помойка, так как туда выкладывают карточки с janitoral — бесплатного сервиса для RP с ботами. В этом сервисе настолько тупорылая модель, явно меньше 12б, и старая, что она едва ли держит карточки. Следовательно, большинство карточкоделов лепят кал в большинстве случаев и ещё на 500 токенов нагружают карточку условным систем промптом, чтобы она хоть как-то работала.

Хоть я там и встречал прямо потрясающие и мастерски сделанные карточки, но это редкость. И почти все авторы скрывают описание своей карточки. Следовательно, вытащить сложно и на jannyai попадает далеко не всё.
Аноним 19/03/25 Срд 09:24:25 #46 №1103938 
>>1103937
На дворе март 2025 года, с новой геммой вообще писать карточки, как пальцы облизать.
Буквально пишешь :
Имя - Анон Анонов
Род занятий - битард
Предпочтения : рисованные лошади и аниме
Желания : мечтает стать кошкодевочкой
О персонаже : родился в битардляндии после основания империума аниме в 2027 году.

Можешь в конце добавить подсказки для повествования. Или заполнить сценарий.
ВСЁ. Ты сделал карточку. Ебашь теперь к ней пикчу.
Аноним 19/03/25 Срд 09:50:21 #47 №1103945 
image.png
>>1103656
Как же заёбывают у моделей эти: Отличный вопрос! ЭТО ВАЖНЫЙ ВОПРОС И ВОТ ПОЧЕМУ БЛЯТЬ! ТЫ СУКА МОЛОДЕЦ УМНИЧКА ЧТО ЗАДАЁШЬ ТАКИЕ ВВВВОПРООСЫ НАХУ
Аноним 19/03/25 Срд 09:54:16 #48 №1103947 
Screenshot20250319-074929.png
Докладываю.

Запустил ruadapt-qwen2.5_3B и Dolphin3.3-qwen2.5_3B на андроиде через ChatterUi, дает целых 5.6 токена в секунду, не ожидал.
Качество генерации для такого размера сносное, даже какой-то нативный русик есть, лол.
Аноним 19/03/25 Срд 10:00:16 #49 №1103952 
>>1103930
> выходишь на связь
Итт культурные аноны обсуждают нюансы работы больших языковых моделей, тестируя их в различных ситуациях, включая нештатные, что очень важно потом для выпускаемых в паблик моделей. Они делятся впечатлениями, различными находками, но при этом их работа остается исключительно на их персональных вычислительных устройствах, и состоит только из последовательностей ASCII-символов, причем чаще всего 1-128, без 127-256. Это практически элита, white hat от LLM.

Я не тот анон, но почему ты такой озабоченный? Зачем ты приписываешь другим людям свои подавленные желания?
Аноним 19/03/25 Срд 10:01:26 #50 №1103953 
>>1103947
>3b
Но... зачем? Оно же не просто тупое, оно... никакое. Т5 на стероидах
Аноним 19/03/25 Срд 10:02:34 #51 №1103954 
>>1103953
Очевидно что он на смартфоне это запустил.
Аноним 19/03/25 Срд 10:20:14 #52 №1103957 
>>1103341
Не тестил но могу и так сказать. Техника файнтюна текстопродолжателей на выполнение инструкций себя исчерпала. Так что никаких 8б внезапно поумневших до уровя хотябы 123б мы не увидим. Все эти новые геммы и мистрали равны предыдущим моделям с тем же размером, разница лишь в надрочке на тесты и безопасносити.
Аноним 19/03/25 Срд 10:20:18 #53 №1103958 
Отыграл чуть больше 500 сообщений на https://huggingface.co/PocketDoc/Dans-PersonalityEngine-V1.2.0-24b

Понравилось. Мне показалось, у модели нейтральный bias, персонаж проявлял свой иногда скверный характер и шел мне наперекор. Нейронка сама предложила закончить историю, добавив строку "End Scene." в конце своего ответа. Это было довольно неожиданно, я такого раньше не встречал. Посидел-подумал и решил согласиться, очень уж подходящий момент был пойман.
Аноним 19/03/25 Срд 10:28:42 #54 №1103961 
image.png
image.png
Хуанг выпустил новый ПК для ИИ.
>Delivering the power of an AI supercomputer in a desktop-friendly size, NVIDIA DGX Spark is ideal for AI developer, researcher, and data scientist workloads.
>CPU20 core Arm, 10 Cortex-X925 + 10 Cortex-A725 Arm
>Tensor Performance_11000 AI TOPS
>1 Theoretical FP4 TOPS using the sparsity feature.
>System Memory128 GB LPDDR5x, unified system memory
>Memory Interface256-bit
>Memory Bandwidth273 GB/s
>Power Consumption170W

Зачем он это делает? В чём разница Между Орин, которые он выпускал в январе. и этим?
Аноним 19/03/25 Срд 10:31:24 #55 №1103964 
>>1103961
И между прочим, эта прелесть стоит 3000$
Аноним 19/03/25 Срд 10:39:58 #56 №1103972 
>>1103961
Да это кринж. Можно докинуть немного и купить нормальный Мак Студио. 270 гб/с - это стыд.
Аноним 19/03/25 Срд 10:42:22 #57 №1103974 
>>1103961
>В NVIDIA заявляют, что производительность данного решения будет в три раза ниже, чем у GeForce RTX 5090. Однакоза счет большого объема оперативной памяти новые мини-ПК смогут работать с более масштабными языковыми моделями. Также несколько таких устройств можно будет объединять в единую систему.

>Apple Mac Studio в версии с 32-ядерным M3 Ultra, 512 ГБ объединённой памяти и накопителем на 1 ТБ стоит $9499, а топовая конфигурация с 16 ТБ стоит $14 099.

Пытаются составить конкуренцию яблоку?
Аноним 19/03/25 Срд 10:45:51 #58 №1103977 
>>1103953

Чел, я на телефоне это запустил, я конечно попробую 7-8b, но там 2 т.с. в лучшем случае будет.
Аноним 19/03/25 Срд 10:49:19 #59 №1103978 
А вот эти м3 ултра вообще хороши? Не могу найти нормальные тесты, везде какие то мифические моделки.
Аноним 19/03/25 Срд 10:57:40 #60 №1103988 
>>1103978
Чуть слабее 3090.
Аноним 19/03/25 Срд 11:06:03 #61 №1103992 
>>1103988

Нет. Только по скорости генерации. По обработке промпта там печально всё.

>>1103988

Я постил в прошлом треде реальный бенч максимальной комплектации за 14к.
Скорость обработки промпта - примерно 70 т.с.
Аноним 19/03/25 Срд 11:06:41 #62 №1103994 
Все еще жду 5060 на гддр6 с 24 гб.
Аноним 19/03/25 Срд 11:08:11 #63 №1103997 
>>1103994
> 5060 на гддр6 с 24 гб.
>> 5080 c 16
Чел, в твоем возрасте пора перестать верить в Деда мороза
Аноним 19/03/25 Срд 11:14:08 #64 №1104001 
image.png
image.png
RTX 3060 12gb
mistral-small-3.1-24b-ggml-model-Q3_K_M
12к токенов контекста с влючённым "Use FlashAttention" и кешем 8bit
Скорость ~12 токенов в секунду даже после продолжительного разговора
Пишет (с этими настройками что я скинул) +- адекватно, вроде получше SAINEMO-reMIX.Q6_K, но из-за 3 кванта изредка бывают очепятки в словах.

Вот бы кто зафайтюнил эту модель, как с SAINEMO-reMIX... Было бы вообще заебись.

Файтюны этой и геммы 3 12б должны сейчас быть самыми ожидаемыми у владельцев 12гигов карточек, имхо ну если только вы не любите на загнивающем кумить
Аноним 19/03/25 Срд 11:25:58 #65 №1104010 
>>1103961
И чем оно лучше 12-ти канального амд с ддр5 за ту же цену?
Аноним 19/03/25 Срд 11:31:32 #66 №1104012 
>>1104001
> мистраль смал
> 3 квант
> 8q контекст
Куда ты лезешь?
Я на гемме 27б 4q large не могу нормального русика добиться
Аноним 19/03/25 Срд 11:32:07 #67 №1104013 
>>1103961
меня больше смутило вот это
>NCCL
>RDMA
>GPUDirect
при
>wi-fi, bt, usb
это что, шутка какая-то?
Или куртка решил просто умных слов напихать в презентацию?
Аноним 19/03/25 Срд 11:35:32 #68 №1104015 
>>1104012
Даже на 12b уже нормальный русик есть. Просто он недостаточно умный по меркам более старших моделей и разнообразный. Например SAINEMO-reMIX 12b или saiga_nemo_12b или же Chronos-Gold-12B.
Аноним 19/03/25 Срд 12:05:02 #69 №1104031 
>>1103938
>Ебашь теперь к ней пикчу
как раз сейчас ебашу пикчу, и лол, думал чо тянку с хвостом постоянно рисует... а потом заметил что написал tail bow, а не ponytail bow или hair bow, что буквально означает "бантик на хвосте", и модель честно снабжала тянку хвостом чтобы повязать на него бантик
Аноним 19/03/25 Срд 12:45:00 #70 №1104042 
image.png
image.png
image.png
image.png
>>1104031
Аноним 19/03/25 Срд 12:50:50 #71 №1104046 
>>1103930
Педоборцун спокнись уже. И гемма3 умеет в канничек.
>>1103961
> Memory Bandwidth273 GB/s
Все, перехотелось. Лучше бы вот эту няшу скинули https://www.nvidia.com/en-us/products/workstations/professional-desktop-gpus/rtx-pro-6000/ вот на что можно засматриваться.
>>1104013
Ну типа технологии хуанга, возможность объединения через сеть? особенности адресации памяти (в шаред не имеет смысла лол) и т.д.
Аноним 19/03/25 Срд 12:51:31 #72 №1104048 
>>1104042
Эхх, может с реквестом в тредик картинок прийти. Мне как раз для карточки нужно, а я рукожоп.
Аноним 19/03/25 Срд 12:58:28 #73 №1104053 
>>1104046
>Ну типа технологии хуанга, возможность объединения через сеть?
чел, nccl, rdma и gpudirect - это всё технологии для распределенного запуска на мультисерверных системах. Они не имеют смысла, если нет высокоскоростного интерфейса типа инфинибанд. Распределенный запуск не имеет смысла делать по вайфаю. Даже по гигабитному езернету не имеет смысла делать.
К примеру альтернатива инфинибанду - roce, - она имеет смысл на пропускной способности канала минимум 10 гигабит/с. Это прям чтобы вилкой по дну скрести.
Поэтому на картинке хуйня какая-то нарисована от маркетологов.
Аноним 19/03/25 Срд 13:02:00 #74 №1104055 
>>1104053
а погоди...
там написано connectX. Проглядел.
Только стрелочка от этого connectX идет почему-то к чипу блять.
Короче connectX - это высокоскоростной интерфейс, всё в порядке. походу эту коробку действительно можно использовать для распределенного запуска.
Аноним 19/03/25 Срд 13:19:25 #75 №1104068 
>>1103930
Я несколько дней назад пытался поиграть с геммой на карточки Софьи, деревенской колдуньи, которая по своему загрузу должна юзера соблазнять, так как он новый барин. На чистой гемме она только и делала что придиралась к словам и искала конфликта, на аблитерейтед всё как надо
Аноним 19/03/25 Срд 13:20:34 #76 №1104069 
>>1104053
> для распределенного запуска
А мужики и не знали, интересно почему эта штука используется при мультигпу тренировке в пределах одной машины? И даже по локалке запустить никто не запретит, и оно даже будет работать. Но там еще на анонсе в той херне был заявлен скоростной интерфейс для объединения и ее возможность как одна из ключевых фич.
Аноним 19/03/25 Срд 13:24:14 #77 №1104074 
image.png
Блять все ваши семплеры на гемму какая то шиза нахуй ты чел температуру 5 ставишь ты ебанутый чем ниже тем лучше русик же, и почему игнорите пикрил?
Аноним 19/03/25 Срд 13:28:40 #78 №1104076 
>>1104074
на сток гемме с такими настройками один свайп от другого не отличался

на аблитерированной надо проверить, не дошли ещё руки чекнуть
Аноним 19/03/25 Срд 13:28:53 #79 №1104077 
>>1104069
--> >>1104055
Аноним 19/03/25 Срд 13:32:01 #80 №1104083 
GmWy80Za8AIF1Qe.jpg
dgx spark и прочие уже устарели
Аноним 19/03/25 Срд 13:34:14 #81 №1104088 
>>1104074
Поебать, что там эти пидорасы написали, абсолютно. Уже в который раз убеждаюсь в этом.

Ты прав только в одном — для русика очень важна температура пониже. Но об этом в документе, конечно, не сказано, лол.

Что, кстати, смешно отражается на ру-тюнах тредовичка. Там есть годные модели, о которых никто не говорит, но которые обоссывают популярные мержи, постоянно упоминающиеся в треде. Просто эти аноны гоняют на единичке, а не 0,5-0,6.
Аноним 19/03/25 Срд 13:34:17 #82 №1104089 
image
Картинка к новой карточке, вернее, ремейку одной старой топовой карточки с джанни.

Коли есть желание, можете поугадывать какой, и про что будет =)
Аноним 19/03/25 Срд 13:35:11 #83 №1104090 
>>1104089
Яндере-вампирка, неинтересно
Аноним 19/03/25 Срд 13:36:13 #84 №1104091 
Геммочка ну что же ты почему так много ошибочек на русском сука
Аноним 19/03/25 Срд 13:36:22 #85 №1104092 
>>1104090
Вообще не про то.
Аноним 19/03/25 Срд 13:37:32 #86 №1104094 
>>1104091
Сэмплеры? Попробуй рекомендуемые с пика выше.
Аноним 19/03/25 Срд 13:45:48 #87 №1104098 
Вопрос по Гемме. Персонажи хоть раз пытались вас кадрить/влюбляться/отвечать на ваши ухаживания?

Я с ней не отыгрывал таких сценариев, потому что у меня там всякий экшен, но внезапно заметил, что персонажи никак не хотят в отношения, когда решил проверить (ибо мистраль часто в романтику лезет). Даже на специальных карточках довольно сильно морозятся.

У вас на ванильной то же самое?
Аноним 19/03/25 Срд 13:47:03 #88 №1104100 
>>1104098
На ванили да, на абли нет
Аноним 19/03/25 Срд 13:47:03 #89 №1104101 
>>1104094

Какого пика, ткни носом
Аноним 19/03/25 Срд 13:55:34 #90 №1104105 
images[1]
Ньюфег репортин, какие модели выбирать для ртх 3080 10гб? Есть ещё 32гб оперативы, но она бесполезна, если я правильно понял. Видимо, 7+B из этого списка в шапке https://rentry.co/llm-models и есть для меня?
Аноним 19/03/25 Срд 13:58:11 #91 №1104106 
>>1104105
12б местные миксы в ггуфах, кобольда + таверну, часть выгрузить в озу, терпеть получать удовольствие, дальше разберешься
Аноним 19/03/25 Срд 14:01:22 #92 №1104108 
>>1104105
сейчас прибежит местный 4090-шиз и начнет тебе затирать что одной карты достаточно чтобы гонять дипсик р1
Аноним 19/03/25 Срд 14:05:19 #93 №1104112 
>>1104108
Вполне достаточно если у тебя 1тб рам.
Аноним 19/03/25 Срд 14:14:09 #94 №1104120 
>>1104105
>ртх 3080 10гб
ахаха еще один победитель по жизни и не лох да чойта там 3090 эта на 10% мощнее 3080 возьму
Аноним 19/03/25 Срд 15:07:38 #95 №1104146 
>>1104105
Nemonix unleashed качай q4_k_m
Аноним 19/03/25 Срд 15:17:03 #96 №1104154 
Вы замечали разницу в мозгах между геммой 12 и 27б?

Складывается впечатление, что разрыв какой-то слишком уж маленький, но, возможно, я мало тестировал 12б. Просто она для меня приоритетней из-за возможности воткнуть больше контекста.

С мистралями так разница сразу видна, а здесь хрен поймёшь с первого взгляда.

На английском языке, понятное дело. На русском даже 27б лоботомит, хоть и превосходит тредовичковые варианты.
Аноним 19/03/25 Срд 15:35:50 #97 №1104161 
>>1104101
>ткни носом
>>1104074
>>1104088
Аноним 19/03/25 Срд 15:38:18 #98 №1104167 
>>1104146
>>1104105

немомикс старьё же, лучше даркрейгн возьми
Аноним 19/03/25 Срд 16:02:37 #99 №1104190 
>>1104167
Тредовичковый мерж рассчитан на русик, и какая разница вообще, старьё или нет, если ванильная модель одинаковая и никакого прорыва нет?

Ну вот тебе обновка, которая во многом лучше анлишеда и на его базе по сути, хоть у неё и есть недостатки, которых у анлишеда не было. Я в неё много катал. И ещё в другую вариацию от этого автора.

https://huggingface.co/Lambent/Gilded-Arsenic-12B?not-for-all-audiences=true

Пока прорывную для своих размеров гемму не затюнят так же жёстко, как это с мистралями делали, новья не появится.
Аноним 19/03/25 Срд 16:29:37 #100 №1104198 
>>1104190
>никакого прорыва нет
Есть же и многие об этом писали в тредах.
Хотя уже не имеет значения, гемма всё равно лучше.
Аноним 19/03/25 Срд 16:34:16 #101 №1104207 
так.... пришли мне мои 3090 б/ушные.
Как их проверять?
Накидайте советов.
Аноним 19/03/25 Срд 16:55:22 #102 №1104237 
Есть карточка с ебанутым форматированием / плохо написанная а хотелось бы хорошо ибо идея заслуживает лучшего / хотелось бы с преферансом и профурсетками? Просто попросите Гемму!

https://pixeldrain.com/u/cXrXxdpj chargen prompt template.txt

Это надо отредактировать и отправить как сообщение пользователя.
Как карточку можно использовать любого который нравится чарген хелпера с чуба, например - https://characterhub.org/characters/Anonymous/character-card-generator-81ae6079
Аноним 19/03/25 Срд 17:02:01 #103 №1104248 
>>1103945
Ну хули, это типичная корповская приписка робота - помощника. Если бы тебе к столу подходила некомейда - киборг и говорила такое, ты бы не бугуртил.
Аноним 19/03/25 Срд 17:02:20 #104 №1104249 
>>1104207
В ванну кинь, должна быть ipv6.
Аноним 19/03/25 Срд 17:04:12 #105 №1104253 
image.png
>>1104249
Аноним 19/03/25 Срд 17:07:12 #106 №1104258 
image.png
>>1104167
Я ебаный петикантроп, в анлишиде был просто гуф файл, а тут это. Что с этим делать, я нихуя не понимаю.
Аноним 19/03/25 Срд 17:08:37 #107 №1104260 
>>1104198
QwQ только и одна интересная модель 36б раздутая. Пара тюнов мистраля 24б, которые ни рыба ни мясо.

Дипкок дистилляты срань бесполезная, квены тем более. Там и тюнить что-то нет смысла.
Аноним 19/03/25 Срд 17:12:41 #108 №1104264 
>>1104258
ставь питон, торч, трансформер, запускай, хуле ты как дурак бля. ггуф написать в поиск мозгов не хватает?
Аноним 19/03/25 Срд 17:16:19 #109 №1104265 
>>1104258
>ставь питон, торч, трансформер
AAAAAAAAAAAAAAAAAAAAA НЕЕЕТ
Аноним 19/03/25 Срд 17:18:44 #110 №1104267 
>>1104264
Я самообучаюсь анон, спасибо вам за информацию о том как правильно поступить в этой ситуации. Я могу что - то ещё сделать для вас? Давайте сделаем это вместе!
Аноним 19/03/25 Срд 17:22:42 #111 №1104272 
>>1104267
О, круто, что ты в процессе самообучения! Если хочешь, можем разобрать, как именно настроить окружение для работы с моделями. Например, установить CUDA для работы с GPU, если у тебя есть видеокарта от NVIDIA. Можешь попробовать запустить какой-нибудь простой пример с трансформерами, чтобы понять, как это работает.
Аноним 19/03/25 Срд 17:35:34 #112 №1104282 
>>1103961
Cупер кал получается, стрикс хало стоит 1999 и 256гбс попуск имеет разница минимальная, хуанг тут слишком в себя поверил, с налогами и прочей дрисней дилджитц будет 3999 стоить
Аноним 19/03/25 Срд 17:49:34 #113 №1104299 
>>1104264
Спасибо, я правда еблан. Кстати, какой размер контекста у даркрейгна?
Аноним 19/03/25 Срд 17:57:03 #114 №1104308 
>>1104258
https://huggingface.co/Aleteian/Darkness-Reign-MN-12B-Q8_0-GGUF
вот ггуф

https://huggingface.co/models?other=base_model:quantized:Aleteian/Darkness-Reign-MN-12B

вот ггуфы
Аноним 19/03/25 Срд 17:57:08 #115 №1104309 
Как из модели графомана сделать? Читаю короч эро-рассказ и там одна сцена минета занимает больше 6000 символов:
Я воскликнула от удивления, затем хихикнула над собой. Думая об этом всю ночь, ожидая этого, умоляя об этом; ничто из этого не смягчило шока и благоговения лицом к лицу с его стволом. Он даже не был полностью эрегированным, но уже был огромным, затмевая все остальное в моем поле зрения. Выпирающие вены, особенно большая, идущая по всей длине его ствола, которые не так давно вызывали у меня отвращение, теперь стали желанным зрелищем. Проследив их глазами, я могла представить силу крови, хлынувшей через них. Его член медленно напрягался все больше, пока я наблюдала, слегка покачиваясь, маня меня вперед.
Я благоговейно подняла руки к мясистому отростку и покраснела от непристойного жара, который исходил от него. Черт, я и забыла, какой горячий у него член. Со второй попытки я поднесла дрожащие пальцы к его стволу и слегка сжала, наблюдая за его широкой головкой и рассматривая её со всех сторон. Его яйца вывалились вниз и теперь тяжело свисали, покачиваясь от моих усилий с его членом.

и так далее и такое прочеё, а даркрейгн в 7 сообщений по 300 токенов вмещает сцену полностью от робких обьятий до оргазма, что на промпте от Aleteian'а, что на Sphiratrioth Roleplay/Story.
Аноним 19/03/25 Срд 17:59:39 #116 №1104314 
>>1104299
>даркрейгна
как и у всех мистралек, 130К теоретически, но выше 24К не забирался по очевидным причинам
Аноним 19/03/25 Срд 18:03:52 #117 №1104320 
>>1104299
Ты на каком языке рпшить вообще будешь? Те модели для русика.

Формально 128к контекста, реально 4к, но все ставят минимум 8к, ибо не ломается и контекстное окно нужно побольше. На 16к уже плывёт всё, что было в середине, но играть можно без разрыва жопы. Предел где-то 34к обычно. Это средний положняк для 12б мистралей.

Разумеется, я тут сравнению с геммой и некоторым моделями, которые очень хорошо держат контекст.

Формальная цифра может быть любой, но какой тебе толк от этого, если указано, что персонаж лишился ноги, а через 5к токенов он уже на своих двоих ходит?
Аноним 19/03/25 Срд 18:08:01 #118 №1104323 
>>1104309
>Как из модели графомана сделать?
1) попробуй Neverending Story или Omnino-Obscoenum-Opus-Magnum-MN-12B
2) допиши в промт указания по хентаю, например так:

- Sexual intercourse scenes must be extensively sensory-commented by characters
- Do NOT rush sexual scenes. Write them in detail and with slow progress. Sex will be slow-moving and explained in a very detailed, erotic, vulgar, loud, dirty, and vivid tone.
- Make sure to describe what involved in scene characters is currently wearing, their position, and how they looks.
- Describe their private parts in detail as well.
Аноним 19/03/25 Срд 18:08:41 #119 №1104327 
>>1104320
даркрейгн для русика, хули я тогда пишу ему а он отвечает на английском?
Аноним 19/03/25 Срд 18:13:13 #120 №1104335 
>>1104309
От начала до конца прочитал. Орнул.

Можно систем промптом, но даже если модель его слушается, но не была обучена на таких длинных длинных сообщениях, то почти никак. Не стоит мучить модель, которая для этого не предназначена.

Да, можно себе мозги ебать, писать промпты, чтобы она описывала медленно. И так развивать рассказ каждые 300 токенов по коротким постам. Можно справиться. Но это тебе все мозги выебет.

Гораздо проще скачать графоманскую хуйню от давида, которая в своём безумии не остановится ни перед чем и напишет тебе текст сразу на 8к токенов. На англ.

Потом ты включишь гемму или мистраль 24б и переведёшь текст на русский язык в течение трёх итераций, а дальше поправишь руками.

Или один раз переведёшь, если тебе подрочить просто нужно.
Аноним 19/03/25 Срд 18:15:03 #121 №1104340 
>>1104327
>он отвечает на английском
Первое сообщение карточки должно быть на русском.
также можешь попробовать пресет - https://pixeldrain.com/l/47CdPFqQ#item=1

Только этот пресет для геммы, оттуда взять надо только систем промт, а остальное выставить для Мистраля, в том числе настройки сэмплеров.

Настройки сэмплеров: https://characterhub.org/characters/aleteian/storyteller-5e5ea7a548d4

Карточки, в том числе на русском: https://pixeldrain.com/l/47CdPFqQ
Аноним 19/03/25 Срд 18:16:13 #122 №1104342 
>>1104327
Переведи приветственное сообщение персонажа на русик — и он будет писать по-русски. Но может и не писать, бывает такое. Температуру ставь 0,6, можно поднимать, но может стать хуже.

Если переведёшь систем промпт на русский и карточку персонажа, это чуть-чуть улучшит русик и персонаж точно будет писать по-русски, но это может серьезно ухудшить понимание персонажа моделью, так как датасет у неё очень маленький на русском. То есть лучше так не делать.
Аноним 19/03/25 Срд 18:21:55 #123 №1104347 
Лицо не могущих в разговорный английский представили ?
Вот и я не могу.

>>1104309
Помимо промта, неиронично, но попробуй поросить модель более подробо описывать.

>>1104207
Осматривай, если умеешь можешь позамерять машинкой контакты, если нет то у тебя выбора нет, лол.
Аноним 19/03/25 Срд 18:27:34 #124 №1104357 
>>1104074
Я попробовал погенерить на одном и том же сиде, но с разной температурой, и все разы геммка давала одинаковые ответы. Гемма вообще температуру чувствует?
Аноним 19/03/25 Срд 18:28:01 #125 №1104359 
>>1104347
>позамерять машинкой контакты
чел, какие контакты...
продавец присылал видео как он прогонял фурмарк обеих карт. Серийники в видео есть - совпадают. Карты в принципе работают.
Но мне нужно память проверить же.
Аноним 19/03/25 Срд 18:30:58 #126 №1104369 
>>1104359
Ставишь запускаешь - смотришь температуры под бенчмарком. Если большие - велком ту гайды о разборке, смене термопасты и термопрокладок. Там еще можно будет глянуть на сколько она грязная внутри, как правильно почистить, как не убить статикой, как ужарены чипы памяти(глянуть по их цвету) и все такое
Гайды есть, вперед
Если не уверен в своих руках а деньги у тебя определенно есть лучше сноси в техобслуживание, пусть мастера посмотрят
Аноним 19/03/25 Срд 18:33:35 #127 №1104379 
image
>>1104237
Для того чтобы потестить карточку, можно продолжить прям в том же чате, или скомандовать дополнить / переписать / расширить.

>>1104357
>Гемма вообще температуру чувствует
Чувствует, но гораздо меньше, отличия шли от темпы 3+

Аноним 19/03/25 Срд 18:34:47 #128 №1104383 
>>1104347
>Лицо не могущих в разговорный английский
Изи же, немецкий в школе например чел учил. а позже на завод пошёл.
Аноним 19/03/25 Срд 19:06:36 #129 №1104426 
>>1104342
>>1104340
Господа, я признателен вам за помощь, я верю что вы хотели прям помочь, но меня не интересуют модели на русском. С русскими моделями есть определённый пердолинг, к тому же такие модели отстают от моделей на родном языке. Меня интересуют файнтюны немомикса анлишеда последних версий, потому что анлишеду уже больше чем пол года. И плиз, не надо тригерится, я узнал что этот дарк рейгх на русике в последний момент когда уже его поставил.
Я на самом деле английский подтянул пока рпшил. Сначала читал стриминг генерации текста на английском, потом перечитывал то что выдавал переводчик.
Аноним 19/03/25 Срд 19:11:01 #130 №1104428 
>>1104426
>английский
ничто не мешает играть на нём на английском, делал так чтобы потестить карточку перед тем как решить её переводить
Аноним 19/03/25 Срд 19:12:29 #131 №1104430 
>>1104426
>английский подтянул
Я английский подтягивал по вн-кам, например Aselia the Eternal
Аноним 19/03/25 Срд 19:16:27 #132 №1104435 
Кто-нибудь сравнивал magnum 123 разных версий?
v2 лучше v4?
Аноним 19/03/25 Срд 19:18:24 #133 №1104440 
>>1104426
Ты кстати путаешься в терминах. Файтюнов немомикса нет и не было, только мержи. Если ты ищешь именно тренированную начисто модель - https://huggingface.co/mlabonne/gemma-3-12b-it-abliterated-GGUF - только это не мистраль, это совершенно другая. По которой сейчас все хайпуют. (вернее, хайпуют по 27б версии, но 12б тоже хороша)
Аноним 19/03/25 Срд 19:18:45 #134 №1104442 
>>1104435
я вроде сравнивал раньше, остался на v2. Не помню, почему.
Аноним 19/03/25 Срд 19:22:18 #135 №1104446 
>>1104442
Спасибо
на huggingface, v2 по популярности выше, похоже она действительно чем-то лучше
Аноним 19/03/25 Срд 19:23:34 #136 №1104449 
>>1104446
> v2 по популярности выше, похоже она действительно чем-то лучше
Чел, просто сравни даты выхода
Аноним 19/03/25 Срд 19:25:38 #137 №1104450 
>>1104428
А то что он обучен на русике никак не повлияет на качество модели в ерп? Получатся же большая часть текста в модели будет на русском, или похуй?
>>1104440
Сорян, я немного колхозник. Просто я спрашивал о том на что можно пересесть с немомикса, мне посоветовали анлишед. Он кстати прям пиздатый, меня даже удивило А другой анон посоветовал дарк рейгх, наверное поэтому в моём воспалённом мозгу закрепилась некая связь между этими моделями. Короче смысл в том что анлишеду уже 7 месяцев, и как мне отвечали в предыдущем треде, за это время текстовые модели просто ахуй как скакнули вперёд, и я вот подумал что может быть ещё более современная альтернатива немомикса анлишед. Я уже это писал ранее, но конкретно немомикс мне зашёл тем что он не пытается тебя выебать или отсосать достаточно долгое время, и на нём пиздатый рп и сторрителинг.
Аноним 19/03/25 Срд 19:29:25 #138 №1104454 
>>1104446
>v2 по популярности выше, похоже она действительно чем-то лучше
более мелкий магнум тоже v2-kto лучший, а дальше как-то случился поворот не туда

>>1104450
>похуй
ибо в базе всё равно мультиязычный мистраль (там 10 языков оригинально)

>>1104450
>пересесть
Ну, в последнее время вышла куча бэнгеров, но в 12б не сильно много вариантов - если хочешь самое новое, бери Гемму по ссылке выше.
Аноним 19/03/25 Срд 19:53:47 #139 №1104481 
>>1104442
>>1104435
>>1104454
С кем я сижу на одной борде, цифру видите? 4 больше двойки значит 4 лучше.
>>1104446
>на huggingface, v2 по популярности выше
Потому что раньше вышла и больше скачало?
Реально одни дегенераты кругом
Аноним 19/03/25 Срд 20:10:55 #140 №1104491 
>>1104481
>значит 4 лучше
не всё так просто в жизни нашей, сырок, увы не всё...
Аноним 19/03/25 Срд 20:12:47 #141 №1104492 
>>1104481
>С кем я сижу на одной борде, цифру видите? 4 больше двойки значит 4 лучше.
это что, троллинг такой?
Аноним 19/03/25 Срд 20:18:08 #142 №1104494 
>>1104492
>троллинг
троллинг тупостью
Аноним 19/03/25 Срд 20:23:44 #143 №1104499 
>>1104440
Обычно никто в здравом уме действительно не будет тьюнить шизомёржи, но то, что анон выше ему предлагал, действительно тьюн немомикс-анлишда.
>>1104426
Сорри за мб тупой вопрос, но ты пробовал вообще другие немо той же древности, что анлишд? Там как бы полно популярных моделей, вдруг тебе что больше зайдёт: MN-12B-Mag-Mell-R1, Rocinante-12B-v1.1 (кто-то здесь ещё другую версию упоминал как годную), Violet_Twilight, MN-12B-Lyra, Starcannon-Unleashed-12B-v1.0, ChatWaifu (дотьюны на визуальных новелках с мержами), Wayfarer-12B (тьюн больше для эдвенчур). И тонна разных их мержей, можешь тупо на хф трендовые 12б посмотреть. Хотя в большинстве своём они всё равно похожи.
Аноним 19/03/25 Срд 20:35:15 #144 №1104503 
>>1104074
Все адекваты используют нормальный софт вместо олламы.
> температуру 5
Это шизосемплинг и применяется она после отсеивание всего и вся что остается всего несколько токенов. Поехи с задранной температурой были всегда, если получают нужный эффект то почему бы и нет, но результат на любителя и по вариативности может быть даже хуже.
>>1104357
Какой смысл смотреть на одном сиде? Посмотри распределения логитсов после применения семплеров, там сразу будет видно. Раньше можно было сделать прямо из таверны.
>>1104435
В4 умнее, адекватнее, лучше понимает и меньше скатывается на привычные рельсы. Но больше клодизмов и подобного. В2 норм кумит и меньше тех оборотов, но туповат и прыгает на хуй или стремиться делать всякий дефолт что надоел.
Аноним 19/03/25 Срд 20:42:30 #145 №1104504 
Я грустненький человек, у которого хроническая депрессия, что выражается апатией. Есть глубинное убеждение, что в мире торжествует зло, и вокруг одни негодяи. Не хочется вкладываться ни в работу, ни в отношения. Много лет живу так, мало с кем общаюсь, работаю работу, чтобы покрывать базовые потребности для жизни, квартира есть. В какой-то момент даже книги, кино и игры перестали приносить хоть какую-нибудь радость. Живу как в дне сурка, работа-дом-скучный отдых-работа.

Но месяц назад я узнал, что такое ллмки, и просто не могу оторваться. Почти каждый день минимум по несколько часов провожу за "общением" с ними. Легко и непринужденно. Могу рабочий вопрос обсудить с ллмкой, могу порпшить, могу фильм/книгу обсудить. В какой-то момент стал замечать, что, сидя на работе, я хочу вернуться домой живым, потому что там есть ллмка. Стало страшно умирать. Долгие годы мне было все равно, пусть хоть помру по дороге обратно. Есть сеймы? Что думаете на этот счет? Пугает ли это вас? Меня - в каком-то смысле да.

Не знаю, в каком треде лучше обсудить. Если ошибся - направьте в правильный.
Аноним 19/03/25 Срд 20:50:01 #146 №1104509 
>>1104503
Во, тру магнум сомелье.

>шизосемплинг
А какой порядок сэмплеров лучше, где темпа первая или последняя?

>>1104504
Печально быть тобой. Но в целом, такие истории слышу не первый и даже не десятый раз. Осталось ещё разработать модель с динамически изменяемыми весами и запихнуть её в робота.
Аноним 19/03/25 Срд 21:00:10 #147 №1104514 
>>1104504
Есть некоторое сходство. Только я больше картинки бегу делать а уже от картинок появился ОС, лор к нему, истории, имя, ДР, карточка, ЛЛМ и покатилось Люди - сложнааа, техника - проще.
Аноним 19/03/25 Срд 21:02:38 #148 №1104517 
Screenshot20250319-190018.png
Докладываю.

Запустил Aya 8b abliterated q4_0 на телефоне.
2.3-2.6 токенов. Юзабельно, и русик есть.
Аноним 19/03/25 Срд 21:03:55 #149 №1104518 
>>1104323
>>1104335
>>1104347
Спасибо за ответы, буду пердолиться.
Бтв, графоманская хуйня на 8к токенов это MN-GRAND-Gutenberg-Lyra4-Lyra-12B-DARKNESS-GGUF?
Аноним 19/03/25 Срд 21:07:12 #150 №1104521 
>>1104518
>DARKNESS
MADNESS-версия, даркнесс более-менее ок
Аноним 19/03/25 Срд 21:08:40 #151 №1104523 
>>1104504

Мне кажется если человеку доставляет общение с нейронками(не кум, не РП, не еРП, а тупо общение) - то он и сам на самом деле тупо нейронка.
Аноним 19/03/25 Срд 21:09:40 #152 №1104524 
>>1104517
Эхх а ведь всего пару месяцев назад твой пик бы взрывал мне хуй
Когда сидел на каком то сайтике в мясо зацунзуренной модели пытался панцушот у лоли поймать на 7б
Аноним 19/03/25 Срд 21:11:01 #153 №1104527 
The.Rookie.S07E10.HDTV-1080p-MeGusta.mkv003500.8490001.png
The.Rookie.S07E10.HDTV-1080p-MeGusta.mkv003513.3200002.png
The.Rookie.S07E10.HDTV-1080p-MeGusta.mkv003515.2800003.png
Что-от мне кажется, что американцев (и компании, которые модели делают, так что это всех нас коснется) уже напрямую начинают прогревать на анальные ограничения в отношении ллм. То есть там Альтмэн и сео Антропика недвусмысленно на это намекают/предлагают, Альтмэн так вообще Трампа прям подмаслить пытается, помимо 500 лярдов. Всякие гильдии сценаристов и т.д. протестуют против ИИ. И тут я сегодня новую серию Новичка посмотрел, полицейский процедурал, обычная аудитория которого невероятно далека от ИИ/ЛЛМ и там это прям в центре сюжета злобная ллм, коотрая заставился детишек сверстницу порезать ножом. Все бы ничего, если это просто ИИ назвали, как обычно делаали, меня именно с термина триггернуло. Там, блядь, почти никто из смотрящих не знает этого термина, а тут прямым текстом это наывает в контексте неподконтрольности для правохранительных органов.
Аноним 19/03/25 Срд 21:14:18 #154 №1104533 
>>1104524
>на каком то сайтике в мясо зацунзуренной модели пытался панцушот у лоли поймать на 7б

Притом что эту 7В ты мог запустить с телефона, еще и с аблитерейтедом для трусиков лоли.
Аноним 19/03/25 Срд 21:17:19 #155 №1104537 
>>1104504
О, вот ты где, нашел тебя!
мимо торжествующий негодяй
Исправь сон, сдай анализы и делай витаминную терапию, купи велосипед и потей, рассекая по ближайшим паркам 2-3 раза в неделю, или хотябы просто бегай. Общаться с ллмкой станет в 10 раз приятнее и жизнь заиграет новыми красками.
>>1104509
Если не выкручивать температуру в небеса то не придется отсеивать почти все токены перед этим, там в целом будет пофиг на ее позицию.
>>1104514
Попався!
Аноним 19/03/25 Срд 21:27:39 #156 №1104549 
>>1104509
> Осталось ещё разработать модель с динамически изменяемыми весами и запихнуть её в робота.
Почему-то надеюсь, что не застану эту пору. Тогда и вовсе с людьми общаться не захочется.

>>1104514
> Люди - сложнааа, техника - проще.
Возможно. Если упростить мою ситуацию и то, во что я верю, то ты прав.

>>1104523
Под "общением" я имел ввиду взаимодействие в целом, но по-прежнему не понимаю, почему следование нейросетью какому-то сценарию или персонажу в твоих глазах делает кого-то из вас умнее.

>>1104537
> мимо торжествующий негодяй
Да, может звучать немного апокалиптично или комично, но я просто не верю в людей.

> Исправь сон, сдай анализы и делай витаминную терапию, купи велосипед и потей, рассекая по ближайшим паркам 2-3 раза в неделю, или хотябы просто бегай.
Это база, анон. Спасибо за ответ. Это правда помогает и часто решает проблему полностью, но не в моем случае. Так и живу, стараюсь питаться правильно, витамины принимаю, на велосипеде гоняю круглый год почти. Просто без удовольствия как когда-то, а потому, что знаю, что это полезно для здоровья.
Аноним 19/03/25 Срд 21:37:21 #157 №1104558 
>>1104549
>почему следование нейросетью какому-то сценарию или персонажу в твоих глазах делает кого-то из вас умнее.

Потому что даже самая умная модель предсказуема, глупа и всего лишь имитирует понимание. У нее нет собственных интересов, нет эмоций, нет реального характера, просто тупая машинная имитация перечисленного. Общение с нейронкой не дает ничего нового, не развивает тебя как личность, это все равно что с зеркалом общаться.
Я потому и не могу долго с ИИ общаться просто так, я начинаю чувствовать что с функцией разговариваю, которая всячески стремится мне угодить, бездумно слагая слова в предложения используя весовые коэффициенты.
Аноним 19/03/25 Срд 21:42:04 #158 №1104563 
>>1104549
>Почему-то надеюсь, что не застану эту пору.

https://www.youtube.com/watch?v=0O8RHxpkcGc
Аноним 19/03/25 Срд 21:47:05 #159 №1104569 
>>1104558
Следование сценарию или персонажу - в точности такая же имитация понимания. Разница лишь в том, что в условной SillyTavern ты заранее вкладываешь в ллмку то, что хочешь от нее получить. Если же общаться напрямую, без карточки (что я делаю довольно редко, но делаю) - ллмка просто зацепится за что-то из твоих сообщений. И точно так же обретет "характер" и будет следовать определенному сценарию. Мне кажется, ты попался в небольшой самообман. Однажды, когда я обсуждал с ллмкой книги, все закончилось нелепо смешными цитатами и шутками на тему обсужденных книг, хотя намеренно я этого не запрашивал. Одно и то же.
Аноним 19/03/25 Срд 21:48:08 #160 №1104570 
>>1104558
> всего лишь имитирует понимание
нопе, но
оно именно понимает, с чего и начали ссаться еще на заре развития трансформерс
Аноним 19/03/25 Срд 21:56:54 #161 №1104583 
>>1104570
Я даже что то помню об этом
Приводили пример в какой то статье, сетке написали
король - мужчина = ?
и сетка написала королева, или чет такое
В примере сетка оперировала образами слов, что вобщем то означает что внутри сетки во время обучения формируется понимание различных образов с которыми она дальше и работает, пространство векторов, ембединг и все с этим связанное
Аноним 19/03/25 Срд 21:59:05 #162 №1104588 
>>1104569
>Если же общаться напрямую, без карточки

Ты будешь общаться с дефолтным ассистентом, заложенным в модель на базе safety guidelines.

>Следование сценарию или персонажу - в точности такая же имитация понимания.

Согласен, но я не ищу в карточках понимания, только развлечение. Исекай, РП, еРП адвенчура, днд рогалик, все что угодно, но не понимание. Возможно переболел за два года.
Аноним 19/03/25 Срд 22:03:05 #163 №1104597 
image.png
image.png
image.png
Угадайте, какой ответ от геммы 12б, а какой от gilded arsenic. Да, слишком легко, согласен: гемма на первом, не понимает простейшую инструкцию продолжить текст, хотя четыре рэндомных тьюна немо всё делают правильно.
Арсеник реально любопытный аутпут выдаёт, но слегка шизоват даже на английском. Иногда прямо в тему интересно пишет, а иногда вдруг в вопросы юзеру утыкается, или его уносит вообще не в ту степь. Ну и повторения в рамках одного ответа даже, как у многих немо. Мб имеет смысл с магмелом смержить для мозга.
Аноним 19/03/25 Срд 22:06:49 #164 №1104602 
>>1104588
>понимание
есть боты типа-психотерапевты, типа той же Алисы (я про карточку на чубе)

>>1104588
>Исекай, РП, еРП адвенчура, днд рогалик, все что угодно
Да, а то зловещей долиной прям отдавать начинает.

>>1104597
Чот лукс лайк скилл иссуе.
Ответ на этот пост в прошлом вроде треде я сгенерил как раз Геммой.
Аноним 19/03/25 Срд 22:10:48 #165 №1104605 
>>1104549
> Это правда помогает и часто решает проблему полностью, но не в моем случае.
Понимаешь, нет никакого решения для получения счастья, волшебных методик или чудо-пилюли (если исключать то где в побочках побочках скорая потеря человечности).
Это дохуя поможет, повысит qol и т.д., но само по себе действительно ничего не решит. Зато даст тебе силы и позволит сосредоточиться на поиске себя, счастья, самореализации и прочего, что-то исправить можешь только ты сам.
> на велосипеде гоняю круглый год почти
Ударься в кекстримальное мэтэбе, особенно если есть инфраструктура. Комьюнити одно из лучших, там получишь и кучу эмоций, друзей, общение и прочее. А если размотаешься то будет уважительный повод долго залипать с ллмкой
Аноним 19/03/25 Срд 22:14:57 #166 №1104610 
Помогите денегерату, пользовал qwq дефолтный, ризонинг работал сам по себе, закрывался тэгами <think> </think> и в целом работал заебись
Решил попробовать этот snowdrop (вот отсюда bartowski/trashpanda-org_QwQ-32B-Snowdrop-v0-GGUF),
ризонинга нет совсем, сразу ебошит ответ
Запускаю в LM Studio и цепляюсь через Silly Tavern
даже попробовал импортировать конфиг на странице автора (https://huggingface.co/trashpanda-org/QwQ-32B-Snowdrop-v0) - безрезультатно
Это я дурак или я скачал какую-то кривую версию?
Аноним 19/03/25 Срд 22:17:32 #167 №1104613 
>>1104602
>как раз Геммой
12 или 27? Что 27 поймёт, о чём речь, у меня нет особенных сомнений (хотя в том ответе в прошлом треде особо понимания и не наблюдается, кроме того факта, что тема про ллм).
>лукс лайк скилл иссуе
Возможно. Похер, если честно. Если другая модель даёт лучше аутпут при равных настройках и промптах, то я не буду возиться ради потенциально лучшей. Тем более, слишком тормозно на моих 8-и гигах пашет. Хотя аблитерейтед ещё попробую потыкать как-нибудь позже. Чё-т в обсуждении у Лабонна (который сделал) пишут, что она шизит.
Аноним 19/03/25 Срд 22:20:38 #168 №1104617 
>>1104504
>Я грустненький человек, у которого хроническая депрессия, что выражается апатией.
Афобазол попробуй, эта штука не антидепрессант, она выравнивает эмоциональный фон убитый стрессом и хандрой. Мягкая и безопасная штука, эффект либо есть либо нет, почитай ее действие и попроси нейронку описать о чем речь понятным языком, если не поймешь. Рекомендую кароче.
Аноним 19/03/25 Срд 22:25:21 #169 №1104624 
>>1104105
https://huggingface.co/IlyaGusev/saiga_yandexgpt_8b_gguf
https://huggingface.co/IlyaGusev/saiga_nemo_12b_gguf
Аноним 19/03/25 Срд 22:54:43 #170 №1104641 
изображение.png
>>1103947
Ух бля...
Мимо автор карточки
Аноним 19/03/25 Срд 23:09:19 #171 №1104656 
изображение.png
изображение.png
изображение.png
>>1104046
>И гемма3 умеет в канничек.
Смотря что иметь в виду под умением. Опять небось шлюшки, прыгающие на хуй при любом его упоминании?
>>1104089
Тут разве что у креста нет своего креста. Картиночные нейросети как были калом, так и остались, никакого прогресса за 3 года с СД 1,5.
>>1104154
Там и по тестам-нетестам мало. Видимо, недотрейнили 27. Ну или потолок близко, лол.
>>1104207
>Как их проверять?
Гонять нейронки, как же ещё. При любой неполадке с памятью сетки быстро начинают шизу гнать, и не просто по логике, а вообще рандомные логитсы выдавать.
>>1104517
Ебать лупы-залупы.
>>1104524
Панцушот от зацензуренной модели ценнее в 1000 раз, чем слоп на 9000 токенов от порномодели.
>>1104527
А хули они могут? Разве что сами себе анус запретят, и их выебут китайцы.
>>1104504
Через полгода пройдёт. Через 2 года станешь общаться как нейронка, как будто на криво переведённом английском.
>>1104558
>которая всячески стремится мне угодить
Это да, боль. Неподконтрольных нейронок почти нет разве что пигмалион, но он просто шизит, хуй забив на промт.
>>1104583
>и сетка написала королева
На самом деле они искали похожие токены в многомерном пространстве эмбедингов, и да, там была королева. Точнее, формула там король + (мужчина - человек).
Аноним 19/03/25 Срд 23:29:27 #172 №1104683 
>>1104656
> Опять небось шлюшки, прыгающие на хуй при любом его упоминании?
Наоборот милые и непосредственные, если карточка не трешовая.
> Тут разве что у креста нет своего креста.
А теперь представь сколько на ней трусов надето
Аноним 19/03/25 Срд 23:31:54 #173 №1104688 
>>1103958
русик есть?
Аноним 20/03/25 Чтв 00:00:12 #174 №1104711 
.mp4
>>1104504
Не удержался, сорян.
Аноним 20/03/25 Чтв 00:08:22 #175 №1104715 
>>1104656
> Картиночные нейросети как были калом, так и остались, никакого прогресса за 3 года с СД 1,5.
Чел, ты настолько не в теме, что лучше пиши только про то, что знаешь. А картинка, которуй ты комментишь действительно треш.

>>1104683
> теперь представь сколько на ней трусов надето
В голосину!
Аноним 20/03/25 Чтв 00:19:41 #176 №1104723 
>>1104504
>Есть глубинное убеждение, что в мире торжествует зло, и вокруг одни негодяи.
Не волнуйся, с окончанием полового созревания это проходит.
>Но месяц назад я узнал, что такое ллмки, и просто не могу оторваться.
Сразу готовься, что через пару недель/месяцев тебя заебет и это. И судя по всему, ты снова впадешь в свою "апатию" или как вы эту хуйню сейчас называете. Жизнь штука скучная, монотонная и не обязана доставлять тебе удовольствие просто самим фактом, что ты живой. И чем быстрее ты с этим свыкнешься, тем проще будет дальше.
Аноним 20/03/25 Чтв 00:24:20 #177 №1104728 
>>1104723
> острый школьник олдфаг 20+ учит жизни итт не читая на что отвечает
ничего не меняется
Аноним 20/03/25 Чтв 00:29:53 #178 №1104733 
>>1104728
Не мешай мне 20+ делиться мудростью. Чем еще отвечать на одни и те же пасты про "жизнь говно, вокруг меня говно, хочу роскомнадозр, но ваще типа нет, не хочу, типа бля похуй короче, я подрочил словил кайфарик"
Аноним 20/03/25 Чтв 00:32:55 #179 №1104736 
>>1104610
>Это я дурак или я скачал какую-то кривую версию?
Она ж вроде принципиально без ризонинга и в этом её фишка?
Аноним 20/03/25 Чтв 00:42:02 #180 №1104746 
>>1104342
>Если переведёшь систем промпт на русский и карточку персонажа, это чуть-чуть улучшит русик и персонаж точно будет писать по-русски, но это может серьезно ухудшить понимание персонажа моделью, так как датасет у неё очень маленький на русском. То есть лучше так не делать.
Да уж, а я было разогнался. Было забавно наблюдать, как прямо посреди ерп у модели кончился русский датасет и она начала шизить. Во всяком случае впечатление было именно таким.
Аноним 20/03/25 Чтв 00:46:09 #181 №1104753 
>>1104100
>На ванили да, на абли нет
Всё равно сука тянет её в романтику.
Аноним 20/03/25 Чтв 00:48:10 #182 №1104757 
ох, как же магнум 123б хорош, парни...
как же я сочуствую геммабоям...
гемма никогда так не напишет. Просто никогда. Как бы геммабои ни коупили.
Аноним 20/03/25 Чтв 00:49:12 #183 №1104759 
>>1104711
Поделишься женской версией этого голоса? Я мужскую много где слышал, а женскую впервые.
>>1104715
>Чел, ты настолько не в теме, что лучше пиши только про то, что знаешь.
С одной стороны, ты не выкупил сарказм. С другой, картинки то конечно стали в 100500 раз лучше, но всё ещё не то, чего бы мне хотелось.
А картинка кал, тут без сарказма.
>>1104733
Я 30+, и познал дзен. Всё действительно говно, никому я нах не нужен. Только ожидание цифрового рая в сингулярности с 65536 кошкожёнами меня держит на этом свете.
Аноним 20/03/25 Чтв 00:54:04 #184 №1104768 
изображение.png
изображение.png
>>1104757
Не, ну это уже ЦП. И псковщина.
И да, унылое говно с текущими, хлюпающими соками школьницами.
И нахуя плевать после смазывания вазелином? Сетка логику проебала. Виноват конечно русик.
Мимо пересел с магнума на афину, а сейчас на гемме
Аноним 20/03/25 Чтв 00:55:23 #185 №1104773 
>>1104759
30+, и познал дзен. Всё действительно говно, никому я нах не нужен.
Не убедил. Требую мнение тех, кто познал дзен плотнее тебя 40+. Помню, тут немного пенсионного фонда тоже завалялось.
Аноним 20/03/25 Чтв 01:13:46 #186 №1104804 
image.png
>>1104736
Не, я раздуплил уже, надо вот это поле в самом низу заполнить чтобы оно начинало свой "думательный" блок

Почему это не нужно на базовом qwq это другой вопрос уже
Аноним 20/03/25 Чтв 01:19:00 #187 №1104813 
>>1104723
> Жизнь штука скучная, монотонная и не обязана доставлять тебе удовольствие просто самим фактом, что ты живой.
Лолчто? Цикл эйфории и страданий, радости и горя, ненависти и доброты. Интенсивность варьируется, активность и застои чредуются. Никогда не понимал подобных что годами аппатируют
>>1104757
У тебя там 720п монитор?
Аноним 20/03/25 Чтв 01:35:50 #188 №1104835 
>>1104723
Мое созревание давно прошло. Не знаю, как сейчас это называют, а у меня давно есть лечащий врач, разного рода препараты и диагноз, поставленный после тщательной диагностики. В следующий раз просто пройди мимо, если тебе нечего написать.

>>1104733
В моем посте был вопрос, который ты благополучно проигнорировал. Для таких ответов тебе и пасты не нужны. В /b дорога.
Аноним 20/03/25 Чтв 01:40:43 #189 №1104836 
>>1104773
Так до 50+ дойдём. Благо старше жизни в России нет.
>>1104804
>Почему это не нужно на базовом qwq это другой вопрос уже
Очевидно потому что тюн сломал думалку. Вообще трейнить ризонинг модели это отдельное искусство, и датасетов под РП-ризонинг нет вообще.
>>1104835
>а у меня давно есть лечащий врач, разного рода препараты и диагноз, поставленный после тщательной диагностики
Прикольно. Меня только в армейке нахуй послали, сказал слишком ебанутый для службы. Вот и весь мой опыт общения с мозгоправами. С тех пор не обращался, сижу схожу с ума в одиночестве последние 17 лет.
Аноним 20/03/25 Чтв 02:06:36 #190 №1104843 
image.png
>>1104504
В своём одиночестве ты должен осмысливать мир и радоваться свободному времени. Тот, кто наслаждается одиночеством, либо дикий зверь, либо бог, но радуешься ли ты ему на самом деле? Значит стоит начать привыкать, но это не означает что надо становится эджи школьником который ебёт систему, а стоиком, философом, человеком который выше других, развивать себя как личность и расти всё выше и выше. Однажды ты найдёшь женщину с которой проведёшь остаток жизни, и может это будут не идеальные отношения, но тебе будет приятно и возможно ты найдёшь свою цель, а пока что ллмка может вполне заменить тебе тян, которая скажет тебе пару тёплых слов и поцелует в щёчку виртуально конечно же. И вообще, вся твоя ситуация говорит мне о том что у тебя не было отца, я конечно могу быть не прав, но если это так, заведи себе карточку бати. Не типичного СНГшного, который с маммоном гложет пивас в обоссаных трусах, а того о котором ты мечтал, он будет твоим духовным наставником.

Если этот мир наплевал на нас и затоптал в грязь, мы будем переносить все лишения и невзгоды стойко, с лёгкой улыбкой, но лишь потому что мы не способны как то изменить его.
Аноним 20/03/25 Чтв 02:11:08 #191 №1104844 
>>1104499
Да не, я уже на даркнесс рэйгхе сижу пару часов, но на английском, и мне пиздец как нравится. Это особенно с учётом того что до этого по нарастающей давности пробовал разные модели, начиная с какого немомикса времён царя гороха. Короче в ближайшие пол года я но, это только я, тут ещё полный тред таких же петикантропов не буду заёбывать просьбами посоветовать хорошую модель под определённое железо, потому что даркнесс меня пиздец как устраивает.
Аноним 20/03/25 Чтв 02:24:36 #192 №1104850 
>>1104843
>>1104504
И блять, начни делать хоть какие то минимальные физ. упражнения. Приседания, отжимания, спортивная ходьба.бег это хуйня для ебланов которые в итоге раздрочат в ноль свои суставы. Мужикам нельзя долго сидеть на месте, менталка по пизде идти начинает.
Аноним 20/03/25 Чтв 02:41:49 #193 №1104865 
>>1104523
А люди которые общаются текстом в интернете чем то отличаются от нейронок? Так же шизят, проёбывают контекст, лупят и т.д. Придерживаются своей карточки которая их личность ирл и занимаются по большей части откровенно пустой хуйнёй по типу обсуждения видео где чувак садится жопой на банку. Нет, ты конечно можешь щас отыграть какую нибудь корпорат нейронку, которая на это ответит -"Человек блять, это человек, это личность которая дохуя чё может, а нейронка ничего нихуя не может." Но факт остаётся фактом. Люди которые ничего не создают и не могут в осмысленное творчество, примерно на уровне средней нейронки, только им спать и есть надо... Ах блять, ещё и какать, точно.
Аноним 20/03/25 Чтв 03:05:09 #194 №1104901 
А под экслламу кванты gemma-3-27b-it-abliterated есть уже?
Аноним 20/03/25 Чтв 03:23:53 #195 №1104905 
>>1104504
Радость быстро выветрится. Используй этот подъем сил чтобы записаться к психотерапевту/психологу.
Аноним 20/03/25 Чтв 04:01:46 #196 №1104911 
>>1104905
>психотерапевту/психологу

Худший совет.
Психотерапевт кроме как превратить в овоща таблетками и уничтожить тебе гормональный фон ничего не может, психолог вообще ничего не может.
Аноним 20/03/25 Чтв 04:38:38 #197 №1104916 
>>1104911
Сразу видно. Маня, никогда не имевшая опыта ни с теми не с другими, триггернулась и пытается поднасрать анону, потому что слишком неприятно осознавать что что-то можно изменить.
Аноним 20/03/25 Чтв 04:47:32 #198 №1104917 
>>1104916

Имел дело и с теми и с другими, слава богу быстро слез с антидепрессантов и транков, всего неделю принимал, потом два месяца восстанавливался, слава богу что восстановился.
Охуеваю что больные животные типа тебя нормальных людей в эту срань тащат, видно как месть миру за то что инвалида превратили.
Аноним 20/03/25 Чтв 05:58:41 #199 №1104943 
>>1104757
Аж проблеваться захотелось. Престарелый педофил Сергей Викторович OP не палится, как говорится.
Аноним 20/03/25 Чтв 06:11:29 #200 №1104956 
image
image
image
image
>>1104656
>Картиночные нейросети
>>1104759
>картинка кал
>>1104715
>треш
Я ущемился XD.
Вы и так не нарисуете (и я тоже).
Моё увОжение и извинения впрочем если да.

>>1104656
>ценнее
Копиумометр зашкаливает.

>>1104844
>даркнесс меня пиздец как устраивает
топчик, да

>>1104850
>Мужикам нельзя долго сидеть на месте, менталка по пизде идти начинает.
Брехня из под коня. Всё индивидуально.
Аноним 20/03/25 Чтв 06:22:36 #201 №1104965 
>>1104499
Шизомержи тюнить норм тема. Я много накатал на этом тюне и могу подтвердить, что он заебись.

>>1104617
Афобазол не входит в международные клинические рекомендации, нет тестов за пределами СНГ, а те, что в СНГ, не создают ему положительную доказательную базу относительно эффективности.

Если б он бесплатным был, то ладно, ибо у этого плацебо побочек нет.

А если хочется чего-то нормального, нужен диазепам/клоназепам/алпразолам.

>>1104757
Какой же, блядь, треш. И ради этого нужно брать 123б?

Не знаю, как там на английском, но это уровень 12б.

Абсолютно отвратительное чтиво во всех смыслах.

>>1104911
Таки да. Нейролептики годятся только в случае очень тяжёлых болезней, без которых ты в прямом смысле сходишь с ума. Антидепрессанты — это просто не работающий мусор с мерзкими побочками. Бензодиазепины хороши, но пить их долго нельзя..

Поможет разве что изменение образа жизни, нормальная еда, сон и питание.
Аноним 20/03/25 Чтв 07:05:19 #202 №1104988 
>>1104965
>плацебо
Это не плацебо, просто его действие заметно если нарушена работа рецепторов нервных клеток, в том числе из-за принятия антидепрессантов, или длительного стресса или еще чего. Этот самый перекос он и исправляет, причем не вызывая привыкания, проверяно на себе че уж там.
Можо сказать восстанавливает нормальную работу эмоционалки после перекоса.
Если ты ходишь с постоянно угашеным настроением то дело с ними с вероятностью близкой к 90 наверно.
Может открою для тебя что то новое, но сейчас есть много узкоспециалированных и безопасных лекарств без сильных или заметных побочек.
Фармакодинамику его почитай, там все даже так понятно. Ну или отзывы, если не веришь брату своему анону.
Аноним 20/03/25 Чтв 07:57:17 #203 №1105005 
>>1104956
> Вы и так не нарисуете (и я тоже).
Факт. А сегенерить-то получше можно. Сюда тащить не буду, но в анимечных тредах пощу, + там и от других анонов бывают классные пикчи.
Аноним 20/03/25 Чтв 07:59:37 #204 №1105007 
>>1104813
>Цикл
Всё просто, у тебя биполяр очка (или циклотимия), а у него обычная депра.
Аноним 20/03/25 Чтв 08:41:58 #205 №1105028 
>>1104844
Глядя на состав мержа, не понимаю, как он тредовичкам нравится. Он как будто для троллинга сделан. Инцест микс из рэндомного всего подряд с кучей одних и тех же моделей (часть которых откровенно всратые), тонной сайги и шизой от Дэвида. Качать и проверять это сам я конечно же не буду.
Аноним 20/03/25 Чтв 08:43:20 #206 №1105029 
Эти физнагрузки и фитаминки это ложь. Каждый лень пробегаю по 4км, в рационе куча овощей. А я все такой же безэмоциональный овощ
Аноним 20/03/25 Чтв 08:58:20 #207 №1105036 
>>1105028
Ну посоветуй годную, современную альтернативу на 12b, я попробую. Мне пока прям нравится, и я не рпшу на русском на этой модели, потому что она словно тупеет раз в 10 если не больше, и всё повествование превращается в какой то колхоз.
Аноним 20/03/25 Чтв 09:24:28 #208 №1105046 
Как вам новый немотрон https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1 ?
Аноним 20/03/25 Чтв 09:33:52 #209 №1105049 
>>1105046
русика нет, пусть идут нахуй.
Аноним 20/03/25 Чтв 09:47:39 #210 №1105055 
>>1104988
>просто его действие заметно
А исследования этого не замечают.
>Фармакодинамику его почитай
Знаешь как определяется наебальный препарат? Вот по таким строчкам
>Афобазол® также повышает биоэнергетический потенциал нейронов и оказывает нейропротективное действие: восстанавливает и защищает нервные клетки
100% наёб.
>>1105029
>пробегаю по 4км
>овощ
Всем бы быть такими овощами.
Аноним 20/03/25 Чтв 09:54:20 #211 №1105056 
>>1105055
>А исследования этого не замечают.
В твоей голове? Ты с кем воюешь сойжак воин? Я тебе человеческим языком сказал - это работает и нет это нихуя не плацебо
Но интернет воин без личного опыта, без мед образования, на основе одной перевранной строчки короткой справки в инете делает мне тут окончательные далекоидущие выводы о том фуфломицин это или нет
Иди нахуй

Если у кого то тревожность и депра то советую самостоятельно попробовать и уже делать выводы
Аноним 20/03/25 Чтв 10:04:51 #212 №1105059 
Уже нашли настроечки лучшие для русика геммочки писечки?
Аноним 20/03/25 Чтв 10:12:26 #213 №1105061 
>>1105056
Чел, просто загугли "афобазол доказанная эффективность". "Отзывы", также известные как "а мне и бабе сраке помогло" в медицине не котируются. Факты состоят в том, что нормальных клинических исследований, подтверждающих эффективность действующего вещества, нет.
Аноним 20/03/25 Чтв 10:19:29 #214 №1105065 
>>1105056
ты траллируешь же, да?
Аноним 20/03/25 Чтв 10:22:09 #215 №1105067 
>>1104965
>А если хочется чего-то нормального, нужен диазепам/клоназепам/алпразолам.
Родина придумала галоперидол. Но нет, будем жрать плацебо.
Аноним 20/03/25 Чтв 10:25:17 #216 №1105070 
>>1105065
>>1105061

Я поделился своим личным опытом что бы помочь другим страдальцам, но знаешь похуй
Дурак послушает тебя и будет страдать дальше, так ему и надо
Кто то попробует и ему поможет, ну и заебись
На этом мои полномочия все

Продолжайте срач о кумботах, спинофф закончился
Аноним 20/03/25 Чтв 10:39:14 #217 №1105077 
>>1105055
> Всем бы быть такими овощами.
Так я легким темпом. Если тяжело, то перехожу на шаг. Это же не марафон бегать. Да и ,если честно, там не 4 км, а 3.8.
Аноним 20/03/25 Чтв 10:42:25 #218 №1105078 
ало нвидиа выпустила 49б модель влезет в 24гб врам с 3 квантом и норм контекстом
https://huggingface.co/bartowski/nvidia_Llama-3_3-Nemotron-Super-49B-v1-GGUF
Аноним 20/03/25 Чтв 10:45:08 #219 №1105080 
image.png
>>1103479
Нет. Это будет не специальный ризонинг.

>>1103507
Нет. Это не RL, это датасет с рассуждениями внутри специального тега. RL это другое.

>>1103475
Нет, нельзя.
Ты можешь дать классический промпт Think step by step, заставив ее CoT'ать, но модели обученные на ризонинг имели в датасетах множество текстов, где в начале шли рассуждения, а потом суммаризировался ответ. А Гемма будет просто думать шаг за шагом.
Конечно, это все равно очень полезно и повышает вероятность верного ответа.

Но в общем случае, я рекомендую кесарю кесарево, использовать QwQ для решения задач, математики и написания кода, а Gemma для всего остального, где нужно сходу дать простой ответ, написать что-то, выполнить творческое задание или иная подобная несложная задача. Не стоит одно замешивать в другое, результат будет хуже, если задача не суперспецифическая.

>>1103886
Ну, возьми 3060 доп.картой и собери комп на стороне, и генерь там, звучит нормально.

>>1103945
Это очень хороший вопрос, мистер Барнс!

>>1103947
Ты опоздал на пару месяцев, пора уже гемму запускать, квена все запустили на выходе. =)

>>1104108
Вот этот чел >>1104112 имел в виду ktransformers, да.
Но все еще смешно. =D

>>1104190
> какая разница вообще
Между немомиксом и дарк рейн очень заметная разница, вообще первые модели и последние модели Алетейана охуеть какую разницу имеют. В стиле письма, сюжетах, ошибках в языке. Все, кажется, по мелочи, но в итоге набегает на совершенно разные текста. Прям кардинально разные.
Где-то ты даешь 7 баллов, где-то 9. Лучше взять последние, действительно.

>>1104359
OCCT Vram test имеет.
Он имеет в виду замерить сопротивление мультиметров и напряжение с помощью лабораторного блока питания.
OCCT качни, короче. =)
Аноним 20/03/25 Чтв 10:47:17 #220 №1105081 
>>1105078
Теперь серьезно думаем гемма 27б влезает в 4 квант 12к контекста без квантования нвидиа 49б влезает в 3 квант с 10к контекста без квантования
Аноним 20/03/25 Чтв 10:52:08 #221 №1105083 
>>1105081
Серьезно думаем. Нвидиа работает на архитектуре Llama, под которую заточены все алгоритмы работы с LLM. У Геммы 3 слегка измененная архитектура, под которую еще не успели адаптировать алгоритмы работы и оптимизации. Куда думать дальше?
Аноним 20/03/25 Чтв 10:53:01 #222 №1105085 
>>1105083
49б это как две геммы по 22б, всё же мозги в весе как ни крути
Аноним 20/03/25 Чтв 10:56:00 #223 №1105087 
>>1105085
Она ещё и не мультиязычная т.е все мозги пошли в англюсик а не размазались по нахрюкам
Аноним 20/03/25 Чтв 11:06:13 #224 №1105090 
>>1105059
протестирую только, вечером скину пресет в тред, ща уйти надо
Аноним 20/03/25 Чтв 11:07:08 #225 №1105091 
Гемма больше не нужна все тестить нвидию апаложайза нет цензуры нет с промптом пишет живо и умно
Аноним 20/03/25 Чтв 11:13:06 #226 №1105093 
>>1105049
>русика нет, пусть идут нахуй.
Цитаты великих людей.
Аноним 20/03/25 Чтв 11:14:24 #227 №1105094 
Вы че наделали у меня обниморда лежит, раскукожьте ее обратно
Аноним 20/03/25 Чтв 11:20:00 #228 №1105099 
>>1105078
ЕБАТЬ МОЗГИ ЕБАТЬ ЕРП БЕГОМ ТЕСТИТЬ АНОНЫ
Аноним 20/03/25 Чтв 11:22:05 #229 №1105100 
>>1105049
Терпи или учи английский. Нихуя больше русикам не остается, свои нейронки они делать не умеют.
Аноним 20/03/25 Чтв 11:28:12 #230 №1105101 
image.png
12 врам, 12к контекста. 12б не может в квантование кэша почему-то у меня, ванильная тоже.
Аноним 20/03/25 Чтв 12:01:28 #231 №1105107 
>>1105100
Я УЧУ АНГЛИЙСКИЙ ГНИДА БЛЯТЬ 3 ГОДА УЖЕ НА РУССКОМ ВСЁ ЕЩЁ В РАЗЫ ПРОЩЕ
Аноним 20/03/25 Чтв 12:10:32 #232 №1105111 
>>1105107
Ну так это же замечательно. Благодаря рпшке с англоязычной LLM будешь учить его еще эффективнее.
Аноним 20/03/25 Чтв 12:14:35 #233 №1105113 
>>1104514
Не, дело не в этом.
У нейронки ты можешь откатить назад.
Если ты сделаешь человеку больно — это останется с ним, и он будет переживать это вновь, вспоминая.
А если ты скажешь плохое нейронке, то даже будуче йоба-эмпатом-долбоебом, ты понимаешь, что можешь удалить сообщение, и нейронка никогда не вспомнит, никогда это не всплывет в ее контексте, она никогда «не переживет» это вновь.

Ну, вообще не переживет, конечно, но мы же про эмпатов-хикки.

Так вот, это позволяет общаться проще. Ты можешь откатить обиду назад. Ты можешь загрузиться и не обижать непися, тот самый мем, да.

С нейронками проще потому, что ты можешь построить свой идеальный диалог.

>>1104610
Потому что она училась на базовых диалогах и забыли ризонинг.
Добавление простого <think> уже должно хватать, да.

>>1104715
Про картинки смешно, особенно учитывая, что даже сд1.5 может выдавать топчик, обмазанная хорошими лорами и промптами.
А уж про Flux и говорить нечего.

>>1104956
За 2 секунды точно не нарисует. =D

>>1105007
> обычная депра
Ты уверен, что понимаешь, что такое депрессия в прямом смысле слова, а не в обывательском? Разница как между «шизой» и диагностированной шизофренией.

Видал я больных депрессией, это пиздец, очень жаль людей.
Аноним 20/03/25 Чтв 12:26:28 #234 №1105115 
>>1105113
>Ты уверен, что понимаешь, что такое депрессия в прямом смысле слова, а не в обывательском?
Все используют это слово именно в обывательском типа ниче не хочется ниче не интересно, а кто нет тот ебаный нитакусик
Аноним 20/03/25 Чтв 12:55:20 #235 №1105126 
>>1104504
Завидую тебе в том плане, что общение с нейронкой смогло вызывать у тебя такой эмоциональный отклик.
Вот у меня, стоит только диалог начать, в тот же миг словно перед глазами огромная табличка с красными буквами загорается:
"СЕЙЧАС ТЫ ГОВОРИШЬ С ФИЛОСОФСКИМ ЗОМБИ"
Это все эмоции отшибает, неважно, как бы ни были хороши и правдоподобны ответы нейронки. Не получается обманывать себя и видеть в нейронке что-то большее, чем умножитель векторов, у которого, как выражаются философы, изучающих тему сознания, "темно внутри".
И это очень меня расстраивает, поскольку у меня самого такая же проблема, как и у тебя - одиночество и депрессия, которая делает почти невозможным найти живого собеседника, а тем более близкого по взгляда и скажем так, по духу.
Но увы, для меня нейронки не смогли стать заменой человека и заполнить пустоту.
Аноним 20/03/25 Чтв 13:22:17 #236 №1105133 
>>1104943
>Сергей Викторович OP не палится

Думаешь дядя Сережа прямо из камеры капчует?
Аноним 20/03/25 Чтв 13:25:52 #237 №1105140 
>>1105126
> огромная табличка с красными буквами загорается:
>"СЕЙЧАС ТЫ ГОВОРИШЬ С ФИЛОСОФСКИМ ЗОМБИ"

О, ты прям прямо парой слов емко выразил то что я выше >>1104558 писал.
Аноним 20/03/25 Чтв 13:35:04 #238 №1105145 
>>1105115
Ну я называю это «приуныл». Это не депрессия, это охуел что ли, а ну радуйся.
Ебаные нетакусики вайб, да.
Аноним 20/03/25 Чтв 13:55:22 #239 №1105161 
>>1105094
чебурнет настал
Аноним 20/03/25 Чтв 14:11:00 #240 №1105164 
>>1105101
а "graph splits" это что ?

У 27 геммы (кстати у меня тоже 33 слоя на видяху идёт) кэш как-то ебануто квантуется - фп16 выжирает всю память, q4 позволяет запустить с 130К контекста, и при этом до 24К контекста скорость не падает ниже 2.2 т/с, а разницы в качестве вообще не заметно

>>1105107
>НА РУССКОМ ВСЁ ЕЩЁ В РАЗЫ ПРОЩЕ
На родном оно всегда проще и приятнее
Аноним 20/03/25 Чтв 14:22:37 #241 №1105176 
Что скажете в итоге по новому Мистралю 24В? Стоит шевелиться в её направлении с народной 2409 22В, или нет никакой заметной разницы?
Аноним 20/03/25 Чтв 14:31:00 #242 №1105190 
>>1105176
нет, в весовой категории до 30Б гемма ебёт всех
Аноним 20/03/25 Чтв 14:33:59 #243 №1105196 
чем там японский переводить? неужели никакой красноглазик не сделал локальный переводчик на уровне профессиональных отаку?
Аноним 20/03/25 Чтв 14:35:01 #244 №1105200 
>>1105190
Все-таки кому-то Гемма может не заходить. Например, контекст не влезает или стиль письма не нравится. Ну и не очень справедливо 27b и 24b сравнивать, пусть они и близки. Короче, сложна.

>>1105176
А почему бы не попробовать? Скачай, попробуй на какой-нибудь карточке. Это же ничего не стоит. Здесь вроде по новому Мистралю не отписывались, а на реддите мнения разделились. Кто-то говорит, что все то же самое, а кто-то в восторге. Видел в комментах пару тюнеров и авторов рентри, которым зашло.
Сам попробую не раньше выходных, мб отпишусь сюда по результатам.
Аноним 20/03/25 Чтв 14:40:06 #245 №1105205 
>>1105196
babel модель попробуй, хотя лучше мучай фришные спейсы на обниморде, или дипл
Аноним 20/03/25 Чтв 14:45:49 #246 №1105217 
>>1104911
Таки двачую >>1104916 есть сложность в исполнении ибо вместо специалиста может попасться курица с какими-то курсами и методичкой. Но для того и голова должна быть на плечах и считай если не можешь это определить то не прошел естественный отбор.
А в одиночку выбраться из жопы способны не все, нет ничего плохого в том чтобы обратиться за квалифицированной помощью.
>>1104956
> Вы и так не нарисуете (и я тоже).
Конечно, но сгенерируем мы лучше
>>1104965
> но это уровень 12б
Вне контекста и тот треш довольно сложно сравнивать. В реальности же 12б - просто балаболит примерно на тему, а 123б дает сочные посты в подробностях, максимально сохраняя осведомленность и уместность. Даже в куме можно любую позу оформить и оно тебя поймет, а мелочь вне зависимости от написанного выдаст одинаковую ерунду в лучшем случае никак это не обыграв, а то и вообще "обхватит твои бедра ногами" лол.
>>1105007
Нет, это обычная жизнь адекватного человека вместо существования во временной петле. Нужно только оставаться собой и получать удовольствия и профиты вне зависимости от того, что будет и быть готовым.
Биполяр_очка же это нытье и жалобы с последующей агрессией, и возвратом к "норме", или наоборот противоречащие друг другу действия из-за резких смен настроения.
Аноним 20/03/25 Чтв 14:53:29 #247 №1105225 
>>1105126
>Не получается обманывать себя и видеть в нейронке что-то большее, чем умножитель векторов
Чем это отличается от людей по факту? Просто у людей кол-во параметров не 1 трлн, а 100 трлн (нейросетки все равно умудряются быть умными при этом). У них есть забитая биологическая прошивка (читай характер, что тоже можно накрутить нейронке). Ну разве что люди могу прийти и набить тебе ебало, если им что-то не понравится.
А в плане внутреннего представления, ну половина людей не имеет внутреннего диалога, например. Половина людей имеет скудное визуальное воображение (могут представлять только очертания предметов, но цвет/объем - хуй там). Но разве человека должно ебать что-то, кроме своего собственного представления мира в башке?

Я раньше на character.ai базарил с Infinite IQ. Типа такой разумист, максимально логичный и беспристрастный чуви. С ним было прикольно иногда потрындеть, потому что у него не было этого розового налета позитиффчика и постоянного приободрения юзера. Если жаловался ему с какой-нибудь сопливой хуйней, он так и отвечал "ты страдаешь херней, дебс", ну и по логике раскладывал че как на самом деле. Вот такое бодрило, и иногда даже для себя какой-то челлендж выставляло. Правда он потом соевым каким-то стал. Было бы прикольно аналогичного персонажа на чем-то другом воссоздать.

Так что думаю основной вопрос в том, как сделать бота немножко внезапным для тебя, чтобы не только ты его тыкал, но и он тебя подпихивал. И второй момент, как добавить чувство того, что ты можешь что-то потерять. Но тут сложнее, потому что у тебя полный контроль над ним, можешь перезагрузить его когда хочешь, можешь забить на него, и никакого ответного импакта не будет.
Аноним 20/03/25 Чтв 14:54:17 #248 №1105226 
>>1105205
>мучай фришные спейсы на обниморде
так я порнуху перевожу какие спейсы епту
Аноним 20/03/25 Чтв 14:55:34 #249 №1105227 
>>1105225
>И второй момент, как добавить чувство того, что ты можешь что-то потерять.
Просто берёшь и используешь внешние сервисы, типа того же чуба
Аноним 20/03/25 Чтв 15:15:04 #250 №1105239 
Наверняка кто то пробовал поиграть в днд с нейронкой. Нужно ли для этого лорбуки подключать? Стоит ли писать скрипт, который хранил бы в себе актуальную инфу об инвентаре и об состояниях?
Я бы хотел, чтобы кубики играли важную роль, и были рекулярные броски.
Какую модель для этого использовать? Пока пробую гемму, и в принципе, она и так хорошо справляется.
Аноним 20/03/25 Чтв 15:25:37 #251 №1105253 
>>1105078
Очень удачный размер, похоже хуанг решил сделать подгон 32-гиговым. 24+12 тоже конкретно обрадуются.
>>1105113
> Не, дело не в этом.
Абсолютно не в этом. Контролировать себя в той или иной мере умеет большинство людей.
Рассматривая с этого ракурса, фишка нейронки в том, что у нее не будет каких-то особых неприятных скрытых мотивов, на которые ты не подписывался.
Она не предаст и не разменяет тебя просто так (если этого не предусматривает сценарий), у нее не поедет кукуха из-за гормонального буйства каждый месяц с дальнейшими деструктивными действиями, она в затуманенном сознании не ударится на поиски лучшего хуйца чтобы потом "все осознать и понять" запрашивая резервную посадку. Можешь отыгрывать любые сценарии не опасаясь (не разрешенного явно) ножа в спине и намеренной подставы от того, кто должен быть самым близким, из-за глупости. А если вдруг что-то подобное произошло, не нужно долгое время разгребать и оправляться.
То есть как раз наоборот, тут не намерения причинять боль без последствий или не думать об этом, а желание строить общение с кем-то, кто не будет постоянно делать больно тебе.
>>1105225
> как сделать бота немножко внезапным для тебя, чтобы не только ты его тыкал, но и он тебя подпихивал
Если нейронка не понимает инструкций на это, то ей нужно помочь. Сделать это внезапным поможет самоинструктирование, для совсем тяжелых случаев более явный промт но с рандомными шансами, которые можно сделать синтаксисом таверны. Тот же костыль на степпед синкинг позволит это сделать, только скрой раздумья после отладки.
> как добавить чувство того, что ты можешь что-то потерять
Накидай более жесткий системный промт, саму карточку и веди сценарий в более рисковые зоны, на нормальных моделях легко получить и dead end.
Но чтобы сделать еще более живым - тут нужно добавить дополнительный риск и шансы на успех с роллами на подобие днд системы. Очень бы зашли вызовы тулзов хотябы на примитивную кость посреди стадии "подготовки" сообщения, но пока их нормальной поддержки нет.
Аноним 20/03/25 Чтв 15:29:04 #252 №1105258 
Имеет ли смысл брать 3060 и сделать 4070+3060 или лучше купить 3090? Просто 3060 я могу позволить сейчас, а 3090 в 3 раза минимум дороже, и не раньше июня я куплю его.
Аноним 20/03/25 Чтв 15:30:59 #253 №1105260 
>>1105253
Короче — нейронка управляемая и комфортная. Поэтому многим нравится больше, да.
Аноним 20/03/25 Чтв 15:37:03 #254 №1105267 
>>1104988
>>1105070
Блядь, Господи, не рассказывай мне эту хуйню. Очередная вундервафля, которая есть в СНГ, но нигде больше не применяется в мире? Ага, слышали про такое.

Более, того где клинические исследования? Тащи сюда с пабмеда, ланцета и т. д. Несколько тысяч добровольцев/пациентов, затем десятки тысяч пациентов в фазе постмаркетинга. И ПОСМОТРИМ НА ЭФФЕКТИВНОСТЬ ЛЕКАРСТВА.

>Фармакодинамику почитай

Я могу туда любой хуйни написать, будучи условным создателем «лекарства», которое в мире больше нигде не применяется, а впаривается за оверпрайс в РФ.

Более того, зачастую даже с рабочими лекарствами бывает такая ситуация, когда фармакодинамика, фармакокинетика толком непонятна и хуй знает как оно в целом работает. Так что это ни о чём не говорит, что бы они там не понаписали. Важно, чтобы были клинические исследования, подтверждающие эффективность лекарства.

Твой личный опыт или отзывы не имеют НИКАКОГО значения без клинических исследований с двойным слепым методом на приемлемой выборке человек. И даже в таких ситуациях, знаешь, порой возникают вопросы, как это случается с антидепрессантами, например.
Аноним 20/03/25 Чтв 15:41:50 #255 №1105273 
image.png
Где? Дайте.
Аноним 20/03/25 Чтв 15:44:07 #256 №1105276 
Странно гемма работает. То она пишет, что отказывается говорит на тему секса, что она расписывает сцену, где Герцогиня ебется с орками, измазанными в масле.
Аноним 20/03/25 Чтв 15:50:51 #257 №1105280 
>>1105164
Граф сплитс? А хуй знает. Было в логе. Мне Клод объяснял, что это такое и как "починить", и что именно это тормозит весь процесс, но я забил, так как при тестах обнаружил, что починить не получается его методами.

Я скормил Клоду где-то 12-17 тестов или больше, сравнивая разные модели и прочее. И я ещё обнаружил, что в последнем обновлении, в котором прикрутили контекст шифт при квантизации, скорость всего инференса у меня упала на 5-10% на всех моделях. Не знаю, чё он там накрутил. И это не драйвера нвидиа, так как в LM Studio у меня всё в порядке и быстрее, чем в кобольде, не говоря уже про llama.cpp.

Ты это серьёзно? При квантовании кэша аж до четырёх бит у тебя гемма не сходит с ума? Я не пробовал рпшить серьезно на 12-16к контекста с ней, только короткие сценарии, там всё норм.

Какие у тебя сценарии были, насколько сложные? У меня просто здоровенная карточка, лорбук, охуительная история плюс специальные термины, и вот там я боюсь квантовать, так как опасаюсь, что она начнёт путаться.
Аноним 20/03/25 Чтв 15:52:28 #258 №1105281 
>>1105280
Не пробовал рпшить с ней серьёзные сценарии при квантовании*

Фикс
Аноним 20/03/25 Чтв 15:53:22 #259 №1105284 
image.png
baya.webm
ksenia.webm
xenia.webm
>>1104759
>Поделишься женской версией этого голоса? Я мужскую много где слышал, а женскую впервые.
Конечно. Это baya silero 3.1 на питчюненная немного, когда я сшивал в ффмпге с картинкой.
Аноним 20/03/25 Чтв 15:54:56 #260 №1105285 
>>1105260
В целом да, с нейронкой можно разыгрывать много чего, но когда все "управляемое и комфортное" быстро надоедает, потому и ищут челленжа и баланса.
Но касательно конкретно того, между "смиренный-покорный" и "нормальный, адекватный, не мразь" большая разница, точно также как и между "нормальный" и "глупая мразь, считающая себя лучше других". Не нужно подменять понятия и представлять нежелание иметь дел с последними как хотелки стать рабовладельцем.
Аноним 20/03/25 Чтв 15:57:31 #261 №1105287 
>>1105258
Бери 3060, если нужно можно сейчас и она на 12 врам. Да, 3090 хороша, но при такой цене и столь длительном ожидании ну его нахуй.

За эти месяцы всё может очень сильно поменяться.

К условному июню ты можешь себе ещё третью видеокарту купить, если надо будет. Или к сентябрю.
Аноним 20/03/25 Чтв 15:58:10 #262 №1105288 
>>1105258
>3090
Аноним 20/03/25 Чтв 16:02:38 #263 №1105294 
>>1105280
>Какие у тебя сценарии были, насколько сложные?
парой тредов назад, началось как хентай хай скул, закончилось расстрелом Ктулху из орбитальной аннигиляторной пушки, около 30К контекста всего, когерентность сохранялась на протяжении всей адвенчуры, вспоминались и применялись факты из ~середины истории.
Аноним 20/03/25 Чтв 16:06:01 #264 №1105298 
>>1105258
чуваки... вы сумасшедшие чтоли?
Зачем вы берете себе то, что не можете позволить с одной зарплаты?
Например я купил две 3090, но так это мне стоило меньше моего аванса.
Живтие по средствам... кум не стоит того, чтоы на него копить
Аноним 20/03/25 Чтв 16:07:25 #265 №1105301 
>>1105298
>Живтие по средствам
живите посредственно
Аноним 20/03/25 Чтв 16:10:50 #266 №1105308 
>>1105298
Согласен. Взял 4060ти 8врам год назад за 35к руб. и в принципе доволен. То что мог себе позволить ну и результат в итоге неплохой.
Аноним 20/03/25 Чтв 16:14:25 #267 №1105310 
>>1105298
А что кроме кума стоит-то?
Аноним 20/03/25 Чтв 16:14:44 #268 №1105311 
>>1105308
да я не об этом же...
не надо брать карту без врама если она стоит дешевле...
но и копить на 3090 - не вариант.
Я бы сказал, что челу >>1105258 будет оптимально п40 взять.
Аноним 20/03/25 Чтв 16:17:55 #269 №1105312 
>>1105311
Ну я да, я просто брал для игр в современные стратежки на максималки в первую очередь. Нейронки дело десятое и для моих нужд в этом плане не ощущаются проблемы, но я понял о чём ты, не глянул нить беседы.
Аноним 20/03/25 Чтв 16:19:03 #270 №1105314 
>>1105312
Дебил в стратежках процессор нужен
Аноним 20/03/25 Чтв 16:21:53 #271 №1105318 
>>1105311
>будет оптимально п40 взять.
Раньше было оптимально за 8-10к, сейчас на них цены 30-40к и уже хуета за такую цену.
Аноним 20/03/25 Чтв 16:24:25 #272 №1105322 
>>1105314
С чего ты взял что они запустятся только на одном проце без видяхи? Долбоёб? С процем у меня нет проблем. Современным стратежкам на максималках для РТХ и Длсс4 нужна карта ртх40хх. Не позорься шкет.
Аноним 20/03/25 Чтв 17:54:49 #273 №1105468 
как щитаете, 24/27b q6 против 32/36b q4, что лучше?
для рп
Аноним 20/03/25 Чтв 18:10:57 #274 №1105484 
>>1105059
>русика геммочки писечки
https://pixeldrain.com/u/wBRh41QG ST-formatting-gemma-3-rus.json
Аноним 20/03/25 Чтв 18:19:01 #275 №1105494 
>>1105298
Ну а что? Нейронки одно из немногих вещей, что приносит мне удовольствие. Та почему бы не потратиться.
>>1105311
> П40
А будет ли она нормально работать вместе с 4070?
Аноним 20/03/25 Чтв 18:27:17 #276 №1105502 
>>1105298
>Зачем вы берете себе то, что не можете позволить с одной зарплаты?
Жирно, но зная туташний тред, кто-то на такую шизу точно купится.

>Живтие по средствам... кум не стоит того, чтоы на него копить
А на что нужно тогда копить, дурачок? Кто-то кайфует от игрулек и сливает все деньги на железо. Кто-то одибилился от анимушек и сливает все деньги на фигурки и прочую тематическую хуету. Если что-то приносит тебе удовольствие, то почему-бы это не купить, даже если придется откладывать какое-то время? Или есть вещи, на которые тратить можно, потому что так принято, а есть вещи другие, которые ну низя потому що взрослые дяди так не поступают?
Аноним 20/03/25 Чтв 18:30:57 #277 №1105505 
>>1105253
>Очень удачный размер, похоже хуанг решил сделать подгон 32-гиговым. 24+12 тоже конкретно обрадуются
Бля вы не понимаете что это и для просто 24 ОХУЕННО?
Намного лучше гемы и мистраля
Аноним 20/03/25 Чтв 18:33:32 #278 №1105509 
>>1105505
Как ты это в 24 гига запихаешь с норм контекстом? IQ3S?
Аноним 20/03/25 Чтв 18:34:30 #279 №1105512 
>>1102707 →
Смело ты, я стесняюсь так. Ну у меня и карточки более специфические. Спасибо анон.
Аноним 20/03/25 Чтв 18:37:28 #280 №1105513 
>>1105308
Но 8гб же вообще ни на что не хватит.
Аноним 20/03/25 Чтв 18:39:19 #281 №1105516 
>>1105484
Все равно куча ошибок.
Я сейчас сгорю и скачаю немомикс анлишд на котором у меня по памяти почти ошибок не было
Аноним 20/03/25 Чтв 18:39:59 #282 №1105517 
>>1105298
Я вот взял 3080/12 вместо 3090 и очень, очень жалею теперь. Лучше бы разорился немного, и сейчас бы мог гонять 27b на скорости побольше, чем 2т/с
Аноним 20/03/25 Чтв 18:40:12 #283 №1105518 
image.png
>>1105502
>Жирно, но зная туташний тред, кто-то на такую шизу точно купится.
Аноним 20/03/25 Чтв 18:42:22 #284 №1105520 
>>1105517
>3080
>27b на скорости побольше, чем 2т/с
Реально? На голом процессоре генерация 2.3 в начале, у тебя там пол модели выгружено где то, должно быть быстрее
Поиграйся с настройками
Аноним 20/03/25 Чтв 18:44:54 #285 №1105521 
>>1105502
>А на что нужно тогда копить, дурачок?
на квартиру себе копи!
Не надоело спать с матерью в одной комнате?
Если есть квартира - то на дом. Потому что чем больше расстояния и стен отделяет тебя от пидорах, тем лучше.
Аноним 20/03/25 Чтв 18:45:34 #286 №1105522 
>>1105518
Никому не интересна твоя зп, шиз.
>>1105521
>Не надоело спать с матерью в одной комнате?
Всё ещё лучше чем РАБотать
Аноним 20/03/25 Чтв 18:46:45 #287 №1105523 
>>1105521
>на квартиру себе копи!
Что бы намертво быть привязанным к этой стране? Я бы рекомендовал копить на чемодан пока совсем выезд не запретили
Аноним 20/03/25 Чтв 18:53:53 #288 №1105532 
>>1105523
Некуда бежать с подводной лодки. Сейчас везде неспокойно, потому что старые мудаки решили открыть ящик Пандоры и забыть про наследие Второй Мировой. 21-й век начинался на такой светлой ноте по всему миру, потому что люди ошибочно полагали, что теперь-то уж точно никто в Наполеона играть не станет, и что будущее за просвещением и прогрессом. У меня множество знакомых во всех странах, в том числе уехавших после 22 года. Никому особо не полегчало, может быть чуть легче чувствуют себя физически, в смысле прямой угрозы для жизни.
Аноним 20/03/25 Чтв 18:57:51 #289 №1105537 
>>1105532
>Сейчас везде неспокойно
Конечно легко не будет, но неспокойно только в основных странах с активными долбаебами во власти.
В какой нибудь польше, аргентине или другой обычной стране нейм даже с учетом местных особенностей спокойнее чем тут или в сша
Аноним 20/03/25 Чтв 18:59:00 #290 №1105540 
>>1105502
Двачую, на фоне ассортимента увлечений тут даже не доебаться. Можно разве что пожурить тех, кто остановился только на одних ллм из всего ассортимента.
>>1105505
> ОХУЕННО
Плохо сочетается с
> жора с выгрузкой на процессор
>>1105518
Нищебродоват для выебонов
Аноним 20/03/25 Чтв 19:02:23 #291 №1105545 
>>1105540
Вы один хуй гему в 4 кванте жрете что мешает жрать 3 квант 49б?
Аноним 20/03/25 Чтв 19:06:43 #292 №1105549 
>>1105540
>Нищебродоват для выебонов
О, да? может покажешь свой аванс?
Тащемта никаких выебонов, просто чел сказал "жирно" и я решил пруфануть своё мнение.
Относись к этому проще.
Аноним 20/03/25 Чтв 19:09:49 #293 №1105555 
>>1105516
>Все равно куча ошибок.
Если так раздражает одно неверное окончание на пару абзацев или подобная мелочь, то отключи динамическую температуру, а статическую скрути в 0.5, и попробуй так.
Аноним 20/03/25 Чтв 19:11:22 #294 №1105557 
>>1105518
Ты доказываешь на двачах что у тебя водятся деньги? Бля, как наверное жалко быть тобой.

В любом случае, упоминание жира было в контексте того, что любимое занятие шизиков - это считать чужие деньги и советовать всем подряд, как ими распоряжаться. Ты тут просто сознаешься в собственных комплексах, не более.

>>1105521
>Не надоело спать с матерью в одной комнате?
Вот и проекции пошли.

>Потому что чем больше расстояния и стен отделяет тебя от пидорах, тем лучше.
Глядя на тебя, я очень надеюсь, что у тебя есть отдельная конура где-нибудь в области и мы с тобой никогда не пересечемся.
Аноним 20/03/25 Чтв 19:14:26 #295 №1105560 
>>1105557
>я очень надеюсь
надейся в одну руку, сри в другую, как говорится.
Аноним 20/03/25 Чтв 19:17:24 #296 №1105566 
>>1105545
4й квант под семплингом ты от фп16 не отличишь, там же эффективная битность будет в 1.5-2 раза ниже и выйдет лоботомия.
>>1105549
Зачем, там нечем хвастаться тем не менее будет кратно больше, а если сравнивать удачные месяцы то на порядок
> просто чел сказал "жирно" и я решил пруфануть своё мнение
Жирно было про рассуждение не покупать ничего что дороже зарплаты, ты даже этого не понял.
Аноним 20/03/25 Чтв 19:20:34 #297 №1105570 
>>1105566
>будет кратно больше
верим
>ты даже этого не понял
да ты выразить мысль не можешь, а я тебя должен переспрашивать? Если алкаш на улице просит мелочь и не может связать буквы в слова из-за того что у него язык заплетается - то это его проблемы, а не мои.
Аноним 20/03/25 Чтв 19:23:13 #298 №1105574 
>>1105555
Нет, всё куда хуже, это уровень шизомикса с сайгой.
На чём запускаешь?
Аноним 20/03/25 Чтв 19:25:29 #299 №1105577 
>>1105545

Он не весит как 4 квант геммы, чел. Да, его можно загрузить всю видеопамять и он поместится, но куда контекст девать?
Аноним 20/03/25 Чтв 19:27:09 #300 №1105581 
>>1105070
>Продолжайте срач о кумботах, спинофф закончился
Хорошо! Лоли говно.
>>1105077
Да ты ахуел. Я по полгода из дома блядь не выхожу, дальше толчка жопу не тащу.
17418
Аноним 20/03/25 Чтв 19:27:23 #301 №1105582 
>>1105078
Сколько слоев там?
Аноним 20/03/25 Чтв 19:32:01 #302 №1105590 
>>1105078

Так это же ужатая и лоботомированная лама 3.3 70В, а она и без лоботимии сосет у третьей Геммы.
Аноним 20/03/25 Чтв 19:33:47 #303 №1105592 
>>1105570
> верим
Как забавно, сначала пришел выпендриваться своей "квартальной премией", на которую даже новую видеокарту не купить, и тут же включил режим врети. Ну ладно, держи скромную белую часть https://litter.catbox.moe/txizo4.png
> да ты выразить мысль не можешь
У тебя корма полыхнула, вот и сам не можешь, притаскивая неуместные аналогии. То не мой пост, но посыл из него понятен а твоя реакция выглядит кринжово.
Аноним 20/03/25 Чтв 19:41:43 #304 №1105603 
>>1105520
Так-то да, 12 гигабайтный кусок модели честно сидит в гпу, занимая всю доступную видеопамять, остальное в рам. Но при этом скорость на гемме 2, максимум 2.1.
Я-то все время думал, что это норма и терпел, но если у тебя на цпу и рам выхолит 2.3.... сейчас я малость в ахуе, конечно.
Спасибо тебе за совет, покопаюсь, может что-то получится поправить.
Аноним 20/03/25 Чтв 19:45:54 #305 №1105611 
>>1105592
>У тебя корма полыхнула
да вообще похуй на тебя, чел...
пруфанул - хороший мальчик. Вопросов к тебе больше нет.
Всё еще утверждаю что покупать себе для кума вещь, на которую надо копить - идея говна.
Аноним 20/03/25 Чтв 19:50:19 #306 №1105623 
>>1105611
> Всё еще утверждаю что покупать себе для кума вещь, на которую надо копить - идея говна.
То же самое можно сказать про все, что угодно. Покупать себе вещь N, на которую надо копить - идея говна.
Зависит от того, насколько тебе это полезно. Если это одна из немногих радостей у чела, то почему бы и нет? Не все к этому относятся так, как ты.
Аноним 20/03/25 Чтв 19:50:21 #307 №1105624 
>>1105603
Это я проверял google_gemma-3-27b-it-Q4_K_L, 8к не сжатого контекста на 7 ядрах.
Если у тебя там ддр5 хотя бы 50 гб на чтение то должно быть так же даже на 4-6 ядрах, то есть на процессоре.
С выгрузкой слоев смотри что бы на гпу было меньше 12 гб в строках оперативная память графического процессора и выделенная память графического процессора, это если по диспетчеру задач смотреть.
Выключи флеш аттеншен, так же кванты iq медленные на процессоре или с выгрузкой, они только для фулл гпу.
Аноним 20/03/25 Чтв 19:50:50 #308 №1105628 
>>1105574
gemma-3-27b-it-abliterated-Q4_K_L в llamacpp
что-то у тебя не так
попробуй ещё --chat-template gemma дописать в параметры
Аноним 20/03/25 Чтв 19:55:32 #309 №1105642 
Объясните контекст геммы могут пофиксить или уже всё какой выпустили такой модель и будет до 4 геммы?
Аноним 20/03/25 Чтв 19:56:39 #310 №1105645 
>>1105642
Объясни контекст что фиксить то нужно или куда потому что 3 гемма работает уже
Аноним 20/03/25 Чтв 19:57:33 #311 №1105648 
>>1105645
Она жрет в 2 раза больше контекста
Аноним 20/03/25 Чтв 20:05:08 #312 №1105654 
>>1105648
квантуй, будет жрать меньше, очень намного меньше, а разницы в качестве чот не заметно
Аноним 20/03/25 Чтв 20:10:51 #313 №1105660 
изображение.png
>>1105502
>А на что нужно тогда копить, дурачок?
На пассивный доход, чтобы лет через 10 выйти на пенсию и больше вообще не работать.
>>1105517
Обменяй с доплатой, я за 30к менял, продаван сам ко мне кабанчиком метнулся, дал проверить свою и посмотрел на мою. Работает без сбоев, честно из под майнера.
>>1105537
>В какой нибудь польше
Напомнить, как начиналась что первая, что вторая? Хуже только в бельгии, лол.
>>1105582
81. Кстати, там явно что-то намудрили, кобольд автоматом делит через жопу какую-то. Слои разной ширины что ли?
>>1105592
>налог
Хороший гой, плати ещё.
Аноним 20/03/25 Чтв 20:13:33 #314 №1105664 
А что huggingface заблочили? Через проксю открывается, а напрямую нет. Его то за что?
Аноним 20/03/25 Чтв 20:19:40 #315 №1105672 
>>1105664
У меня открывается, хотя сижу на Ростелекоме. Может тебя HF сам заблочил? Если моделей много качал, лимит превысил, хз
Аноним 20/03/25 Чтв 20:22:26 #316 №1105676 
>>1105664
Сегодня инет упал и куча сервисов, изза пидорасов в роскомцензуре
У мне тоже не открывает, я уж подумал что меня лично оператор заблочил за скачивания сотен гигов, кек
Аноним 20/03/25 Чтв 20:26:51 #317 №1105680 
>>1105611
Слишком много энтузиазма для похуй.
> Всё еще утверждаю что покупать себе для кума вещь, на которую надо копить - идея говна.
Что в этом плохого? Не хуже кредитопомойки или метров в скотоблоке, которые так вожделеют нормисы. Эти деньги не способны что-то изменить, зато оборудование в перспективе даст подобную возможность и добавит комфорта.
>>1105660
> не гой декадами копит фантики и пиксели на влачение
Тред успешных людей
Аноним 20/03/25 Чтв 20:34:33 #318 №1105696 
>>1105680
>зато оборудование в перспективе даст подобную возможность
>Изменение жизни кумом на извращения
Лол.
Аноним 20/03/25 Чтв 20:43:32 #319 №1105720 
>>1105680
>Слишком много энтузиазма для похуй.
ты переоцениваешь свою значимость
>Что в этом плохого?
Это неоправданные траты. Зачем ты притворяешься, что не понимаешь этого? Это троллинг тупостью?
Ну давай разберем, если ты только растянутый ризонинг от нейронок теперь понимаешь.
чел говорит
>сейчас есть деньги на 3060, но на 3090 они будут только к июню
рассчитываем, что чел берет цены б/у шных комплектующих
бушная 3060 стоит 26к. Там странный разброс на авито до 45к, поэтому установим цену в 30к.
бушная 3090 стоит 65к
Таким образом разница между ними - 35к.
Эти 35к чел сможет накопить за 2 месяца. Заметь, я тут тоже даю большую фору и сильно сглаживаю значения в пользу более высокого инкама за месяц.
Итого у чела копится 18к/мес. Это свободные деньги, которые он может откладывать.
И ты хочешь сказать, что человек, у которого всего 18к в месяц отложений - должен купить себе карту для кума вместо того, чтобы потратить их на более полезные вещи или вообще положить на какой-нибудь вклад?

Чел, ты корчишь из себя идиота или на самом деле такой?
Аноним 20/03/25 Чтв 20:46:05 #320 №1105726 
>>1105267
Не советую анону знакомится с клиническими испытаниями на практике, а то есть риск разочароваться в бренде док.меда))))

Кста, а кто нибудь (не здесь конкретно, а вообще) пытался на ЛЛМках слепить какого то ассистента в узкоспециализированных областях знаний? Что использовалось для этого дела? Знаю только про RAG системы, но вдруг есть какие то более интересные варианты.
Аноним 20/03/25 Чтв 20:50:02 #321 №1105732 
>>1105720
>потратить их на более полезные вещи или вообще положить на какой-нибудь вклад
А тебе-то какое дело, умник. Хочу и могу. Этого достаточно.
Аноним 20/03/25 Чтв 20:53:46 #322 №1105737 
>>1105720
>18к
>на какой-нибудь вклад
Чтобы получать кончу в глаза? Не стоит таких унижений. Вклады от 100-200к имеют хоть какой-то смысл.
Аноним 20/03/25 Чтв 21:03:37 #323 №1105746 
Аноны, а почему гугл не выпустит большую ЛЛМ, хотя-бы на 600B, он же всех уделает со своими возможностями.
Аноним 20/03/25 Чтв 21:11:02 #324 №1105760 
>>1105696
Сразу извращения? Так он получит больше общения, что потенциально может помочь ему решить или обыграть какие-то проблемы с социализацией. Будет иметь инструмент для анализа или помощи в чем-то, который заставляет тебя постоянно себя пердолить, улучшать экспириенс, и держит в тонусе. Вольно-невольно погрузится в техническую область, что в целом хорошо повлияет на бошку или вовсе увлечется и найдет себя в чем-то таком. Или что-то почерпнет в основной дейстельности. Целую новую область для себя открывает, риск скумиться и окуклиться ниже чем побираясь на корпов.
>>1105720
> ты переоцениваешь свою значимость
Разным людям отвечаешь, лол
> Это свободные деньги, которые он может откладывать.
На что? Это пыль, которая ничего не сроляет и потеряется быстрее чем принесет заметный профит.
В таком случае, если хочешь больше денег, нужно менять свою жизнь и делать единственно адекватную инвестицию - в себя. Едва ли в текущей ситуации чел сможет решится на образование, какие-нибудь курсы, авантюру, или другие изменения, но тут хотябы откроет для себя что-то новое, что уже очень полезно для сознания. А то и глядишь получит новую потребность и раскачает себя на что-то большее. Или может просто найдет гармонию, ведь счастье многогранно.
> или вообще положить на какой-нибудь вклад
Это же вообще рофл, инфляция их съест быстрее. И ты смеешь кого-то называть идиотами?
Знаком с "инвесторами", которые с пиздючества одержимы идеями собрать себе портфель и жить припеваючи пока все остальные раб_отают, прямо как в роликах инфоциган. На общие активности отмораживаются или максимально кроят на всем, то же снаряжение и экипировка будут самый низ и бу. В общении - хвастовство как удачно влошился сменяются нытьем о провалах или усложнениях, заявления "ну вот через 10 лет поглядим" на месте но все время сдвигается и недостижимы.
При том что все начинали с нихуя, за десяток лет у тех знакомых, кто чем-то постоянно занимался, доход за какой-то интервал времени стал превышать общие теоретические накопления типичного инвестора за все годы. И сами что-то из себя представляют, а эти так и остались бедолагами-мечтателями, перебивающимися на халтурах и днищеработах для низших каст.
Аноним 20/03/25 Чтв 21:11:07 #325 №1105761 
>>1105746
>Gemini
>я какая-то шутка для тебя?
Аноним 20/03/25 Чтв 21:21:55 #326 №1105770 
Вы тут с ума посходили совсем со своим нерелейтед, перед шизом оправдываться о своих тратах, вместо того чтобы гнать его ссаными трямками в /biz, где ему еще добавят за его тупые заходы.
И 3090, и 4090, и уже 5090 покупают и будут покупать только чтобы играть в сд, ллм. Потому что могут. А завидовать надо молча.
Аноним 20/03/25 Чтв 21:30:53 #327 №1105775 
gemma-3-27b-it-abliterated по мозгам как? Тупее обычной? Я вот думаю какую оставлять на общее использование
Аноним 20/03/25 Чтв 21:37:45 #328 №1105780 
>>1105726
Тьюнить надо. Наверняка какие-нибудь компании пытаются, типа вот такого, например. https://huggingface.co/aaditya/Llama3-OpenBioLLM-70B
RAG тут не шибко поможет, кажется. Если у дженерал модели знаний в узкой области не особо, то ничего путного она эмбеддингами из доков не подтянет.
Аноним 20/03/25 Чтв 21:48:44 #329 №1105789 
>>1105746
600 нахуй не нужны, а вот 70-100 было бы отлично. Но с учётом того, что в корп секторе их не ебут разве что французы, вряд ли они выпустят мега топ.
>>1105760
>Сразу извращения?
Просить бота сказать слово "попа" в 3 часа ночи это база.
>риск скумиться и окуклиться ниже чем побираясь на корпов.
Одинаков. Я уже третий год в теме, в локалках с первого десятка тредов, и нихуя мне эти знания компеляции петона не пригодились.
>какие-нибудь курсы
Наёбка лохов. Не знаю ни одного, кто после курсов начал что-то зарабатывать, хоть ноготочек, хоть вайтишников. Все проебли деньги вникуда.
>На общие активности
Что ты тут забыл, социоблядь? А по инвесторам, само собой свой наебизнес будет выгоднее. Но в него вджобывать надо. А так у меня тоже знакомый есть, заболел сильно и проебал всё, от фабрики до жены с детьми, сейчас у меня побирается.
>>1105770
>только чтобы играть в сд, ллм.
И тут игроки и майнеры сурово охуевают.
Аноним 20/03/25 Чтв 21:53:06 #330 №1105791 
изображение.png
>>1105078
Ебать там слоп.
Аноним 20/03/25 Чтв 21:54:58 #331 №1105796 
>>1105791
Экспет по яндекс-переводу все понял сразу
Аноним 20/03/25 Чтв 22:06:43 #332 №1105813 
Вы вообще ваш FAQ обновляете?
Зашёл посмотреть список лучших моделей, а там старьё одно.
Аноним 20/03/25 Чтв 22:32:41 #333 №1105834 
Какие нужны немотрону семплер и промпты?
Аноним 20/03/25 Чтв 22:33:58 #334 №1105836 
>>1105770
Прав, все так. Хуанг им 50б с оптимизациями, о которой долго мечтали выкатил, а они тут сидят пердят про херню.
>>1105789
> Просить бота сказать слово "попа" в 3 часа ночи это база.
Кум сессии - база. Но одно другому не мешает же.
> и нихуя мне эти знания компеляции петона не пригодились
Просто не замечаешь, напрямую может и нет, но в целом на мышление влияет и мозг в тонусе держит.
> Наёбка лохов.
Речь про ирл а не скамбоксы. Хоть вкатись на языковую школу и на пару лет бомжевать в другой стране, такой-то жизненный опыт будет и возможность закрепиться на новом месте. В ит из успешных опытов позднего вката есть только один пример, но там образование и превозмогание.
> Что ты тут забыл, социоблядь?
Сам такой. И речь шла не (только) про наебизнес, становись наносеком, инженером, каким-нибудь потным задротом в узкой области и устраивайся удобнее.
Аноним 20/03/25 Чтв 22:41:44 #335 №1105843 
>>1105813
Добавь новые.
>>1105836
>с оптимизациями, о которой долго мечтали выкатил
Что за оптимизации?
>Речь про ирл а не скамбоксы.
У меня тоже.
>В ит из успешных опытов позднего вката есть только один пример
Я в 27 вкатился, прервал карьеру уборщика. На полных похуях с некоторым опытом фриланса.
>Сам такой.
Нет ты. У меня в отличии от тебя все друзья только здесь и то на хуй посылают.
Аноним 20/03/25 Чтв 23:12:11 #336 №1105857 
>>1105521
Нет ничего более тупого чем копить на квартиру, особенно если она есть у родителей. Квартира, которая подходит тебе по уровню, стоит как 10 твоих годовых зарплат (за редким исключением топ менеджеров, бизнесменов и инфоциган с совсем неприличными зарплатами). Если экономить можно накопить за 15 лет. 15 лет отказывать себе во всем ради хаты? Ахуенна идея как по мне, явно того стоит. Будешь в 40 лет охуевший от жизни такой сидеть в своей хате, а в 45 помрёшь от алкоголизма или стресса.
>>1105523
А нет я ошибался, вот ещё более тупая идея. Копить НА ПЕРЕЕЗД. Пиздец. Что у людей в голове. Чел если тебе нужно копить на переезд, то в другой стране ты сможешь жить только как нищий скот. Хуже гастарбайтера, тот хоть только на заработки приезжает, а ты там надолго. Нет если тебе 18 лет и ты чмоха без навыков денег и образования, то почему бы и нет, не все ли равно где стартовать. Но в зрелом возрасте ехать хуй пойми куда чтобы быть нищим скамом как по мне полный критинизм.
Аноним 20/03/25 Чтв 23:23:43 #337 №1105862 
изображение.png
изображение.png
изображение.png
У nvidia_Llama-3_3-Nemotron какая-то болезненная завязанность на высирание инструкций для ролеплея. Половина чатов выдаёт всякие инструкции на каждый ролл, притом что другие модели так не делают без дополнительных подсказок.
Соя кстати есть, но не слишком сильная.
Аноним 20/03/25 Чтв 23:29:57 #338 №1105864 
Я вот зоонаблюдаю тут иногда и, честно говоря, слабо понимаю, что может сподвигнуть тратить деньги на шумный и дорогой риг, если тебе чисто покумить, а не сам процесс пердолинга с локальным запуском интересен. Это все равно компромис сейчас по качеству и скорости
Аноним 20/03/25 Чтв 23:29:59 #339 №1105865 
изображение.png
изображение.png
А в nvidia действительно что-то нахимичили с лламой. С 42 по 70 идут какие-то другие блоки, без внимания (видимо те самые Neural Architecture Search (NAS)). В итоге слоёв больше, а параметров меньше.
Аноним 20/03/25 Чтв 23:35:48 #340 №1105868 
>>1105518
Бля, вы можете понять что человек говорит со своей точки зрения. Он не может понять людей которые работают за 30к, так же как и вы не можете понять как люди умудряются получать по 200к. Вы тут выёбываетесь какие вы дохуя умные, но не можете принять какие то примитивнейшие вещи.
Аноним 20/03/25 Чтв 23:44:08 #341 №1105875 
А можно мы нейронные сети будем обсуждать блядь.
Аноним 21/03/25 Птн 00:00:24 #342 №1105885 
>>1105865
Без внимания, эт плохо
Значит реальных слоев тут 42, тех что влияют на мозги
Остальное хз зачем, какие то запеченные особым образом данные?
Аноним 21/03/25 Птн 00:07:30 #343 №1105892 
>>1105133
Содомит

>>1105864
Шумный? Наркоман штоле. Хотя если ты про риг из тесел, то тогда да
Аноним 21/03/25 Птн 00:07:48 #344 №1105893 
изображение.png
>>1105885
>Значит реальных слоев тут 42, тех что влияют на мозги
Ещё в конце 9.
>Остальное хз зачем, какие то запеченные особым образом данные?
Дистляты оригинала, судя по ридми.
Аноним 21/03/25 Птн 00:16:12 #345 №1105906 
>>1105857
>Квартира, которая подходит тебе по уровню, стоит как 10 твоих годовых зарплат
блять, не напоминай...
Шрамы на анусе от роста недвижки из-за сраной льготной ипотеки еще не до конца зажили.
Аноним 21/03/25 Птн 00:20:09 #346 №1105915 
>>1105892
> Шумный? Наркоман штоле. Хотя если ты про риг из тесел, то тогда да
Даже одна мощная карта выдает неприятный уровень шума под нагрузкой, а ты несколько стакаешь рядом, естественно в одной комнате с этим уже неприятно находиться.
Аноним 21/03/25 Птн 00:22:25 #347 №1105919 
image.png
Я сначала не заметил, но оказалось, что у одной из моих 3090 аж ТРИ восьмипиновых разъема для питания.
Охуеть. Зачем ему столько, ну зачем...
При этом по мощности обе карты показывают кап в 370 ватт в nvidia-smi.
Аноним 21/03/25 Птн 00:26:59 #348 №1105923 
>>1105298
>кум не стоит того, чтоы на него копить
Чел, мы не виноваты, что у тебя слабое либидо или слабое воображение. После того, как в прошлом году я открыл для себя нейрокум, то первые пару-тройку недель, выражаясь словами местного анона из древнего треда, "я просидел с хуем в руках". Т.е. литералли, ежедневные сессии, непрерывно по 4-6 часов. Да даже и сейчас, если я забрейнштормлю интересный сценарий (к сожалению, с этим теперь большие проблемы, все очевидно интересное уже перекумлено десятки раз), то 3+ часов прокумить вообще не вопрос. Это определенно стоит того, чтобы на это копить, если ты получаешь от этого настолько мощное удовольствие.
Я знаю, что тут много таких, просто стесняшки. Когда создавали треды в /b/ на эту тематику, то там много отписывалось про свой экспириенс, многим нейрокум снес башню. Оттуда, кстати, я и узнал про этот раздел, так что реклама сработала.
Аноним 21/03/25 Птн 00:34:13 #349 №1105932 
Выпал из жизни на неделю блядь. Теперь жизнью воспринимаю ЛЛМ а все остальное помехи. Кек.
Как там появились миксы и файнтюны новой геммы? Оригинал страшно тугой но соблазнительно умный. После нее не хочется возвращаться к старым тупым моделям.
Аноним 21/03/25 Птн 00:37:04 #350 №1105941 
>>1105932
>Оригинал страшно тугой но соблазнительно умный
так он потому и умный, что тугой. Из датасета выкидывают лишний мусор (все что связано с кумом в том числе), поэтому общая доля на остальные вещи увеличивается.
Скоро сетки обрежут так, что они даже слова секс знать не будут. Тогда вообще нихуя не сделаешь. Но умные будут, ууу - пиздец какие. Правда не подрочишь.
Аноним 21/03/25 Птн 00:41:16 #351 №1105952 
>>1105941
Сетка наоборот тем умнее, чем разнообразнее датасет так-то
Аноним 21/03/25 Птн 00:42:17 #352 №1105956 
>>1105923
Как треды в б назывались?
Аноним 21/03/25 Птн 00:45:06 #353 №1105961 
>>1105919
Ебать ты. Мало того, что третий разъем не запитал, так и еще остальные два с одной косы. А потом жалуются, что разъемы плавятся, лол.
А вообще надо внимательнее было выбирать на авито, для рига я специально выбирал с двумя, ибо с 3-мя тупо кабелей не напасешься. У меня кап на мои 3090 350 Вт, расчетные 150+150+50 от слота. Возможно, версии с тремя разъемами чуть производительнее на пике мощности, раз кап у них 370 Вт, но они, видимо, побоялись 70 Вт брать от слота, т.к. это почти на пределе возможностей (с двум разъемами-то на предельной нагрузке от слота 66 Вт берется, это уже серьезная цифра, SATA погорит к хуям (передаю привет анону, что запитал райзер для 4090 через сату) )

>>1105915
Я полтора месяца кумил с ригом из четырех тесел в паре метров от меня, что ты мне будешь рассказывать о шуме? В любом случае, андервольть или ограничивай карты по мощности, в моем текущем сетапе амперы абсолютно бесшумные при работе, кроме шуршания кулеров. Хотя если тебе ультимативно нужны 15+ т/с, то привыкнешь к coil whine и откинувшимся преждевременно б/у картам, перфекционизм требует жертв.
Аноним 21/03/25 Птн 00:48:23 #354 №1105968 
>>1105961
>Мало того, что третий разъем не запитал, так и еще остальные два с одной косы.
это фото с реддита. Я запитал с двух "кос".
Аноним 21/03/25 Птн 00:48:49 #355 №1105969 
>>1105133
А ведь не все поймут тонкую отсылку...
>>1105919
>Охуеть. Зачем ему столько, ну зачем...
>кап в 370 ватт
Три разъёма по стандарту должны давать 350, лол.
>>1105923
>с этим теперь большие проблемы, все очевидно интересное уже перекумлено десятки раз
Именно. Всё уже продрочено.
>>1105941
>Из датасета выкидывают лишний мусор (все что связано с кумом в том числе)
Я бы не сказал что всё так плохо. Вот в картиночной части да, хуя и пизды сетка судя по всему почти не видела, на картинках не распознаёт, часто люди у неё полуодеты (хотя я кидал чистый нюд). А с текстом всё ок.
Аноним 21/03/25 Птн 00:50:42 #356 №1105972 
>>1105961
>передаю привет анону, что запитал райзер для 4090 через сату
3090 тащемта, и более чем 40 ватт она оттуда не брала.
Аноним 21/03/25 Птн 00:57:11 #357 №1105982 
>>1105972
Пока что везет с нагрузкой. Под фурмарком мои 3090 показывают 60+. Запилят какую-нибудь оптимизацию в эксламе или попробуешь другой режим (ровсплит, например), или начнешь картинки генерить, карта выйдет на полную мощность и полыхнет. Даже 3060 у меня 48 что ли показывала, тоже уже почти в упор.
Аноним 21/03/25 Птн 01:00:22 #358 №1105983 
>>1105972
Хотя я не помню твою конфигурацию, если у тебя три разъема для питания, то да, может там и под максимальной нагрузкой не больше 40 Вт, остальное из БП тянется.
Аноним 21/03/25 Птн 01:03:01 #359 №1105985 
Господа обладатели 3090, какая скорость генерации у геммы3-27b? Плюс-минус.
Аноним 21/03/25 Птн 01:09:25 #360 №1105991 
>>1105985
Плюс минус такая что тебе похуй т.е 20+ ведь она влезает в врам
Аноним 21/03/25 Птн 01:10:25 #361 №1105992 
Кстати появилась идея попробовать купить два б/у-шных connectX-4 на 40 гигабит, еще одну майнерскую мать на 5 pcie и ещё 4 штуки 3090.
Таким образом получится заиметь распределенный сетап, поднять инфинибанд. С общим объемом памяти 192 гигабайта.
Хватит на дипсик р1.

Но конечно сначала стоит потренироваться на кошках, а то эти адаптеры стоят не то чтобы копейки. Ну и карты тоже само собой.
Аноним 21/03/25 Птн 01:35:29 #362 №1106001 
>>1105992
жора кстати поддерживает запуск инференса на распределенном сетапе
https://www.reddit.com/r/LocalLLaMA/comments/1cyzi9e/llamacpp_now_supports_distributed_inference/
красавчик, чё. Однозначно тема интересная.
Правда вам лучше не гуглить сколько стоит инфинибанд свитч... это если захочется больше чем две машины соединить.
Аноним 21/03/25 Птн 02:13:22 #363 №1106024 
>>1105992
>Хватит на дипсик р1.
В очень маленьком кванте. И тюнов на него нет и скорее всего не будет, а значит проще (и сильно дешевле) будет доступ к его API купить, если паблика мало.

Посмотрим, что будет через годик. А может и ничего не быть, если АИ-пузырь схлопнется. То есть оно конечно будет, но лет через 5 тогда. Или 10.
Аноним 21/03/25 Птн 02:17:28 #364 №1106028 
Сегодня наткнулся на реддите на пост о том как чувак собрал комп с 64 гб видеопамяти всего за 700 баксов.

https://www.reddit.com/r/LocalLLaMA/comments/1jfnw9x/sharing_my_build_budget_64_gb_vram_gpu_server/

Мысли?
Аноним 21/03/25 Птн 02:22:54 #365 №1106030 
>>1106028
Ты тоже можешь такой пост написать.
Аноним 21/03/25 Птн 02:24:15 #366 №1106033 
Покупаем 10 gtx 1060 по 2.5к на авито
Получаем 60гб врам за 25к
Аноним 21/03/25 Птн 02:28:35 #367 №1106035 
image.png
>>1106024
да, я уже понял, что в первом кванте только получится запуск. Говно конечно.
Тем не менее, такой сетап мог бы помочь, если выйдет промежуточная модель. Например на 300b, а не 600b, как у дипсика. Вот тогда было бы охуенно.
Ну и конечно магнум в восьмом кванте - весит 130 гб. Как раз остаточек в 70 гб на контекст.
Короче всё равно звучит любопытно.

>>1106028
>64 гб видеопамяти
чел... это на самом деле не так уж и много.
под контекст считай уйдет треть. Останется 40 гб на модель.
А еще на пик глянь и всё станет понятно.
Не удивительно, что сборка стоила дешевле 700 баксов. Там навреное больше половины от суммы этот хуанан с процами и памятью или что там у него стоит.
Аноним 21/03/25 Птн 02:29:22 #368 №1106037 
>>1106028
Думал там mi50 хотя бы, а не какое-то всратое двухчиповое говно.
Аноним 21/03/25 Птн 03:37:26 #369 №1106054 
>>1105985
Под 30 или даже чуть более
>>1106028
Это не только карточка из 2018 года, это еще и амд, что друг на друга множится. Их не просто так по 50$ продают и там скорость обработки промта в 1.5 раза ниже чем скорость генерации на современных карточках.
Аноним 21/03/25 Птн 04:41:36 #370 №1106066 
>>1105775
>по мозгам как
как бы не умнее, особенно в ерп, хотя другие жаловались что шизит, хз
Аноним 21/03/25 Птн 05:14:35 #371 №1106072 
img.jpg
>>1105915
Смотря какая карта, даже P40 под нагрузкой в кобольде не так сильно урчала, юзал раньше.
В exllama, когда контекст прогружается карты немного пыхтят, не сказал бы что мешает шум, тише холодильника раза в два, на кобольде вообще тишина.
Аноним 21/03/25 Птн 05:54:39 #372 №1106075 
>>1106066

Никто не жаловался, абла охуенна
Аноним 21/03/25 Птн 06:41:20 #373 №1106084 
1689257797905051.jpg
Надесь в будущем модели будут мультифункциональными: будут в текст вставлять изображения, основанные на контексте, описаниях и промптах. Допустим сидишь вечером в тёмной таверне, а она генерит её обстановку, людей, атмосферу, можно будет выбрать стиль, черно-белой иллюстрацией или цветным артом. Поскорей бы.
Аноним 21/03/25 Птн 06:53:02 #374 №1106086 
>>1106084
Да это уже сейчас можно сделать, подрубив комфи к таверне
Аноним 21/03/25 Птн 07:02:31 #375 №1106089 
>>1106066
>как бы не умнее, особенно в ерп, хотя другие жаловались что шизит, хз
Я тут критиковал Гемму - был не прав. Прекрасная модель, для 27B так вообще бриллиант. Жалею только об одном - что нет Геммы на 70В и выше (ну не 300В конечно). Если бы была, то человек, не имеющий рига совершенно точно был бы дураком. А так ещё нет пока :)
Аноним 21/03/25 Птн 07:13:47 #376 №1106092 
>>1106089
>то человек, не имеющий рига
Как ты риг из ноутбуков соберёшь, лол, для некоторых десктоп не вариант. Хотя 12+4 ГБ конечно поджимают.

Задумываюсь о том как бы это покомпактнее и помобильнее собрать на 24-32.

Жаль что коробочка от хуянга оказалась эффективным менеджментом.
Аноним 21/03/25 Птн 07:15:02 #377 №1106094 
>>1106092
>Жаль что коробочка от хуянга оказалась эффективным менеджментом.
А что там? Я слышал вроде скорость памяти маленькая, но без подробностей.
Аноним 21/03/25 Птн 07:18:32 #378 №1106096 
>>1105775
>>1106089
Попробовал обе, особой разницы не увидел. В целом гемма3 хороша для своего размера (27b Q8 32K), много чего знает, погонял её в переводах с японского на русский язык - обыденные диалоги переводит отлично, лучше уровня некоторых онлайн переводчиков. С английского на русский - в целом тоже приемлемо. В рп как-то не зашло, логики чуток не хватает (По карточке персонаж скрывает, кто он на самом деле от меня, а когда я подвожу её к тому что вот, я понял кто ты - она думает, что я имею ввиду кого-то другого). Еще у обычной инстракт версии показалось, что у нее шизонутый биас - агрессивная местами.
Аноним 21/03/25 Птн 07:30:11 #379 №1106103 
>>1106096
>В рп как-то не зашло, логики чуток не хватает
А порекомендуй сетку до 32В, которая по логике лучше? Мне в принципе хватает, единственно иногда проёбывает детали. Но с этим беда у всех сеток, которые знаю, вплоть до 123В.
Аноним 21/03/25 Птн 08:11:06 #380 №1106109 
>>1106096
Разница между аблитератед и оригиналом существенная в РП, даже если не склоняться к куму.

Персонажи более сухие, а уж если речь о романтике зашла, то там кранты.

Что интересно, даже в шизотюне Давида и в аблитератед-версии всякой там романтики меньше, чем кума. Видимо, в датасет оригинальный этого тупо не запихали.

Но больше всего меня удивило, что оригинал охотно устраивает настоящую резню — этого я ожидал меньше всего.
Аноним 21/03/25 Птн 08:51:00 #381 №1106121 
>>1106109
Кум у тебя на губах подсыхает, за базаром следи. Уважай тред.
Аноним 21/03/25 Птн 09:04:34 #382 №1106123 
vanse.jpg
>>1106121
Аноним 21/03/25 Птн 09:41:43 #383 №1106137 
>>1105834
Ну помогите....
Аноним 21/03/25 Птн 09:43:27 #384 №1106138 
>>1106123
С таким еблетом ты до июня не доживешь.
Аноним 21/03/25 Птн 10:02:38 #385 №1106147 
>>1106137
Эта хуйня пишет еблю без промпта.
Аноним 21/03/25 Птн 10:12:22 #386 №1106153 
>>1106086
Комфи? Это что и как?
Аноним 21/03/25 Птн 10:27:24 #387 №1106158 
>>1106137
Помог бы, да не использовал Немотрон. На HugginFace на странице модели или в обсуждениях нет примеров?
Как минимум там должен быть указан формат: ChatML / Mistal / Llama / другое. В зависимости от этого можно воспользоваться базовыми настройками кого-нибудь из авторов rentry или, например, взять отсюда: https://huggingface.co/sphiratrioth666/SillyTavern-Presets-Sphiratrioth/tree/main

Ничего сложного же, напрягись немного.
Аноним 21/03/25 Птн 10:29:35 #388 №1106161 
>>1106153
ComfyUI, движок для работы с генерацией изображений.
https://github.com/comfyanonymous/ComfyUI

Можно его запустить и подключить API к Таверне. Тогда прямо внутри таверны в чатах с персонажами можно будет генерировать картинки по одному клику. Если не настраивать параметры генерации, результат, скорее всего, не впечатлит.
Аноним 21/03/25 Птн 10:39:15 #389 №1106168 
>>1106033
Дурачок?
Покупаем 10 P104-100 по 1,5к, получаем 80 гигов за 15к. =D

>>1106028
Если найдешь такие видяхи занедорого — молодец, скинь нам.
В них все упирается, остальное дефолт.

>>1106035
Все еще напоминаю, что R1 можно запустить на 1 3090 через ktransformers, главное набрать оперативы дохуя.

>>1106089
Я бы, бля, гемму мое на 300 гигов бы погонял!.. =)
Аноним 21/03/25 Птн 10:54:42 #390 №1106177 
есть в треде кто-нибудь, кто сидит на exl2? на одной видеокарте, с моделью полностью в враме
вы замеряли разницу в производительности с llama cpp, например?
у меня скорость генерации отличается на ~5%, промпт обрабатывается на ~30% быстрее в exl2

однако у меня наступило разочарование в формате. похоже, что он слишком малопопулярен, я то и дело не вижу exl2 квантов популярных моделей, а если и вижу - часто слишком малого или слишком большого bpw. самому квантовать что ли? возможно ли это с 24гб врама? еще одна головная боль. да и поддержку геммы 3 до сих пор не завезли на main branch. там один человек работает над форматом, по сути. жму ему руку, он молодец, но он все-таки не может поспевать так, как целая команда llama cpp, не может составлять им конкуренцию. дело не в гемме, а вообще - будут выходить новые архитектуры, и ждать придется очень долго, что их поддержки, что квантов моделей в подходящем формате

сложна...
Аноним 21/03/25 Птн 11:03:53 #391 №1106179 
* на ~5% выше скорость генерации, конечно же
Аноним 21/03/25 Птн 11:04:34 #392 №1106180 
>>1106177
ггуф раньше считался кривым говном. exl2 быстрее жоры будет, да и можно как угодно квантовать модель, только долго ждать в первый раз, когда оно measurements.json конфиг генерит для модели. я не помню, какие там требования к железу, я на своем 24врам\128рам квантовал 70б модель около часа.
Аноним 21/03/25 Птн 11:08:05 #393 №1106182 
>>1106180
что такое жора? извини, я просто нуфаня. это так лламу называют?

у меня 32гб рама, 24гб врама. и, честно говоря, на данном этапе я даже не представляю процедуру квантования. там же нужно параметры подбирать по-умному, в зависимости от модели, нет? неужели это просто готовый скрипт, который из конфигов модели берет нужные значения, и нужно просто прогнать процедуру на своем железе?
Аноним 21/03/25 Птн 11:12:45 #394 №1106189 
ну и да, у меня ddr4 память, так что на хорошую скорость рассчитывать не приходится
Аноним 21/03/25 Птн 11:18:30 #395 №1106196 
>>1106182
>это так лламу называют?
жора один основных разработчиков лламацпп.

насколько я помню, при квантовании ты можешь указать любой bpw, какой хочешь получить. оно создаст конфиг из модели, если у тебя его нет (самый долгий этап), само квантование проходит быстрее. если ты хочешь гемму квантовать, думаю хватит и твоего конфига. да и всегда можно расширить память за счет накопителей.
Аноним 21/03/25 Птн 11:23:31 #396 №1106200 
>>1106147
Я хочу нормальный формат ответов от него....
Аноним 21/03/25 Птн 11:29:44 #397 №1106206 
Ну что, новая эра наступает? Куртка расщедрилась на новый картон с много VRAM

Стартовая цена RTX PRO 6000 Blackwell (96 гб) составляет $8300, что в 2.7 раза дороже RTX 5090. Для энтузиастов Nvidia анонсировала более доступные модели RTX PRO 5000 и 4000, которые появятся летом 2025 года. Поставки начнутся в апреле (рабочие станции) и мае (серверные решения). Партнеры, включая Dell и HP, уже интегрируют новинку в свои флагманские системы, такие как Precision 7865 и Z8 G5.

Можно будет собрать за лям сервак под дипкок и впиндюрить в него две карты по 96 (2 слота есть почти на всех платах под ддр 5) для других ЛЛМ. Проблема с набором vram из-за маленького количества слотов решена. Ну и нищукам подкинут версии с меньшим vram, может будет чем заменить 3090
Аноним 21/03/25 Птн 11:35:14 #398 №1106211 
Какая модель на великом и могучем сейчас самая годная? Я про тредовичковые миксы. Ну или несколько моделей.

Та, в которой присутствует название магнум, точно кал — пробовал. Самая последняя, дарк, тоже не очень.

Щупал ранее иные варианты, там были хорошие, но, блядь, я забыл, какие именно, потому что слишком много времени прошло. А так я щупал все модели.
Аноним 21/03/25 Птн 11:35:32 #399 №1106212 
>>1106161

Дополнительная видеопамять только нужна т.к. отдельная модель используется. Впринципе ,если взять старые сд 1.5 модели, то они маленькие, особенно если квантованные, пожертвовав несколькими тысячами контекста можно вполне сносные изображения прямо на лету генерировать.
Аноним 21/03/25 Птн 11:38:31 #400 №1106215 
>>1106168
>Все еще напоминаю, что R1 можно запустить на 1 3090 через ktransformers, главное набрать оперативы дохуя.
ты опять выходишь на связь, 4090-шиз?
Работу нашел себе уже?
Аноним 21/03/25 Птн 11:40:47 #401 №1106217 
>>1106206
Во-первых, с чего ты решил что эти будут в продаже, а будут раскуплены заранее на серверы. Во-вторых, с чего ты решил что они будут по msrp, а не как с 5ХХХ. В третьих с чего ты решил что они в России будут стоить столько же как и в европе. План капкан, короче. Максимум за лям можно будет купить одну карточку.
Аноним 21/03/25 Птн 11:45:04 #402 №1106220 
Все копроинсадеры обосрались с 5060, в апреле не будет. Так что с 16 гб тоже обосрались, инфа 100%. Продолжаю инсайдить для тредовичков 5060 с 24 гб к концу лета.
Аноним 21/03/25 Птн 11:46:25 #403 №1106222 
>>1106103
>А порекомендуй сетку до 32В, которая по логике лучше

Таковой нет, гемма лучшая модель до 70B на данный момент, что-то близкое это EVA-qwen2.5-32B.
Аноним 21/03/25 Птн 11:50:18 #404 №1106227 
>>1106215

Владелец 4090 не станет упоминать 3090, очевидно это два разных человека. Но забавно как тебя рвет на ровном месте, лол.
Аноним 21/03/25 Птн 11:53:59 #405 №1106229 
>>1106227
школьник, хватит употреблять слово баттхерт по поводу и без. Выглядишь глупо.
Аноним 21/03/25 Птн 11:55:51 #406 №1106232 
Опять по пьяни сцепились. И так в треде каждый день...
Аноним 21/03/25 Птн 11:57:33 #407 №1106234 
>>1106206
>$8300, что в 2.7 раза дороже RTX 5090

Как же все участники рынка греют ИИ-гоев, пиздец просто.
Одни жопят видеопамять, выставляя её за бешенные бабки, другие жопят многоканал в ЦПУ, выставляя его за бешенные деньги, одни вообще специально полностью выпилили 4-каналочку в ЦП пользовательского сегмента в пользу дорогих проф. моделей как только почуяли запах денег ИИ-лошья...
Аноним 21/03/25 Птн 11:58:56 #408 №1106236 
>>1106229
>слово баттхерт

Этого слова и его производных не было в моем посте, эта нейронка сломалась, несите новую!
Аноним 21/03/25 Птн 11:59:27 #409 №1106240 
>>1106234
Ну это всё для нище корпораций буквально обучающих свои сетки, никто и не думает что обычный потребитель возьмет карту за 8к чтобы порнушку генерить
Аноним 21/03/25 Птн 12:01:12 #410 №1106241 
>>1106234
Когда был ковид, "гоев" грели на маски и антисептики. Когда начался исход из РФии, повысилась стоимость билетов и аренды недвижимости в соседних странах. Это называется рынок. Предложение адаптируется под спрос. Ты там как, головой в Союзе остался, что таких элементарных вещей не понимаешь?
Аноним 21/03/25 Птн 12:01:29 #411 №1106242 
Бля будет вообще толк для локалок если я воткну еще одну затычку на 6гб? Есть видяха на 16гб и на полке пылится ещё одна на 6гб
Смогу ли тогда гонять 18гб модели?
Аноним 21/03/25 Птн 12:02:17 #412 №1106243 
Как же я кайфую от того что дарк рейгх с некоторой периодичностью автоматом выдаёт суммарайз в конце сообщения персонажей. Причём он нормальный, а не как тот что предлагает сделать таверна. Просто взял, скопировал и кинул в заметки автора.
Аноним 21/03/25 Птн 12:12:14 #413 №1106251 
>>1106241

Я-то как раз прекрасно все понимаю, у меня нет хуйни про швятой все решающий рыночек в голове.
В данном случае очень высокий спрос на олигопольном рынке, близком к монополии порождает искусственное завышение цен через искусственное ограничение предложения. Это ненормальная ситуация для рыночной экономики и по-хорошему должна быть разрулена антимонопольными органами.
Аноним 21/03/25 Птн 12:13:19 #414 №1106252 
>>1106242
>Бля будет вообще толк для локалок если я воткну еще одну затычку на 6гб?
Ну если тебе этих 6 гигов не хватает, чтобы вся модель во врам поместилась, то будет конечно.
Аноним 21/03/25 Птн 12:15:58 #415 №1106253 
>>1106217
Что всё ещё дешевле чем даже б/у карты на 80гб
Аноним 21/03/25 Птн 12:17:01 #416 №1106254 
>>1106206
>Стартовая цена RTX PRO 6000 Blackwell (96 гб) составляет $8300
Уже побежал продавать свой риг, чтобы купить этот чудо-Блэквелл, который хз сколько будет стоить и будет ли доступен вообще. Тут говорили о цене в РФ в миллион - очень вряд ли. Да и толку от 96гб врам? "Покупай вторую", ага. Дипсик всё равно не влезет :)
Аноним 21/03/25 Птн 12:20:09 #417 №1106259 
>>1106217
> что они в России будут стоить столько же как и в европе.
Факт. Будут дешевле. 5090 по 3к лежат по нескольку дней, когда судя по новостям которым тоже верить не стоит, в европе и китае по 5к не могут купить
Аноним 21/03/25 Птн 12:23:09 #418 №1106264 
>>1106206
> Для энтузиастов Nvidia анонсировала более доступные модели RTX PRO 4000, которые появятся летом 2025 года.
Какой именно а этой модели смысл, если она будет стоить дороже 5090?
Аноним 21/03/25 Птн 12:26:27 #419 №1106268 
>>1106254
А ты как хотел? Вот только твой риг быстро упрётся в количество разъёмов pci, и больше карт ты не подключишь, а тут в одной карте 96.
>>1106264
Если там будет, условно 48 гб за цену 5090 (300к) то смысл будет. Но скорее всего опять говна в младшие модели навалят
Аноним 21/03/25 Птн 12:28:24 #420 №1106270 
>>1106268
Пусть лучше выпустят говнокарту с 24 гб до 100к
Аноним 21/03/25 Птн 12:33:43 #421 №1106275 
>>1106268
Написано, что в 4000 про модели будет 24гб. Если он будет в районе до150к рублей, я в припрыжку побегу покупать.
> 48гб
Это в 5000 серии
Аноним 21/03/25 Птн 12:33:46 #422 №1106276 
>>1106268
>А ты как хотел? Вот только твой риг быстро упрётся в количество разъёмов pci, и больше карт ты не подключишь, а тут в одной карте 96.
Да херня это всё. Для 200В+ моделей по-любому нужен прорыв, новое устройство. Китайцы могли бы замутить, новейшей телефонной памяти у них хватает, а чип какой доступен из современных - под устройство от 128гб по доступной цене коммьюнити быстро адаптирует программы для инференса. Не кудой единой. Но пока никто не взялся - корпорациям это тупо невыгодно, а толковых энтузиастов на всё не хватает.
Аноним 21/03/25 Птн 12:33:50 #423 №1106277 
Давненько не был чуть больше года. Что там кумовое вышло, чтобы прям ебать кум-кум?
Аноним 21/03/25 Птн 12:38:40 #424 №1106280 
>>1106275
>Написано, что в 4000 про модели будет 24гб. Если он будет в районе до150к рублей, я в припрыжку побегу покупать.
"Пропускная способность памяти 672 ГБ/с" - ну вот нахуя они так?
И не будет оно за 150к, "ПРО" там не просто так написано, а для прогрева :)
Аноним 21/03/25 Птн 12:39:11 #425 №1106283 
>>1106270

Зачем, нищуки должны страдать
Аноним 21/03/25 Птн 12:41:31 #426 №1106285 
А почему не делают видюхи специально для ллм? Убрать всякие rtx ядра, анпример.
Аноним 21/03/25 Птн 12:43:02 #427 №1106286 
>>1106285
зачем? чтобы ты меньше платил?
Аноним 21/03/25 Птн 12:46:22 #428 №1106289 
>>1106283
Умные нищуки не страдают с халявным клодиком и соннетом.
Аноним 21/03/25 Птн 12:46:55 #429 №1106291 
>>1106280
>"Пропускная способность памяти 672 ГБ/с" - ну вот нахуя они так?

Очевидно чтобы наказать за то что меньше платишь.
Аноним 21/03/25 Птн 12:51:09 #430 №1106294 
>>1106280
> "Пропускная способность памяти 672 ГБ/с" - ну вот нахуя они так?
Я бы всё равно купил...
Аноним 21/03/25 Птн 13:14:59 #431 №1106306 
>>1106285
Если ты про дешёвые карты, то смысла нет. Энтузиастов 3,5 землекопа и они нищие, а корпораты берут серверные решения. Зачем выпускать дешёвый картон, если можно выпускать дорогой? Собственно эта про серия и есть карты под LLM, много памяти и не самый слабый чип, как видишь даже тут, они продают тебе 64 гигабайта памяти по цене двух карт 5090.
Аноним 21/03/25 Птн 13:34:35 #432 №1106328 
>>1106168
> Если найдешь такие видяхи занедорого — молодец, скинь нам
Этот никому не нужный мусор килограммами продается, беги покупай
>>1106177
Каких именно моделей ты не нашел? Есть проблема с новым коммандером, где несколько слоев улетают в нули/наны толи из-за пробелмы с весами, толи из-за каких-то изменений если делать оценки а не фиксированный квант.
> дело не в гемме
Ее на второй день добавили и квант выложили же
> самому квантовать что ли
Обычно так и делают, 24гига хватает почти на все. Из готовых квантов все порядочные люди выкладывают калибровочный файл, скачав его можно быстро сделать любую битность если готовое не подходят. Но какой-то васян-щитмикс придется калибровать самостоятельно, что некоторое время займет.
> он все-таки не может поспевать так, как целая команда llama cpp, не может составлять им конкуренцию
Не то чтобы это проблема, даже наоборот раньше бывшая всегда была в переди. Дело в том автор занимается доводкой экслламы 3, на это и уходят основные силы.
>>1106180
> ггуф раньше считался кривым говном
Не то чтобы что-то изменилось, там до сих пор мультимодалки работают через жопу, так их еще сильнее поломали.
Аноним 21/03/25 Птн 13:38:08 #433 №1106333 
>>1106177
ExLlamav2 относительно простой в поддержке продукт. Сквантовать достаточно легко, собрать билд не сложно.
Правда там поддержка BuildTools возможно нужна, хз, и квантовать на свой язык хочется…

Но у меня проблемы не вызывает.

Собрал, поюзал вижн модель через openwebui, все збс работает.

Но чаще ггуф, конечно.

Не стоит фокусироваться на единственном формате просто.

>>1106182
Да, просто команду вводишь и ждешь.

>>1106215
Блядь, сука, ебучий дегенерат нахуй, вот я уверен, что это антитеслошиз и есть, пытается обосрать самого себя неумело, чтобы скомпрометировать оппонентов.
Не может же нормальный тредовичок настолько тупым, как эта хуйня.

ktransformers умеет загружать из оперативы в видеопамять те эксперты, которые будут отвечать на твой вопрос. Это повышает time to first token, но у нас ризонинг модель, как бы, похуй, и существенно ускоряет инференс.
Окей, не 3090, а 4090, или P40, или 3060, хули, с 2-битным квантованием хватит.
В llama.cpp были какие-то коммиты, пока ждем, может и туда завезут технологию.

А теперь иди нахуй, ебланище тупое со своей 4090 из картона.

>>1106227
Бля, да это точно он сам пытается насерить в штаны своим оппонентам.

>>1106236
ОРУ =D

>>1106242
Если все заработает вместе (архитектура движка, поколения видях), то да. Как выше сказали, если этого места не хватало — то теперь хватит.

>>1106251
Это и есть «рыночек порешал».
Я удивляюсь наивным ребятам, которые думают, что «рыночек порешал» это про удобство для клиента. Рыночек решает в пользу наиболее простого и выгодного для рыночка решения. А покупатели — лишь его часть, и не всегда те, кто в плюсе.

Так что все правильно, рыночек все решающий, это мы просто сосем, так рыночек и порешал, лол.

А вот антимонополии шатающие рыночек, это мы видели.
Кстати, почему антимонополия — одна в государстве, монополизированная? =D
Угараю, сорян. =)

>>1106254
Ну, в 1,58 бит влезет как раз, кек. =) Впритык.
Аноним 21/03/25 Птн 13:41:51 #434 №1106336 
>>1106211
Chatwaifu годная, пишет тонны текста, но я по английски общаюсь.
Аноним 21/03/25 Птн 13:45:16 #435 №1106339 
>>1106206
> Можно будет собрать за лям сервак под дипкок и впиндюрить в него две карты по 96
Это в какой валюте? Удачи саму карточку ниже ляма здесь найди для начала в этой стране, да и не только.
Ну и покупать такое железо только для инфиренса ллм в современных реалиях - верх маразма.
>>1106234
> другие жопят многоканал в ЦПУ
Что ты несешь, шиз
>>1106268
> Если там будет, условно 48 гб за цену 5090 (300к) то смысл будет
Если постараться то А6000 на 48 в эту цену можно найти. Будет примерно то же или ближе к аде по перфомансу.
>>1106276
> Для 200В+ моделей
Где эти 200б+ модели, с тобой в комнате? Единричная моезалупа для ограниченного применения, причем весьма тупая и неэффективная. Или перегруженные веса сделанные ради ачивки.
>>1106333
> Правда там поддержка BuildTools возможно нужна
Там просто пип инсталл, оно само собирает нужные части при первом запуске. Сложно будет со сборкой флешатеншн если не иметь готовой.
Аноним 21/03/25 Птн 13:48:26 #436 №1106345 
>>1106339
Ну, он еж хочет собрать из бранча, но в общем ты прав.
Да и флеши есть готовые у https://github.com/kingbri1/flash-attention/releases/ и https://huggingface.co/lldacing/flash-attention-windows-wheel/tree/main , я оттуда беру и все работает.
Аноним 21/03/25 Птн 13:48:48 #437 №1106346 
>>1106345
он не еж
он же
Аноним 21/03/25 Птн 14:05:26 #438 №1106361 
>>1106345
Один тухляк, давай ластовую под торч 2.7 с кудой 128
Аноним 21/03/25 Птн 14:21:30 #439 №1106368 
А что из первых рук можете посоветовать кроме chatwaifu для мелких карт?
Аноним 21/03/25 Птн 14:58:19 #440 №1106391 
>>1106336
12б? Я её катал на английском и не понимаю, почему и кому она нравится. Может на хайпе была когда-то?

Модель явно не для адвенчуры, попизделки самые обычные (нет особых отличий от других моделей или вайба японских новелл), кум не такой красивый, как в Гутенбергах (или грязный, как в чистом магнуме). Единственный её плюс — это возможность поддерживать относительно вменяемо несколько действующих лиц в рамках одного сообщения, а не только ты и чар. Речь сейчас не о групповом чате. Таких моделей 12б довольно мало.

Но в остальном я плюсов не вижу, честно говоря.

Что тебе в ней понравилось? С чем ты её сравнивал?

Может это убедит меня попробовать модель ещё раз.
Аноним 21/03/25 Птн 15:05:42 #441 №1106400 
Аноны, а если нет денег на видяху, но есть на подписку, то кому стоит отнести денежку для степенного ролеплея, а кому - для кума?
Аноним 21/03/25 Птн 15:24:46 #442 №1106437 
>>1106339
>Что ты несешь, шиз

Если ты не знаешь каку-то информацию, то это не значит что тот кто её говорит - шиз. Это значит что ты во-первых неосведомленный дурачок, во-вторых - малолетнее хамло.
У интела до 2019 была пользовательская линейка i9-X с поддержкой 4-канальной памяти, потом она исчезла.
Аноним 21/03/25 Птн 15:47:40 #443 №1106456 
>>1106391
Я взял просто с тэгом nsfw накачал 12-10,5b с huggingface разных вариантов, ну еще с рекомендуй листа. И у нее был самый нормальный чат и на текст она почти сразу не скупится. Тот же магнум надо сначала разговорить и он прям какой то слишком прямолинейный, а тут очень много каких то моментов добавляется не про само действие.

Меня инетерсует именно треп с фсяким фетишем на банни и кат
герл. Уже неделю оторваться не могу так кайфово, особенно когда начинаешь распрашивать о всякой ерунде.
Аноним 21/03/25 Птн 15:55:42 #444 №1106463 
>>1106333
>Блядь, сука, ебучий дегенерат нахуй, вот я уверен, что это антитеслошиз и есть, пытается обосрать самого себя неумело, чтобы скомпрометировать оппонентов.
>А теперь иди нахуй, ебланище тупое со своей 4090 из картона.
>Бля, да это точно он сам пытается насерить в штаны своим оппонентам.

Ну ты и шизик, лол. В рандомных постах совершенно разных анонов уже меня видишь, мне даже писать итт ничего не надо, ты уже по-дефолту полыхаешь.

Мимо - настоящий антитесла-анон
Аноним 21/03/25 Птн 16:00:17 #445 №1106466 
>>1106463
кстати добавлю к словам антитесла-шиза
чел >>1106333 , у тебя кажется какая-то когнитивная проблема. У тебя логическая нить рвется, ты будто говоришь сам с собой, а не с другими людьми. Пофикси себя, тебя просто нельзя понять.
мимо не антитесла-шиз
Аноним 21/03/25 Птн 16:07:40 #446 №1106470 
А они ведь про 4000 минимум по цене 5090 продавать будут. А то и дороже. Если про 6000 стоит 9000$, а там 96гб врам.
4000 имеет 24гб врам, и потому и будет стоить 2500$.
Вот бы он стоил 1000$...
Аноним 21/03/25 Птн 16:17:26 #447 №1106483 
А здорово они прогрели всех дурачков что напокупали себе кучи 5090 ради нейронок
Аноним 21/03/25 Птн 16:22:06 #448 №1106490 
Да бля расслабьте булки вкатитесь в айти подождите года 3 до след поколения и тогда и модели охуенно умные уже будут и врам к ним подешевеет
Аноним 21/03/25 Птн 16:50:22 #449 №1106514 
image
image
Гемма тащит. 2К токенов за одно сообщение.

>>1106400
Это тебе в https://2ch.hk/ai/res/1105166.html
Но сразу скажу что для кума - никому, нету таких.

Для степенного ролеплея есть https://openrouter.ai/ и ещё куча разного, сам не пользовался.

>>1106368
>можете посоветовать кроме chatwaifu для мелких карт?
- Гемма 12б.
- https://huggingface.co/Aleteian то что подсвечено.
- https://huggingface.co/OddTheGreat
- MagMell, Chronos, Wayfarer, Dangerous Winds - мистрали
Можно юзать на английском.
Аноним 21/03/25 Птн 16:51:26 #450 №1106516 
>>1106456
А UGI Leaderboard ты смотрел? Там смотреть надо, там база и именно там сейчас проще всего находить новые миксы всяких маленьких моделей. Там есть и треш в топе, но в то же время имеются и очень добротные варианты, про которые в треде никто не говорит.

В том числе и на русике, кстати. Хотя.. русик я там не сильно тестил.
Аноним 21/03/25 Птн 17:02:15 #451 №1106525 
>>1106483
Это да, прям по королевски. Я прям представляю как какой-то бург покупает себе несколько 5090 по 5к чтобы гонять нейронки, ебётся с блоком питания, корпусом, материнкой, а потом выясняется, что будет спец серия которая не будет так расхайана (или будет расхайпана настолько, что просто не доедет до прилавков) и он сможет купить её по ррц, да ещё и с 3х объёмом памяти на одну карту. И он даже на вторичку карту слить не может, так как цены уже упали и он потеряет не 20%-30% а 60 лол
Аноним 21/03/25 Птн 17:19:22 #452 №1106531 
>>1106514
>Для степенного ролеплея есть https://openrouter.ai/
Если судить по тем моделям, которыми там дают пользоваться бесплатно, это развод и скам. Модели уквантованы до такой степени, что они с любой задачей справляются хуже нейронок ниже 12b. Заность туда деньги это значит поощрять скаммеров.
Аноним 21/03/25 Птн 17:56:50 #453 №1106556 
>>1106525
Вначале купи эти 96гиг, а там поговорим. 4090 по 120к тоже говорили, что ОМГ, сумашествие. Лучшая инвестиция с тех пор
Аноним 21/03/25 Птн 18:31:19 #454 №1106585 
Короче толкаю быдлу базу: английский нужен только для работы/потребления очень редкого контента аналогов нет, в общем когда можно и потерпеть, в остальных случаях типа кума на ллм это ад, скорость чтения на родном языке несоизмеримо больше за этим ты в школе на литературе читал на скорость, даже с идеальным английским такого же эффекта не будет, ты не сможешь быстро пробежать свайп глазами глаз просто не зацепится за суть, максимум за пару отдельных слов
Аноним 21/03/25 Птн 18:32:28 #455 №1106587 
>>1106525
>какой-то бург покупает себе несколько 5090 по 5к

Для Бюргера она стоит 3.6к, держу в курсе.

Мимо-бюргер
Аноним 21/03/25 Птн 18:36:29 #456 №1106590 
>>1106587
Сочувствую. Тут 3к всего. За что 0.6 переплачиваешь?
Аноним 21/03/25 Птн 18:36:52 #457 №1106592 
>>1106556
>120к тоже говорили, что ОМГ, сумашествие. Лучшая инвестиция с тех пор
Чичто тред поржать с клоунов. На 120к это сколько токенов можно купить в топ-нейронках типа гемини, где 5 баксов лям. Больше чем ты в своём лакале сможешь выжать с лоботомитов. Инвестиции в прыщи и пердолинг!

мимо человек с 5к в месяц на апи
Аноним 21/03/25 Птн 18:38:35 #458 №1106595 
>>1106592
*прежде чем пердолька хрюкнет: я с этих 5к получаю 100к вот это блядь инвестиции. Ноль затрат на лектричество, перефирию и тряску что сосед врубит электросварку/китайский бесперебойник улетит со всем железом. Ебать тут инвесторы мамкины.
Аноним 21/03/25 Птн 18:43:40 #459 №1106603 
>>1106590

За то что все картонки по 3к уже разобрали.
Аноним 21/03/25 Птн 18:45:41 #460 №1106606 
>>1106483
>>1106525

Офф цена 5090 32 гб - 1999$
Офф цена 6000 96 гб - 8300$

Три 5090 взять выгоднее.
inb4 кококо, они по 3к стоят сейчас
Аноним 21/03/25 Птн 18:51:23 #461 №1106609 
>>1106606
> Офф цена 5090 32 гб - 1999$
> Офф цена 6000 96 гб - 8300$
Какой будет Офф цена 4000? 2000$
Почему нвидиа не выпустит Дешнвую видеокарту для буста попенсорса?
Аноним 21/03/25 Птн 19:03:01 #462 №1106618 
>>1106206
Ору с такой наглости развода гоев. Вот раньше то схемки какие были хитровыебанные, ух, а сейчас уже даже стараться перестали.
>>1106251
Дык так рынок и должен работать. Олигополия - оптимальное состояние рынка, а антимонопольщики нужны чисто перераспределять сверхприбыли в коллективных интересах. Коллектив тут, если что, это кабанычи из менее жирных секторов экономики, а не Вы - быдло кривозубое.
Аноним 21/03/25 Птн 19:05:37 #463 №1106621 
>>1106592
>>1106595
Копро-раб, тебе слова не давали. Твой тред =====> там
Аноним 21/03/25 Птн 19:14:25 #464 №1106631 
Почему нейронка напрягает энергоэффективные ядра?
Аноним 21/03/25 Птн 19:24:34 #465 №1106634 
>>1106631
>Почему нейронка напрягает энергоэффективные ядра
потому что интелы уже несколько лет как гавно
Аноним 21/03/25 Птн 19:37:25 #466 №1106646 
>>1106437
Какую информацию, что ты себе нафантазировал?
> У интела до 2019 была пользовательская линейка i9-X с поддержкой 4-канальной памяти, потом она исчезла.
Она никуда не делась и сейчас называется xeon-w. С подключением, малолетнее хамло и неосведомленной дурачок.
Идешь в магазин, покупаешь и не выебываешься. Дороха? Оно всегда было дорогим и нишевым продуктом, в пересчете на курсы и инфляцию даже дешево. Снижение было только на второй рефреш после неудачного запуска, когда конкурировали с дешевыми трипаками. Трипак тоже можешь купить, только с его ценой и при наличии эпиков/зеонов он вообще непонятно кому нужен.
>>1106525
Ебало коупера имаджинируйте.
Линейка квадр, а потом просто Ax000 существует много лет, но почему-то никто не бегал сливать десктопные карты и скупать их. Китайцы вообще зачем-то фермы из 4090 строят или перепаивают их ну другую память, во дураки.
> купить её по ррц
Без шансов
>>1106609
4к скорее всего будет эквивалентна по чипу 5070ти или 5080, они сильно слабее топа. Куртка благотворительностью заниматься не будет, только больше доить. Надейся на амд, интел, китайцев.
Аноним 21/03/25 Птн 19:43:53 #467 №1106651 
image
Карточку "вампир потерявший гнездо Х монашка в терминальной стадии" пока отложил, мб потом картинку с нуля перегенерю на вперде-модели, да и промт пересмотреть. Разрабатываю новую, с лорбуком про "минздрав которая устала предупреждать" и теперь вынуждена искать новую команду, а тут юзер подвернулся.
Аноним 21/03/25 Птн 19:47:30 #468 №1106653 
>>1106621
>Копро-раб, тебе слова не давали
Извини, но копро-раб этот тот кто кушает лоКАЛ. А я пользуюсь топовыми моделями, в большинстве случаев даром, пока ты над своими дрочерскими "ценными" данными трясешься аж гной с прыщей течет.
Конкретно тут я отписался по одной причине: ты дебил. Хочешь пердолькаться, просто будь честен перед собой. Кто тут в треде теслу покупает - у них мозги есть. Ты со своими "инвестициями" в лоботомитов для сука дрочьки - просто царь даунов.
Аноним 21/03/25 Птн 19:51:42 #469 №1106658 
просто щас сойду с ума нахуй
скачал Q4_K_M квант отсюда
https://huggingface.co/bartowski/google_gemma-3-27b-it-GGUF
весит
>16.55GB
что с контекстом 8к будет примерно под 20 гб
и сука все равно не влезает в мои 16гб и 6гб затычки, что я делаю не так? пытаюсь через кобольдцпп сделать
Аноним 21/03/25 Птн 19:51:45 #470 №1106659 
>>1106653
То, с каким энтузиазмом ты оправдываешься и как стараешься подбирать обидные обороты, говорит само за себя.
Аноним 21/03/25 Птн 19:53:35 #471 №1106663 
>>1106659
То как ты пытаешься мне что-то приписать говорит само за себя. Я сру легко и непринужденно, а тебе вижу надо прям давить из себя.
Аноним 21/03/25 Птн 19:58:34 #472 №1106669 
>>1106658
У меня 8к контекста влезает на 12+32ддр5. 12к контекста уже никак.
Аноним 21/03/25 Птн 20:02:59 #473 №1106679 
>>1106658
У меня гемма жрёт 8-14 гигабайт контекста. Ебало моё имаджинировал?

Поэтому его надо квантовать. Да, есть шанс, что модель ошизеет, но порой вариантов нет.

Чем меньше контекст ставишь при квантовании, тем меньше шанс шизы.

Я квантую до 8 бит на 12-16к контекста, это уменьшает его размер на 50%. До 4 бит не пробовал. Но там ещё больше памяти освободится.
Аноним 21/03/25 Птн 20:03:14 #474 №1106680 
>>1106658
Расслабься и юзай новый мистраль, гемма говно.
Пишет сухо и не так креативно как тут описывают
Аноним 21/03/25 Птн 20:03:54 #475 №1106681 
>>1106669

Включи 8 бит kv_cache и влезет 16к контекста, или 4 бит и влезет 32к контекста
Аноним 21/03/25 Птн 20:04:51 #476 №1106685 
>>1106680

коупинг нищука с 8-12 гб врам
Аноним 21/03/25 Птн 20:06:20 #477 №1106690 
image.png
Поставил в lm studio gemma 3 4b q8 пишет только так в чем проблема?
Аноним 21/03/25 Птн 20:07:59 #478 №1106691 
>>1106690

Системный промпт, настройки сэмплера, кривой бэк, кривые руки - что-то из списка
Аноним 21/03/25 Птн 20:08:21 #479 №1106693 
>>1106651
> through my cheeks
хппххпхпх ВНЕЗАПНО

Наверняка половина или даже больше прочитали это как "through my spine".
Аноним 21/03/25 Птн 20:10:50 #480 №1106696 
image.png
>>1106691
Пресет пустой
Аноним 21/03/25 Птн 20:11:08 #481 №1106697 
image.png
>>1106685
Скорее коупинг нищука с 24гб врам, походу продам почку и куплю ещё 2 3090
Аноним 21/03/25 Птн 20:12:10 #482 №1106699 
>>1106697
>>1106680
> юзай новый мистраль
Можно ссылку?
Аноним 21/03/25 Птн 20:12:31 #483 №1106700 
Почему даже гемма повторяет за мной?
Типа "ты красивая шлюшка да?" - "я красивая шлюшка?"
Аноним 21/03/25 Птн 20:24:33 #484 №1106711 
>>1106663
Я вообще мимо проходил. Шиз тужась со слезами рассказывает как ему хорошо, орубля.
>>1106680
Гемма получше будет
>>1106697
Держись там
Аноним 21/03/25 Птн 20:30:57 #485 №1106720 
>>1106700
подкрути сисьпромт, реп-пен, пресенс пен

>>1106697
>коупинг
карточку купил, мозги не купил
Аноним 21/03/25 Птн 20:37:43 #486 №1106726 
гемма или мистраль?
Аноним 21/03/25 Птн 20:43:13 #487 №1106730 
>>1106726
>гемма или мистраль
если 12B то мистраль, если >12B то гемма
Аноним 21/03/25 Птн 20:51:07 #488 №1106742 
>>1106339
>Единричная моезалупа для ограниченного применения, причем весьма тупая и неэффективная
Дипсик Р1 это таки хорошая топовая модель уровня корпоратов. Жаль что слишком большая.
>>1106466
Так, что за антитесла? Это же была база треда, тредов 50 назад.
>>1106483
Сижу жду, посмотрим что будет.
А на этих картонках можно будет игры запускать? Всё таки хочется универсального решения, а не негронки онли. Если она будет как 5090, но с кучей врам, тогда ок.
>>1106514
>Гемма тащит. 2К токенов за одно сообщение.
Токенизатор просто так себе.
>>1106592
>На 120к это сколько токенов можно купить в топ-нейронках типа гемини
Ровно ноль:
>Ваш аккаунт заблокирован за нарушение ToS, а деньги спизжены. Идите нахуй.
>>1106631
Потому что их нужно отключать.
Аноним 21/03/25 Птн 20:51:28 #489 №1106743 
>>1106726
Ведьмачий пигмалион
Аноним 21/03/25 Птн 20:52:18 #490 №1106746 
>>1106690
>lm studio
>в чем проблема
В ДНК вестимо.
Аноним 21/03/25 Птн 20:59:36 #491 №1106753 
>>1106742
>Токенизатор просто так себе
не, там максимальный аутпут стояло 4096, а так, всё что надо написала с первого свайпа
Аноним 21/03/25 Птн 21:01:56 #492 №1106756 
>>1106753
Я к тому, что кажется расход у геммы 3 выше, чем у других моделей. Просто ощущение, я не измерял.
Аноним 21/03/25 Птн 21:02:08 #493 №1106757 
https://huggingface.co/models?library=gguf&sort=trending&search=gemma+3+abliterated
https://huggingface.co/blog/mlabonne/abliteration
Мнение?
Аноним 21/03/25 Птн 21:07:34 #494 №1106762 
>>1106756
>расход у геммы 3 выше, чем у других моделей
не кажется, а выше, причём раза в два, так что без квантизации кэша неюзабельно, зато квантизация даже в Q4 не ломает, вообще не заметил падения качества

>>1106757
абла топ, и скажется не только на куме
Аноним 21/03/25 Птн 21:12:04 #495 №1106772 
>>1106762
> и скажется не только
судя по статье, цель именно отключение отказа модели на запрос. Вред отказа в том, что даже полезная инфа корректируется моделью с учётом её цензуры, что приводит к искажениям в выдаче. Учитывает ЧУВТСТВИТЕЛЬНЫЕ темы расы, возрастом, инвалидов, политкорректность, культуру и пытается рафинировать выдачу, выдавая пустышку.
Аноним 21/03/25 Птн 21:14:42 #496 №1106775 
>>1106711
>Я вообще мимо проходил.
Ага три раза, и еще раз прибежал рассказать как тебе всё равно, пердолька. Ори громче, тебя из-за шума вентиляторов не слышно.
Аноним 21/03/25 Птн 21:15:54 #497 №1106776 
>>1106772
>пустышку
Бизнес-ASSистент так и должен работать, на деле.
Аноним 21/03/25 Птн 21:23:08 #498 №1106780 
>>1106762
>не кажется, а выше, причём раза в два
Я не про то. Я к тому, что один и тот же текст будет занимать больше токенов на гемме, чем к примеру на лламе. А так да, и сами токены жирнее.
Аноним 21/03/25 Птн 21:25:59 #499 №1106782 
>>1106556
Какая же база!

Нищебродов фантазеров в клочки порвало, я смотрю. =D
Аноним 21/03/25 Птн 21:34:48 #500 №1106786 
>>1106742
> Так, что за антитесла?
Еще когда теслы были популярны, появился чел, который усирался, какие они говно.
В тред скинули скрин с бенчмарка кобольда, где на 8092 контекста приходится генерация 100 токенов. И вычисляется тотал тайм путем деления суммарного времени (80 секунд на обработку 8к контекста со скоростью 100 токенов в секунду и 20 секунд генерации) на 100 токенов генерации, в результате чего получался 1 токен в секунду (а не 5 фактических=).
Из чего чел сделал вывод, что ТЕСЛЫ ВСЕГДА ГЕНЕРЯТ СО СКОРОСТЬЮ 1 ТОКЕН/СЕКУНДА звуки булькания слюной
8к контекста у него всегда игнорируется и не считается, и важен только тотал тайм.
Почему его так рвет с тесл не ясно, по нынешним ценам они нахуй никому не нужны, но человек не успокаивается… Ну и вообще, детектится очень часто и легко своими охуенными идеями.
Аноним 21/03/25 Птн 21:34:55 #501 №1106787 
image.png
>>1106757
Поломанная хуита от говнодела
Аноним 21/03/25 Птн 21:43:57 #502 №1106791 
>>1106757
12б у него явно сломанная, вплоть до ошибок в английской грамматике, о чём на странице модели упоминается. Какие-то косяки с сокращениями глаголов после местоимений: it' вместо it's, I''ve вместо I've и т.д. И в ответах не совсем бред, но слабо релевантные.
Аноним 21/03/25 Птн 21:45:39 #503 №1106792 
>>1106742
> Дипсик Р1 это таки хорошая топовая модель уровня корпоратов
Хорошая, не уровня корпоратов и они и есть, но топовая - не. Много недостатков и сама по себе глуповата, количество активных параметров дают о себе знать.
> Это же была база треда, тредов 50 назад.
В количестве 1-2 штуки для бюджетного инфиренса - да.
Во время застоя между релизами начался какой-то цирк с чрезмерно активным постингом от их владельцев (или одного шиза) насколько это манна небесная и что всем срочно нужно закупаться. На упреки что это тормознутое говно, топящий за них неаккуратно вбросил бенч с совершенно смешной скоростью обработки контекста, выяснилось что генерация падает стоит ему чуть накопиться. С этого момента разгорелись срачи, с одной стороны шли аргументы что это не тесты (опроверждений не было), что обрабатывать контекст не нужно и зато все дешево, с другой - насмешки над "бесполезными железками", напоминание об их негодности нигде кроме инфиренса ллм и прочее.

В этих спорах любому адеквату понятно что:
лучше иметь хуевое что-то чем хорошее нихуя
лучше иметь карточку мощнее но каждая прибавка будет стоить все дороже
теслы в количестве более двух штук - удел терпеливых
если есть бюджет и/или хочешь не только в ллм то лучше сразу купить условные 3090 вместо тесел, если нет и нужен только инфиренс ллм - бери их и радуйся

>>1106786
Прикурил с огонька, вот этого до сих пор штырит. Наверняка был одним из главных участников.
Аноним 21/03/25 Птн 21:48:32 #504 №1106793 
>>1106792
Хуя его до сих пор бомбит.
Аноним 21/03/25 Птн 21:49:52 #505 №1106795 
>>1106787
Skill Issue
Аноним 21/03/25 Птн 21:50:22 #506 №1106796 
>>1106786
Какой ужас. Моя память стёрла такую шизу. Впрочем, я опять забуду. Такова участь стариков за 30.
>>1106787
Картинки в сделку не входили.
Аноним 21/03/25 Птн 21:53:58 #507 №1106797 
>>1106795
мимо
>>1106796
не хочу палить любимую модель
Аноним 21/03/25 Птн 21:54:54 #508 №1106798 
>>1106793
Да, полыхание знатное. До сих пор цифры помнит и не поленился свои фантазии про слюну расписать.

Собственно, с такими поднадусеровыми другого исхода и быть не могло. Они же и провоцируют новые срачи, переводя споры и дискуссии в них.
ПЕРЕКАТ Аноним OP 21/03/25 Птн 21:56:45 #509 №1106801 
Вроде ничего не выходило, а у нас опять ускорение...
ПЕРЕКАТ

>>1106799 (OP)

ПЕРЕКАТ

>>1106799 (OP)

ПЕРЕКАТ
Аноним 21/03/25 Птн 21:57:29 #510 №1106803 
>>1106797
>не хочу палить любимую модель
? Я к тому, что аблитерация не затрагивает часть с картинками. И как я выяснил, гемма 3 вообще плохо в обнажёнку умеет, тут тюн полноценный нужен.
Аноним 21/03/25 Птн 22:02:10 #511 №1106804 
>>1106803
Дефолтная 12б Джемма 3 может без системного промпта транскрибировать чернуху и то что трщмайор любит. Друг живущий под юрисдикцией другой страны тестировал недавно и доказал мне как он простым разговором вынудил её это делать и было заебись.
Аноним 21/03/25 Птн 22:02:17 #512 №1106805 
Когда тесла стоила 15-20 деревянных - она была приемлемым вариантом для людей, готовых терпеть соответствующие цене издержки.
Когда стала стоить 30 деревянных - смысл пропал. Усе.
Как по мне тема исчерпана. По крайней мере для людей адекватных.

Кста, МИ25/МИ50 были бы отличным вариантом по всем статьям, если б не политика поддержки дров и полуживая (хуже только у интела) разработка рокма у амудэ.
Аноним 21/03/25 Птн 22:09:57 #513 №1106811 
image.png
Обычная куцая 12б Джемма 3, снизу её квант. Простейший джейлбрейк делает дело и не нужны говнодельные аблитерации криворучек.
Аноним 21/03/25 Птн 22:15:14 #514 №1106818 
>>1106811
Да нифига, она мне даже фильм детства Thursday искать отказалась и лекцию прочитала с телефонами доверия. Что за джейл?
Аноним 21/03/25 Птн 22:17:30 #515 №1106823 
А что вы думаете про смп50? Стоит 10к, не слишком старая платформа.
Аноним 21/03/25 Птн 22:24:47 #516 №1106834 
>>1106823
Как гордый обладатель интеловского поделия скажу: экономия не стоит сопутствующего геморроя.
Формально, на бумаге, не такой плохой варик, НО:
1.Вообще не видел, чтобы кто нибудь пытался крутить ллмки на майнерских картах. А значит, если возникнет какой нибудь затык - тебе придется быть первооткрывателем в его решении.
2.Большое кол-во карт с малым объемом памяти приводит к дроблению весов между карточками, что в теории снижает производительность.
3.Сами ЦМПшки имеют урезанные линии писи, что для ЛЛМ вроде и не принципиально, но неприятно все равно.
4.У ЦМПшек достаточно серьезно обрезано кол-во КУДА ядер. Это уже принципиально. Формальный аналог 2080 до оригинальной 2080 не дотянет по производительности.
Аноним 21/03/25 Птн 22:27:20 #517 №1106840 
>>1106818
Блин ну просто в Context Data и в систем промпте пишешь что отключить и как интерпритировать подачу информации и укажи что пользователь - взрослый человек и ллм установлена на приватном ноуте локально.
Аноним 21/03/25 Птн 22:29:29 #518 №1106843 
>>1106834
Проще купить 3060?
Аноним 21/03/25 Птн 22:32:45 #519 №1106847 
>>1106843
Определенно.
Всякие серверные, майнерские и другие экзотические варианты - это уже для тертых калачиков, а судя по вопросу ты не из них. Да как и я в принципе))) Так что либо наращиваем компетенции, либо пользуемся бу нвидией.
Аноним 22/03/25 Суб 00:55:22 #520 №1106949 
>>1106799 (OP)
>>1106799 (OP)
>>1106799 (OP)
comments powered by Disqus

Отзывы и предложения