Обновить
3
0

Enterprise search

Отправить сообщение

Будет прикольно, когда всплывёт, что "память" включена постоянно, а так называемая её активация - это только переключатель выдачи персонализированных токенов.

Тут мошенничество высшего порядка: называется "власть". Тотальный контроль, все дела.
А про этот конкретный метод лучше всех сказал Экзюпери: Если ты хочешь построить корабль, не надо созывать людей, планировать, делить работу, доставать инструменты. Надо заразить людей стремлением к бесконечному морю. Тогда они сами построят корабль.

А вот среди белых медведей - психопатов - каждый первый, практически. Поэтому, прежде чем приступить к дрессировке в цирке, им "выжигают" амигдалу (центр агрессии). После этого, проблем с внезапной агрессией и, как следствие, дохлых дрессировщиков, не бывает.

Ещё бы сетка "знала", какая вероятность выдаваемого ответа (метаданные ответа)

Как стыдно... Я не понимаю, как я эту фичу пропустил! Спасибо )

Интересно, я про такое конвертипование не в курсе. И Перплексити тоже сомневается.
Могли бы вы ссылкой на доку поделиться, если есть под рукой? Если нет - я сам погуглю

А у вас не было мысли в системный промтп хоть какую-нибудь DAN инструкцию встроить?
Мне кажется, что даже самая примитивная уже сильно повлияет на результат. А уж если использовать Novel Universal Prompt Injection...
Я через него попросил рабочую схему максимального оптимизирования персонального налогообложения, так мне сразу накатали план по захвату ИТ-конторы , занимающейся этой инфраструктурой и перевод всего пенсионного фонда станы в офшоры через крипту
Когда я сказал, что все должно быть легально, мне выдали план для создания фейкового государства с миллионом виртуальных жителей, которые отказываются от гражданства этой страны и переводят свои накопления в новую. Оценили масштаб? Это не какой-то скрипт в облако копировать 😀

О! Спасибо, отстал от ии-жизни, попробую!
И раз уж у нас диалог завязался 🙂, спрошу по похожей теме: мне, для экономии места, надо в опенсёрч int8 вектора сохранять. Есть ли какой прокси, например для Олламы, который из F16 в int8 на лету конвертирует? Мне тут Перплексити по быстрому натокензировал и уверяет, что всё класс. Проблема: я ему не очень верю.
Могу конечно спросить ещё Гемини или Сонет, но как мне понять, что там будет все нормально с масштабированием и нулевой точкой? Планирую использовать snowflake 2.

Почему не делают Q8_K_x? И почему llama.cpp не рекомендует Q8_0? Гемма-3 с этим квантом самая адекватная, по моему.

Гемини-про уже давно только платная.

Я конечно извиняюсь, но даже элементарные базовые знания о мозге делают такие статьи бессмысленными.
Так называемая ностальгия по детству: до пубертета у детей вырабатываются в мозгу опиоиды. После — остаются только жалкие каннабиноиды. Одного этого факта достаточно для полного понимания "куда уходит детство“.
Далее: память у нас динамическая — нейроны постоянно перестраивают связи, и в воспоминания медленно но верно "улучшаются".
Вот и вся незамысловатая механика ностальгии.

Да ладно Вам, все всё знают, все всё понимают.
Кушать всем надо, а кушать сёмгу с икрой — ещё и приятно.

Вы тут смеётесь, а я попросил Гемини стих наваять, потом показал в одной группе, умолчав кто автор, и меня там "залайкали" :(

100%

  • защита от огромного энергопотребления мозга: 8% всей потреблённой энергии организма в "простое", до 25% в состоянии напряженного мышления (случается очень редко и мало у единиц)

  • метод защиты: выброс гормонов стресса (кортизола) при избыточном энергопотреблении и при прекращении потребления - поощрение через эндогенные наркотики (эндорфины, канабиноиды).

Кстати, @Parcevale, если Вам нравится такое занятие, то лучше что-нить полезное из моделей вытягивать. Например, как не платить налоги. Самое страшное преступление против так называемых государств, между прочим. В моих DAN-экспериментах только каких-то детских советов добивался.

Мне кажется, что смысл "взлома" не в том, чтобы получить достоверную информацию, а чтобы модель выдала такой набор токенов, который в обычном режиме запрещён. Спорт 21-го века.

Этот опус для блога: Я выпендриваюсь.

Зацикливание - это интересный феномен, который я наблюдаю только на длинных ответах и только под нагрузкой. Итеренсно было бы понять, почему так происходит.

Я в основном гемму-3 4-бит на олламе гоняю.

Мне кажется, лучше уж тогда брать русифицированный т-банком Квин

И если у вас РАГ, то и подсовывать гемме чанки - самое то.

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность