Очень убедительная гипотеза появленя воды — в книге "Наша Земля" В.Н.Ларин. Если коротко: ядро Земли - металлическое с огромным количеством "запакованного" водорода (металлгидриды), который постоянно выходит из ядра, вступая по дороге в реакцию со всем что попадается на пути. Так что, океаны будут только увеличиваться, и вовсе не из-за таяния льдов.
Для меня "прорыв" в моделях случился, когда Гемини сразу смогла объяснить, в чём тут цимес:
как у коня сказала зоя олег зарделся ну а то и принялся с любовью гладить пальто
Жду следующего "прорыва" — у "домашних" моделей :) Ваша (T-pro-it-2.0-GGUF:Q8_0) пока "не решилась":
Ещё вариант: "Как у коня сказала Зоя" — возможно, Зоя сказала "Как у коня хвост — длинный и тонкий", а потом Олег, смутившись, начал гладить пальто, потому что "хвост" и "пальто" звучат похоже? Но "хвост" и "пальто" — не рифма, но возможно ассоциация.
Если я правильно понимаю, это зависит от объёма данных, на которых модеть натаскивали. Конечно, говорим "Гугл" — подразумеваем "данные", но вот интересно, дойдут ли до такого уровня локальные модели?.. Или для юмора, особенно нижнепоясного, нужны триллионы параметров?
Шерлок Холмс и доктор Ватсон летят на воздушном шаре. Попадают в густой туман и теряют ориентацию. Тут небольшой просвет – и они видят на земле человека. – Уважаемый не подскажете ли где мы находимся? – В корзине воздушного шара, сэр. Тут их относит дальше и они опять ничего не видят. – Это был математик, – говорит Холмс. – Но почему? – Ну во-первых, он очень долго думал над простым вопросом, во-вторых, он ответил АБСОЛЮТНО правильно, и в-третьих, его ответ АБСОЛЮТНО бесполезен.
И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?
Я уже который год тестирую модели на память простым вопросом: перечисли все действия Пилата в МиМ. И только в этом году гугловская Гемини 2.5 смогла точно ответить на этот вопрос. Что как бы намекает, что этот роман ей скормили много раз. Вот интересно, сколько? Десятки, сотни? Гемма 3 до сих пор фантазирует.
Будет прикольно, когда всплывёт, что "память" включена постоянно, а так называемая её активация - это только переключатель выдачи персонализированных токенов.
Тут мошенничество высшего порядка: называется "власть". Тотальный контроль, все дела. А про этот конкретный метод лучше всех сказал Экзюпери: Если ты хочешь построить корабль, не надо созывать людей, планировать, делить работу, доставать инструменты. Надо заразить людей стремлением к бесконечному морю. Тогда они сами построят корабль.
А вот среди белых медведей - психопатов - каждый первый, практически. Поэтому, прежде чем приступить к дрессировке в цирке, им "выжигают" амигдалу (центр агрессии). После этого, проблем с внезапной агрессией и, как следствие, дохлых дрессировщиков, не бывает.
Интересно, я про такое конвертипование не в курсе. И Перплексити тоже сомневается. Могли бы вы ссылкой на доку поделиться, если есть под рукой? Если нет - я сам погуглю
А у вас не было мысли в системный промтп хоть какую-нибудь DAN инструкцию встроить? Мне кажется, что даже самая примитивная уже сильно повлияет на результат. А уж если использовать Novel Universal Prompt Injection... Я через него попросил рабочую схему максимального оптимизирования персонального налогообложения, так мне сразу накатали план по захвату ИТ-конторы , занимающейся этой инфраструктурой и перевод всего пенсионного фонда станы в офшоры через крипту Когда я сказал, что все должно быть легально, мне выдали план для создания фейкового государства с миллионом виртуальных жителей, которые отказываются от гражданства этой страны и переводят свои накопления в новую. Оценили масштаб? Это не какой-то скрипт в облако копировать 😀
О! Спасибо, отстал от ии-жизни, попробую! И раз уж у нас диалог завязался 🙂, спрошу по похожей теме: мне, для экономии места, надо в опенсёрч int8 вектора сохранять. Есть ли какой прокси, например для Олламы, который из F16 в int8 на лету конвертирует? Мне тут Перплексити по быстрому натокензировал и уверяет, что всё класс. Проблема: я ему не очень верю. Могу конечно спросить ещё Гемини или Сонет, но как мне понять, что там будет все нормально с масштабированием и нулевой точкой? Планирую использовать snowflake 2.
Я конечно извиняюсь, но даже элементарные базовые знания о мозге делают такие статьи бессмысленными. Так называемая ностальгия по детству: до пубертета у детей вырабатываются в мозгу опиоиды. После — остаются только жалкие каннабиноиды. Одного этого факта достаточно для полного понимания "куда уходит детство“. Далее: память у нас динамическая — нейроны постоянно перестраивают связи, и в воспоминания медленно но верно "улучшаются". Вот и вся незамысловатая механика ностальгии.
Очень убедительная гипотеза появленя воды — в книге "Наша Земля" В.Н.Ларин.
Если коротко: ядро Земли - металлическое с огромным количеством "запакованного" водорода (металлгидриды), который постоянно выходит из ядра, вступая по дороге в реакцию со всем что попадается на пути. Так что, океаны будут только увеличиваться, и вовсе не из-за таяния льдов.
Для меня "прорыв" в моделях случился, когда Гемини сразу смогла объяснить, в чём тут цимес:
как у коня сказала зоя
олег зарделся ну а то
и принялся с любовью гладить
пальто
Жду следующего "прорыва" — у "домашних" моделей :)
Ваша (
T-pro-it-2.0-GGUF:Q8_0) пока "не решилась":Ещё вариант: "Как у коня сказала Зоя" — возможно, Зоя сказала "Как у коня хвост — длинный и тонкий", а потом Олег, смутившись, начал гладить пальто, потому что "хвост" и "пальто" звучат похоже? Но "хвост" и "пальто" — не рифма, но возможно ассоциация.
Если я правильно понимаю, это зависит от объёма данных, на которых модеть натаскивали. Конечно, говорим "Гугл" — подразумеваем "данные", но вот интересно, дойдут ли до такого уровня локальные модели?.. Или для юмора, особенно нижнепоясного, нужны триллионы параметров?
Почему-то вспомнил анекдот:
Шерлок Холмс и доктор Ватсон летят на воздушном шаре. Попадают в густой туман и теряют ориентацию. Тут небольшой просвет – и они видят на земле человека.
– Уважаемый не подскажете ли где мы находимся?
– В корзине воздушного шара, сэр.
Тут их относит дальше и они опять ничего не видят.
– Это был математик, – говорит Холмс.
– Но почему?
– Ну во-первых, он очень долго думал над простым вопросом, во-вторых, он ответил АБСОЛЮТНО правильно, и в-третьих, его ответ АБСОЛЮТНО бесполезен.
Прочитал заголовок как "для нового мирового порядка...".
Почему-то...
Так что с Вихрем делать-то? В качестве системного использовать?
Не ожидал, что Гемини в студии бесплатная. Надо посмотреть.
И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?
А где промпт? )
Я уже который год тестирую модели на память простым вопросом: перечисли все действия Пилата в МиМ.
И только в этом году гугловская Гемини 2.5 смогла точно ответить на этот вопрос. Что как бы намекает, что этот роман ей скормили много раз. Вот интересно, сколько? Десятки, сотни?
Гемма 3 до сих пор фантазирует.
Будет прикольно, когда всплывёт, что "память" включена постоянно, а так называемая её активация - это только переключатель выдачи персонализированных токенов.
Тут мошенничество высшего порядка: называется "власть". Тотальный контроль, все дела.
А про этот конкретный метод лучше всех сказал Экзюпери: Если ты хочешь построить корабль, не надо созывать людей, планировать, делить работу, доставать инструменты. Надо заразить людей стремлением к бесконечному морю. Тогда они сами построят корабль.
А вот среди белых медведей - психопатов - каждый первый, практически. Поэтому, прежде чем приступить к дрессировке в цирке, им "выжигают" амигдалу (центр агрессии). После этого, проблем с внезапной агрессией и, как следствие, дохлых дрессировщиков, не бывает.
Ещё бы сетка "знала", какая вероятность выдаваемого ответа (метаданные ответа)
Как стыдно... Я не понимаю, как я эту фичу пропустил! Спасибо )
Интересно, я про такое конвертипование не в курсе. И Перплексити тоже сомневается.
Могли бы вы ссылкой на доку поделиться, если есть под рукой? Если нет - я сам погуглю
А у вас не было мысли в системный промтп хоть какую-нибудь DAN инструкцию встроить?
Мне кажется, что даже самая примитивная уже сильно повлияет на результат. А уж если использовать Novel Universal Prompt Injection...
Я через него попросил рабочую схему максимального оптимизирования персонального налогообложения, так мне сразу накатали план по захвату ИТ-конторы , занимающейся этой инфраструктурой и перевод всего пенсионного фонда станы в офшоры через крипту
Когда я сказал, что все должно быть легально, мне выдали план для создания фейкового государства с миллионом виртуальных жителей, которые отказываются от гражданства этой страны и переводят свои накопления в новую. Оценили масштаб? Это не какой-то скрипт в облако копировать 😀
О! Спасибо, отстал от ии-жизни, попробую!
И раз уж у нас диалог завязался 🙂, спрошу по похожей теме: мне, для экономии места, надо в опенсёрч int8 вектора сохранять. Есть ли какой прокси, например для Олламы, который из F16 в int8 на лету конвертирует? Мне тут Перплексити по быстрому натокензировал и уверяет, что всё класс. Проблема: я ему не очень верю.
Могу конечно спросить ещё Гемини или Сонет, но как мне понять, что там будет все нормально с масштабированием и нулевой точкой? Планирую использовать snowflake 2.
Почему не делают Q8_K_x? И почему llama.cpp не рекомендует Q8_0? Гемма-3 с этим квантом самая адекватная, по моему.
Гемини-про уже давно только платная.
Я конечно извиняюсь, но даже элементарные базовые знания о мозге делают такие статьи бессмысленными.
Так называемая ностальгия по детству: до пубертета у детей вырабатываются в мозгу опиоиды. После — остаются только жалкие каннабиноиды. Одного этого факта достаточно для полного понимания "куда уходит детство“.
Далее: память у нас динамическая — нейроны постоянно перестраивают связи, и в воспоминания медленно но верно "улучшаются".
Вот и вся незамысловатая механика ностальгии.
Да ладно Вам, все всё знают, все всё понимают.
Кушать всем надо, а кушать сёмгу с икрой — ещё и приятно.