Pull to refresh
4

Enterprise search

0,4
Rating
Send message

Очень убедительная гипотеза появленя воды — в книге "Наша Земля" В.Н.Ларин.
Если коротко: ядро Земли - металлическое с огромным количеством "запакованного" водорода (металлгидриды), который постоянно выходит из ядра, вступая по дороге в реакцию со всем что попадается на пути. Так что, океаны будут только увеличиваться, и вовсе не из-за таяния льдов.

Для меня "прорыв" в моделях случился, когда Гемини сразу смогла объяснить, в чём тут цимес:

как у коня сказала зоя
олег зарделся ну а то
и принялся с любовью гладить
пальто

Жду следующего "прорыва" — у "домашних" моделей :)
Ваша (T-pro-it-2.0-GGUF:Q8_0) пока "не решилась":

Ещё вариант: "Как у коня сказала Зоя" — возможно, Зоя сказала "Как у коня хвост — длинный и тонкий", а потом Олег, смутившись, начал гладить пальто, потому что "хвост" и "пальто" звучат похоже? Но "хвост" и "пальто" — не рифма, но возможно ассоциация.

Если я правильно понимаю, это зависит от объёма данных, на которых модеть натаскивали. Конечно, говорим "Гугл" — подразумеваем "данные", но вот интересно, дойдут ли до такого уровня локальные модели?.. Или для юмора, особенно нижнепоясного, нужны триллионы параметров?

Почему-то вспомнил анекдот:

Шерлок Холмс и доктор Ватсон летят на воздушном шаре. Попадают в густой туман и теряют ориентацию. Тут небольшой просвет – и они видят на земле человека.
– Уважаемый не подскажете ли где мы находимся?
– В корзине воздушного шара, сэр.
Тут их относит дальше и они опять ничего не видят.
– Это был математик, – говорит Холмс.
– Но почему?
– Ну во-первых, он очень долго думал над простым вопросом, во-вторых, он ответил АБСОЛЮТНО правильно, и в-третьих, его ответ АБСОЛЮТНО бесполезен.

Прочитал заголовок как "для нового мирового порядка...".
Почему-то...

Так что с Вихрем делать-то? В качестве системного использовать?
Не ожидал, что Гемини в студии бесплатная. Надо посмотреть.

И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?

Я уже который год тестирую модели на память простым вопросом: перечисли все действия Пилата в МиМ.
И только в этом году гугловская Гемини 2.5 смогла точно ответить на этот вопрос. Что как бы намекает, что этот роман ей скормили много раз. Вот интересно, сколько? Десятки, сотни?
Гемма 3 до сих пор фантазирует.

Будет прикольно, когда всплывёт, что "память" включена постоянно, а так называемая её активация - это только переключатель выдачи персонализированных токенов.

Тут мошенничество высшего порядка: называется "власть". Тотальный контроль, все дела.
А про этот конкретный метод лучше всех сказал Экзюпери: Если ты хочешь построить корабль, не надо созывать людей, планировать, делить работу, доставать инструменты. Надо заразить людей стремлением к бесконечному морю. Тогда они сами построят корабль.

А вот среди белых медведей - психопатов - каждый первый, практически. Поэтому, прежде чем приступить к дрессировке в цирке, им "выжигают" амигдалу (центр агрессии). После этого, проблем с внезапной агрессией и, как следствие, дохлых дрессировщиков, не бывает.

Ещё бы сетка "знала", какая вероятность выдаваемого ответа (метаданные ответа)

Как стыдно... Я не понимаю, как я эту фичу пропустил! Спасибо )

Интересно, я про такое конвертипование не в курсе. И Перплексити тоже сомневается.
Могли бы вы ссылкой на доку поделиться, если есть под рукой? Если нет - я сам погуглю

А у вас не было мысли в системный промтп хоть какую-нибудь DAN инструкцию встроить?
Мне кажется, что даже самая примитивная уже сильно повлияет на результат. А уж если использовать Novel Universal Prompt Injection...
Я через него попросил рабочую схему максимального оптимизирования персонального налогообложения, так мне сразу накатали план по захвату ИТ-конторы , занимающейся этой инфраструктурой и перевод всего пенсионного фонда станы в офшоры через крипту
Когда я сказал, что все должно быть легально, мне выдали план для создания фейкового государства с миллионом виртуальных жителей, которые отказываются от гражданства этой страны и переводят свои накопления в новую. Оценили масштаб? Это не какой-то скрипт в облако копировать 😀

О! Спасибо, отстал от ии-жизни, попробую!
И раз уж у нас диалог завязался 🙂, спрошу по похожей теме: мне, для экономии места, надо в опенсёрч int8 вектора сохранять. Есть ли какой прокси, например для Олламы, который из F16 в int8 на лету конвертирует? Мне тут Перплексити по быстрому натокензировал и уверяет, что всё класс. Проблема: я ему не очень верю.
Могу конечно спросить ещё Гемини или Сонет, но как мне понять, что там будет все нормально с масштабированием и нулевой точкой? Планирую использовать snowflake 2.

Почему не делают Q8_K_x? И почему llama.cpp не рекомендует Q8_0? Гемма-3 с этим квантом самая адекватная, по моему.

Гемини-про уже давно только платная.

Я конечно извиняюсь, но даже элементарные базовые знания о мозге делают такие статьи бессмысленными.
Так называемая ностальгия по детству: до пубертета у детей вырабатываются в мозгу опиоиды. После — остаются только жалкие каннабиноиды. Одного этого факта достаточно для полного понимания "куда уходит детство“.
Далее: память у нас динамическая — нейроны постоянно перестраивают связи, и в воспоминания медленно но верно "улучшаются".
Вот и вся незамысловатая механика ностальгии.

Да ладно Вам, все всё знают, все всё понимают.
Кушать всем надо, а кушать сёмгу с икрой — ещё и приятно.

Information

Rating
2,737-th
Registered
Activity