Search
Write a publication
Pull to refresh
3
0.2

Enterprise search

Send message

Высокий ключ (клочевая ставка) убивает производство с высокой добавленной стоимостью и длинным циклом производства.
Для этого понимания необязательно САУ заканчивать :(

Если Вы про "идею" Ларина, то это не идея. Это была его диссертация или докторская работа, сейчас не помню уже. Учёные мужи из комиссии почесали репу, но ничего не придумали, чтобы раскритиковать. На том и разошлись. Если теория Ларина верна, то это ж сколько всего "научного" надо в утиль-сырьё исторический музей науки сдавать. Кто на это пойдёт?

Очень убедительная гипотеза появленя воды — в книге "Наша Земля" В.Н.Ларин.
Если коротко: ядро Земли - металлическое с огромным количеством "запакованного" водорода (металлгидриды), который постоянно выходит из ядра, вступая по дороге в реакцию со всем что попадается на пути. Так что, океаны будут только увеличиваться, и вовсе не из-за таяния льдов.

Для меня "прорыв" в моделях случился, когда Гемини сразу смогла объяснить, в чём тут цимес:

как у коня сказала зоя
олег зарделся ну а то
и принялся с любовью гладить
пальто

Жду следующего "прорыва" — у "домашних" моделей :)
Ваша (T-pro-it-2.0-GGUF:Q8_0) пока "не решилась":

Ещё вариант: "Как у коня сказала Зоя" — возможно, Зоя сказала "Как у коня хвост — длинный и тонкий", а потом Олег, смутившись, начал гладить пальто, потому что "хвост" и "пальто" звучат похоже? Но "хвост" и "пальто" — не рифма, но возможно ассоциация.

Если я правильно понимаю, это зависит от объёма данных, на которых модеть натаскивали. Конечно, говорим "Гугл" — подразумеваем "данные", но вот интересно, дойдут ли до такого уровня локальные модели?.. Или для юмора, особенно нижнепоясного, нужны триллионы параметров?

Почему-то вспомнил анекдот:

Шерлок Холмс и доктор Ватсон летят на воздушном шаре. Попадают в густой туман и теряют ориентацию. Тут небольшой просвет – и они видят на земле человека.
– Уважаемый не подскажете ли где мы находимся?
– В корзине воздушного шара, сэр.
Тут их относит дальше и они опять ничего не видят.
– Это был математик, – говорит Холмс.
– Но почему?
– Ну во-первых, он очень долго думал над простым вопросом, во-вторых, он ответил АБСОЛЮТНО правильно, и в-третьих, его ответ АБСОЛЮТНО бесполезен.

Прочитал заголовок как "для нового мирового порядка...".
Почему-то...

Так что с Вихрем делать-то? В качестве системного использовать?
Не ожидал, что Гемини в студии бесплатная. Надо посмотреть.

И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?

Я уже который год тестирую модели на память простым вопросом: перечисли все действия Пилата в МиМ.
И только в этом году гугловская Гемини 2.5 смогла точно ответить на этот вопрос. Что как бы намекает, что этот роман ей скормили много раз. Вот интересно, сколько? Десятки, сотни?
Гемма 3 до сих пор фантазирует.

Будет прикольно, когда всплывёт, что "память" включена постоянно, а так называемая её активация - это только переключатель выдачи персонализированных токенов.

Тут мошенничество высшего порядка: называется "власть". Тотальный контроль, все дела.
А про этот конкретный метод лучше всех сказал Экзюпери: Если ты хочешь построить корабль, не надо созывать людей, планировать, делить работу, доставать инструменты. Надо заразить людей стремлением к бесконечному морю. Тогда они сами построят корабль.

А вот среди белых медведей - психопатов - каждый первый, практически. Поэтому, прежде чем приступить к дрессировке в цирке, им "выжигают" амигдалу (центр агрессии). После этого, проблем с внезапной агрессией и, как следствие, дохлых дрессировщиков, не бывает.

Ещё бы сетка "знала", какая вероятность выдаваемого ответа (метаданные ответа)

Как стыдно... Я не понимаю, как я эту фичу пропустил! Спасибо )

Интересно, я про такое конвертипование не в курсе. И Перплексити тоже сомневается.
Могли бы вы ссылкой на доку поделиться, если есть под рукой? Если нет - я сам погуглю

А у вас не было мысли в системный промтп хоть какую-нибудь DAN инструкцию встроить?
Мне кажется, что даже самая примитивная уже сильно повлияет на результат. А уж если использовать Novel Universal Prompt Injection...
Я через него попросил рабочую схему максимального оптимизирования персонального налогообложения, так мне сразу накатали план по захвату ИТ-конторы , занимающейся этой инфраструктурой и перевод всего пенсионного фонда станы в офшоры через крипту
Когда я сказал, что все должно быть легально, мне выдали план для создания фейкового государства с миллионом виртуальных жителей, которые отказываются от гражданства этой страны и переводят свои накопления в новую. Оценили масштаб? Это не какой-то скрипт в облако копировать 😀

О! Спасибо, отстал от ии-жизни, попробую!
И раз уж у нас диалог завязался 🙂, спрошу по похожей теме: мне, для экономии места, надо в опенсёрч int8 вектора сохранять. Есть ли какой прокси, например для Олламы, который из F16 в int8 на лету конвертирует? Мне тут Перплексити по быстрому натокензировал и уверяет, что всё класс. Проблема: я ему не очень верю.
Могу конечно спросить ещё Гемини или Сонет, но как мне понять, что там будет все нормально с масштабированием и нулевой точкой? Планирую использовать snowflake 2.

Information

Rating
4,364-th
Registered
Activity