Ну так значит уже можно доверить GPT-5 расследование загадочного дела о т.н. самоубийстве Сучира Баладжи - бывшего сотрудника OpenAI. Может чат-гпт именно в этой области умнее не только следователей, но и самого Сэма...
Вот такая вот пчела против мёда. Вбрасывают нам вбрасывают, а мы обсуждаем и обсуждаем... И главное - почти каждый комментатор знает как оно самом деле!
Автор, вы же сами написали в первой статье, что мозг в режиме "с бутербродом на диване" (c) тратит около 8% от всей потреблённой организмом энергии, а в режиме "матан" или "выбор лучшего жениха" - аж до 25% доходит. Опять же, как Вы писали, с холодильниками и супермаркетами у нас на протяжении 65 млн лет была напряженка. Поэтому мозг сам встроил в себя ограничитель по энергопотреблению - выброс гормонов стресса для прекращения мыслительного процесса на максималках. Почему Вы, кстати, про это не упомянули? Или я пропустил? Это, как говорится, медецинских факт. Так зачем нам тритить время на прочтения фантазий разных фантазеров - так называемых психологов-аналитиков?
Вы ещё в Олламу не смотрели... На одной и той же задаче vLLM в 5 раз быстрее. llama.cpp - где-то посередине. А вообще, возьня со всеми этими фрейморками напоминает установку драйверов для принтера на юниксе в 90х годах прошлого века.
Один из упомянутых им подходов — system prompt learning, где учение происходит на уровне токенов и контекстов, а не веса модели, наподобие того, как мозг обрабатывает информацию во сне.
Да, именно так мозг обрабатывает данные во сне. LOL. Надо ему скинуть линк на лекцию про висцеральную теорию сна. Там фишка в том, что мозг во сне переключается на техобслуживание харда: печени, кишенчник, желудок и т.д. Так что модели ночью, когда юзеры спят, должны починять кулеры, блоки питания... :)
Высокий ключ (клочевая ставка) убивает производство с высокой добавленной стоимостью и длинным циклом производства. Для этого понимания необязательно САУ заканчивать :(
Если Вы про "идею" Ларина, то это не идея. Это была его диссертация или докторская работа, сейчас не помню уже. Учёные мужи из комиссии почесали репу, но ничего не придумали, чтобы раскритиковать. На том и разошлись. Если теория Ларина верна, то это ж сколько всего "научного" надо в утиль-сырьё исторический музей науки сдавать. Кто на это пойдёт?
Очень убедительная гипотеза появленя воды — в книге "Наша Земля" В.Н.Ларин. Если коротко: ядро Земли - металлическое с огромным количеством "запакованного" водорода (металлгидриды), который постоянно выходит из ядра, вступая по дороге в реакцию со всем что попадается на пути. Так что, океаны будут только увеличиваться, и вовсе не из-за таяния льдов.
Для меня "прорыв" в моделях случился, когда Гемини сразу смогла объяснить, в чём тут цимес:
как у коня сказала зоя олег зарделся ну а то и принялся с любовью гладить пальто
Жду следующего "прорыва" — у "домашних" моделей :) Ваша (T-pro-it-2.0-GGUF:Q8_0) пока "не решилась":
Ещё вариант: "Как у коня сказала Зоя" — возможно, Зоя сказала "Как у коня хвост — длинный и тонкий", а потом Олег, смутившись, начал гладить пальто, потому что "хвост" и "пальто" звучат похоже? Но "хвост" и "пальто" — не рифма, но возможно ассоциация.
Если я правильно понимаю, это зависит от объёма данных, на которых модеть натаскивали. Конечно, говорим "Гугл" — подразумеваем "данные", но вот интересно, дойдут ли до такого уровня локальные модели?.. Или для юмора, особенно нижнепоясного, нужны триллионы параметров?
Шерлок Холмс и доктор Ватсон летят на воздушном шаре. Попадают в густой туман и теряют ориентацию. Тут небольшой просвет – и они видят на земле человека. – Уважаемый не подскажете ли где мы находимся? – В корзине воздушного шара, сэр. Тут их относит дальше и они опять ничего не видят. – Это был математик, – говорит Холмс. – Но почему? – Ну во-первых, он очень долго думал над простым вопросом, во-вторых, он ответил АБСОЛЮТНО правильно, и в-третьих, его ответ АБСОЛЮТНО бесполезен.
И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?
Я уже который год тестирую модели на память простым вопросом: перечисли все действия Пилата в МиМ. И только в этом году гугловская Гемини 2.5 смогла точно ответить на этот вопрос. Что как бы намекает, что этот роман ей скормили много раз. Вот интересно, сколько? Десятки, сотни? Гемма 3 до сих пор фантазирует.
Это через какие "горы" вы перешли? :)
Ну так значит уже можно доверить GPT-5 расследование загадочного дела о т.н. самоубийстве Сучира Баладжи - бывшего сотрудника OpenAI. Может чат-гпт именно в этой области умнее не только следователей, но и самого Сэма...
Вот такая вот пчела против мёда.
Вбрасывают нам вбрасывают, а мы обсуждаем и обсуждаем... И главное - почти каждый комментатор знает как оно самом деле!
Лучше бы ограничение 128к на контекстное окно убрали
Автор, вы же сами написали в первой статье, что мозг в режиме "с бутербродом на диване" (c) тратит около 8% от всей потреблённой организмом энергии, а в режиме "матан" или "выбор лучшего жениха" - аж до 25% доходит.
Опять же, как Вы писали, с холодильниками и супермаркетами у нас на протяжении 65 млн лет была напряженка. Поэтому мозг сам встроил в себя ограничитель по энергопотреблению - выброс гормонов стресса для прекращения мыслительного процесса на максималках. Почему Вы, кстати, про это не упомянули? Или я пропустил?
Это, как говорится, медецинских факт.
Так зачем нам тритить время на прочтения фантазий разных фантазеров - так называемых психологов-аналитиков?
Вы ещё в Олламу не смотрели...
На одной и той же задаче vLLM в 5 раз быстрее. llama.cpp - где-то посередине.
А вообще, возьня со всеми этими фрейморками напоминает установку драйверов для принтера на юниксе в 90х годах прошлого века.
Да, именно так мозг обрабатывает данные во сне. LOL.
Надо ему скинуть линк на лекцию про висцеральную теорию сна. Там фишка в том, что мозг во сне переключается на техобслуживание харда: печени, кишенчник, желудок и т.д.
Так что модели ночью, когда юзеры спят, должны починять кулеры, блоки питания... :)
Кто-то где-то очень хочет присосаться к какому-то бюджету. Такая вот вечно молодая тема.
Больше интересно про отвод бабла.
Высокий ключ (клочевая ставка) убивает производство с высокой добавленной стоимостью и длинным циклом производства.
Для этого понимания необязательно САУ заканчивать :(
https://www.youtube.com/watch?v=JSDf0IGqwag
Если Вы про "идею" Ларина, то это не идея. Это была его диссертация или докторская работа, сейчас не помню уже. Учёные мужи из комиссии почесали репу, но ничего не придумали, чтобы раскритиковать. На том и разошлись. Если теория Ларина верна, то это ж сколько всего "научного" надо в
утиль-сырьёисторический музей науки сдавать. Кто на это пойдёт?Очень убедительная гипотеза появленя воды — в книге "Наша Земля" В.Н.Ларин.
Если коротко: ядро Земли - металлическое с огромным количеством "запакованного" водорода (металлгидриды), который постоянно выходит из ядра, вступая по дороге в реакцию со всем что попадается на пути. Так что, океаны будут только увеличиваться, и вовсе не из-за таяния льдов.
Для меня "прорыв" в моделях случился, когда Гемини сразу смогла объяснить, в чём тут цимес:
как у коня сказала зоя
олег зарделся ну а то
и принялся с любовью гладить
пальто
Жду следующего "прорыва" — у "домашних" моделей :)
Ваша (
T-pro-it-2.0-GGUF:Q8_0) пока "не решилась":Ещё вариант: "Как у коня сказала Зоя" — возможно, Зоя сказала "Как у коня хвост — длинный и тонкий", а потом Олег, смутившись, начал гладить пальто, потому что "хвост" и "пальто" звучат похоже? Но "хвост" и "пальто" — не рифма, но возможно ассоциация.
Если я правильно понимаю, это зависит от объёма данных, на которых модеть натаскивали. Конечно, говорим "Гугл" — подразумеваем "данные", но вот интересно, дойдут ли до такого уровня локальные модели?.. Или для юмора, особенно нижнепоясного, нужны триллионы параметров?
Почему-то вспомнил анекдот:
Шерлок Холмс и доктор Ватсон летят на воздушном шаре. Попадают в густой туман и теряют ориентацию. Тут небольшой просвет – и они видят на земле человека.
– Уважаемый не подскажете ли где мы находимся?
– В корзине воздушного шара, сэр.
Тут их относит дальше и они опять ничего не видят.
– Это был математик, – говорит Холмс.
– Но почему?
– Ну во-первых, он очень долго думал над простым вопросом, во-вторых, он ответил АБСОЛЮТНО правильно, и в-третьих, его ответ АБСОЛЮТНО бесполезен.
Прочитал заголовок как "для нового мирового порядка...".
Почему-то...
Так что с Вихрем делать-то? В качестве системного использовать?
Не ожидал, что Гемини в студии бесплатная. Надо посмотреть.
И что с ним делать? Это системный? Я старорожимный юзер, поэтому не смог найти инструкцию для модели в этом Вихре. Какие требования к длине контекста? Только топ-модели потянут? И я не понял, почему модель должна день ото дня под меня подстраиваться, если я пользуюсь апи-ключом (например, опенрутера) или вообще локальной моделью? Какие облачные топ-модели сохраняют историю и пользуются ей при использовании только апи-ключа?
А где промпт? )
Я уже который год тестирую модели на память простым вопросом: перечисли все действия Пилата в МиМ.
И только в этом году гугловская Гемини 2.5 смогла точно ответить на этот вопрос. Что как бы намекает, что этот роман ей скормили много раз. Вот интересно, сколько? Десятки, сотни?
Гемма 3 до сих пор фантазирует.