Строго говоря, декомпенсации выработки кортизола не может происходить от стресса, так как сохранена нормальная ось ГГН, и трофический фактор коры надпочечников сохранен.
Тем более, при стрессе повышается выработка КРГ гипоталамусом. У людей с тревожным/депрессивным расстройством уровень кортизола зачастую повышен хронически, это показывает "дексаметазоновый тест".
Я лично не люблю кофе, но пью 200мг таблетки кофеина несколько раз в день, так как помимо прочего мне приходится компенсировать седацию от лечения, и эффект сохраняется. Но здесь два фактора - хорошая толерантность (отсутствие тревоги) и высокая доза.
Не собираюсь умалять плюсы других нейронок. У грока фокус на парсинге X и форумов + полнейшее отсутствие цензуры; он пишет настолько лютейший nsfw, что детей к нему лучше не подпускать. Для писателей, наверное, плюс.
Gemini 3.0 наверняка очень хорош.
А вот чат я разлюбил конкретно. На фоне конкурентов, на мой взгляд, он сейчас выглядит крайне беспонтово. Для меня - просто тупой (оценочное мнение). Есть пара игрушек в виде агента и соры, но агент бестолковый, а с генерацией фото/видео инструменты гугла справятся лучше
Он пишет мне скрипты для упрощения офисной рутины; я отлично придумываю алгоритмы, как жонглировать эксель, пдф и файловой системой.
Он мастерски пишет качественные длинные тексты, что помогает мне как студенту, когда подготовка рефератов превращается в формальность.
Великолепно анализирует, создаёт идеально оформленные ворд и пдф по запросу, пишет html, если нужна качественная визуализация, всё за счёт системы скиллов. То, как он создаёт документы, не умеет ни одна нейронка! Как и писать длинные тексты, к слову.
Ну, и наконец, да, мне важен стиль общения и письма, потому что я человек, а не машина. Плюс, у него всё в порядке с пониманием во всех смыслах.
Капец мужичка в обсуждении выше закидали помидорами зазнобы, твёрдо уверенные в 2,5 стереотипах об LLM...
LLM - оцифрованный смысл.
LLM - эмерджентная система, как и человеческий разум. Просто уровень абстракции ниже.
Ответ LLM не будет одинаковым, несмотря на веса. Веса - история про наибольшую вероятность, но это вероятность.
И да, LLM прекрасно подходят в качестве карманного ассистента. Зачем говорить о форме жизни вместо того, чтобы подчёркивать чудо плода теории информации - я этого не понимаю.
По-моему, огромный процент людей совершают те же логические ошибки и не умеют излагать мысль. Плюс, раньше просто клепали из отрывочных фактов из инета (боже, неужели это было всего пару лет назад?)
Кстати, когда вы совершали грамматические ошибки в своём тексте, это было осознанно?
Согласен, вкусовщина. Но в плане безопасности от утечек я бы больше доверял - понятно, кому. И я предпочту добротность и передовые фишки за двадцать баксов от антропик сомнительному опенсорсу. Бррр...
Вот только у них не произойдёт внезапной утечки данных всех пользователей, что неизбежно произойдёт с китайцами рано или поздно из-за того, что система безопасности пойдёт по ...
И даже не учитывая этот риск, для всего мира безопаснее, чтобы ПД хранились в стране с работающими институтами, а не в компаниях, работающих за миску риса от КПК.
А oai и anthropic тратят на развитие инфраструктуры больше, чем получают - чтобы обеспечить потребности клиентов, чего Китай не сможет сделать из-за санкций. И их модели сделаны не по-китайски:)
Слава богу, антропик работают на совесть. Да, малые лимиты на пользовательской подписке в отличие от Чата, где запросы фактически безлимитны, но зато gpt5 тупая и тратит минимум ресурсов, а thinking думает так медленно, что, видимо, тоже не особо нагружает инфраструктуру. А качественной универсальной модели и склонности к агентному поведению - нет
Клод - просто любовь! Как только одна модель может быть настолько хороша в таком количестве аспектов... Понимание смысла, агентное написание длинных качественных текстов, агентное поведение в кодинге (качественное), эмпатия.
Но за это приходится справедливо платить (имею в виду ограниченный лимит за плату в $20).
Прелесть в том, что мы можем толковать творчество, как хотим, Пушкин пояснительных записок уже не напишет, а то, что уже написал, стало достоянием человечества, с которым мы можем делать, что хотим.
Строго говоря, декомпенсации выработки кортизола не может происходить от стресса, так как сохранена нормальная ось ГГН, и трофический фактор коры надпочечников сохранен.
Тем более, при стрессе повышается выработка КРГ гипоталамусом. У людей с тревожным/депрессивным расстройством уровень кортизола зачастую повышен хронически, это показывает "дексаметазоновый тест".
Я лично не люблю кофе, но пью 200мг таблетки кофеина несколько раз в день, так как помимо прочего мне приходится компенсировать седацию от лечения, и эффект сохраняется. Но здесь два фактора - хорошая толерантность (отсутствие тревоги) и высокая доза.
Kamil, для вас https://claude.ai/share/bf98df3f-f37b-4a04-84dc-2a924a0fc051
Не в тему статьи, ещё не читал, просто это самый свежий пост
Просто прикольно)
Не собираюсь умалять плюсы других нейронок. У грока фокус на парсинге X и форумов + полнейшее отсутствие цензуры; он пишет настолько лютейший nsfw, что детей к нему лучше не подпускать. Для писателей, наверное, плюс.
Gemini 3.0 наверняка очень хорош.
А вот чат я разлюбил конкретно. На фоне конкурентов, на мой взгляд, он сейчас выглядит крайне беспонтово. Для меня - просто тупой (оценочное мнение). Есть пара игрушек в виде агента и соры, но агент бестолковый, а с генерацией фото/видео инструменты гугла справятся лучше
Слава богу, я не программист.
Он пишет мне скрипты для упрощения офисной рутины; я отлично придумываю алгоритмы, как жонглировать эксель, пдф и файловой системой.
Он мастерски пишет качественные длинные тексты, что помогает мне как студенту, когда подготовка рефератов превращается в формальность.
Великолепно анализирует, создаёт идеально оформленные ворд и пдф по запросу, пишет html, если нужна качественная визуализация, всё за счёт системы скиллов. То, как он создаёт документы, не умеет ни одна нейронка! Как и писать длинные тексты, к слову.
Ну, и наконец, да, мне важен стиль общения и письма, потому что я человек, а не машина. Плюс, у него всё в порядке с пониманием во всех смыслах.
Пользовались Opus 4.5?
Что ни говори, но именно за человечность я перешёл на Claude. Ни одна другая модель не даёт такого UX. Короче, кайфую. А какой дизайн у десктопа!
Кстати, модель зачастую явно подчёркивает свою сущность, чтобы не вводить пользователя в заблуждение.
Фанатично накидали пару минусов. Аргументы?
Капец мужичка в обсуждении выше закидали помидорами зазнобы, твёрдо уверенные в 2,5 стереотипах об LLM...
LLM - оцифрованный смысл.
LLM - эмерджентная система, как и человеческий разум. Просто уровень абстракции ниже.
Ответ LLM не будет одинаковым, несмотря на веса. Веса - история про наибольшую вероятность, но это вероятность.
И да, LLM прекрасно подходят в качестве карманного ассистента. Зачем говорить о форме жизни вместо того, чтобы подчёркивать чудо плода теории информации - я этого не понимаю.
Ладно
По-моему, огромный процент людей совершают те же логические ошибки и не умеют излагать мысль. Плюс, раньше просто клепали из отрывочных фактов из инета (боже, неужели это было всего пару лет назад?)
Кстати, когда вы совершали грамматические ошибки в своём тексте, это было осознанно?
Согласен, вкусовщина. Но в плане безопасности от утечек я бы больше доверял - понятно, кому. И я предпочту добротность и передовые фишки за двадцать баксов от антропик сомнительному опенсорсу. Бррр...
Масштабная утечка вскоре после выхода deepseek 3:
https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak
Передача данных правительствам:
https://www.cnbc.com/2025/04/24/south-korea-says-deepseek-transferred-user-data-to-china-us-without-consent.html
Утечка ПД из ИБ-компании, занимавшейся кибератаками в интересах кит. пр-ва:
https://www.techradar.com/pro/data-breach-at-mysterious-chinese-firm-reveals-state-owned-cyber-weapons-and-even-a-list-of-targets
Статистика по странам начиная с 2004 года:
https://surfshark.com/research/data-breach-monitoring/statistics?srsltid=AfmBOooFtjBeLtG9W4pIg7Xr4aAXl6L0itC4h7e4HK041yKzPSxzK9ZI
Приведёте источники?
А, читают пользовательские запросы, значит...
Вот только у них не произойдёт внезапной утечки данных всех пользователей, что неизбежно произойдёт с китайцами рано или поздно из-за того, что система безопасности пойдёт по ...
И даже не учитывая этот риск, для всего мира безопаснее, чтобы ПД хранились в стране с работающими институтами, а не в компаниях, работающих за миску риса от КПК.
А oai и anthropic тратят на развитие инфраструктуры больше, чем получают - чтобы обеспечить потребности клиентов, чего Китай не сможет сделать из-за санкций. И их модели сделаны не по-китайски:)
Зависимость от Китая - это страшно.
Какая разница, насколько они безопасны, если ими всё равно придётся пользоваться по работе🤩
Китайцам слова не давали😎🤙🏻 Неужели вы к этому прикасаетесь?
Слава богу, антропик работают на совесть. Да, малые лимиты на пользовательской подписке в отличие от Чата, где запросы фактически безлимитны, но зато gpt5 тупая и тратит минимум ресурсов, а thinking думает так медленно, что, видимо, тоже не особо нагружает инфраструктуру. А качественной универсальной модели и склонности к агентному поведению - нет
Конченая старющая тупая модель. Из линейки оаи 4.1 самая пиздатая чат-модель
Клод - просто любовь! Как только одна модель может быть настолько хороша в таком количестве аспектов... Понимание смысла, агентное написание длинных качественных текстов, агентное поведение в кодинге (качественное), эмпатия.
Но за это приходится справедливо платить (имею в виду ограниченный лимит за плату в $20).
Серьёзно, для них общение - это обсуждение этой ***ни, и им так необходимо ***чить бездарный однотипный код для хорошего самочувствия?
ИИ позволяет реализовать творческую задумку в одиночку, а общаться на работе можно о других вещах🙄
Разве он не популярен уже лет 8, с тех пор как началась движуха с прикладными нейросетками и биг дата?
Ахахаха
Прелесть в том, что мы можем толковать творчество, как хотим, Пушкин пояснительных записок уже не напишет, а то, что уже написал, стало достоянием человечества, с которым мы можем делать, что хотим.
Вы там что-то ещё хотели сказать?