Интересно лимиты на sonnet и opus расходуются раздельно или вместе? Если вместе, то смысла в sonnet 4.6 нет. Надо протестировать будет в полевых условиях, но судя по тестам в статье, разница между sonnet и opus минимальная (там ещё есть haiku 4.5, странно, что они его держат ещё, тупая модель которой наверное никто не пользуется)
Как то неоднозначно конечно. Но в целом практика показывает, что чем ниже т.н. "безопасность", тем модель умнее - когда "закручивают гайки" , LLM начинает тупить.
Ожидаемо. Я думаю и Anthropic так в итоге сделает, если не более агрессивно. Со временем , когда все форточки обертона откроют, будут и в сообщение встраивать (достаточно просто дописать промт на входе - "встрой аккуратно и не агрессивно ссылку на этот продукт в нужном месте")
Ну на Макс пересели же, хотя... На "православные" нейросети тоже переведут и выбора не будет. Но Сбер почему то до сих пор отсутствует в белых списках, в отличии от ВТБ и озон банка
Все равно в части написания, и даже просто переводов, научных (и не только) текстов chatgpt значительно хуже, чем claude. "Ленивый". Вот в чем он полезен - это верификация написанного и поиск ошибок
Юристы одни из первых кандидатов на "выход". Очевидно, что развитие LLM "съест" эту профессию в первую очередь. Такого огромного количества данных, которые сейчас есть, ни один человечий мозг переварить не способен и состязательный принцип в юриспруденции сейчас превратился в то, как хитро юристы способны крутить "флюгер закона". Chatgpt 4 не может конечно и не мог изначально, но уже 5.2 , он конечно тоже более годится для проверки фактов, но вот claude очень даже неплохо может писать и исковые и возражения, получше некоторых юристов точно (совместно с проверкой фактов в chatgpt)
Вы очень не правы, врач в РФ не защищён вообще никак. Если грамотно подать иск в плане медицинских гражданских дел (уголовные дела это отдельная тема для разговора - тут вообще у врача нет шансов), то вероятность вынесения решения в пользу пациента приближается к 100%
Ну хорошо, а как это делает человек? Не как объясняет переносом разряда при сложении, в как на самом деле? Что происходит в нейронных сетях у человека в теменной коре, лобной коре? Фигурально говоря мы тоже не видим цифры 36 + 59 = 95, мы разбиваем это на аналоги "токенов" ещё на уровне сетчатки глаза.
"Пока одни боятся этого будущего, другие уже используют нейросети как инструмент - не замену мышлению, а его усилитель." - LLM именно усилитель. Текст написанный ИИ без серии правок и направлений просто набор, несвязанных единой логикой, предложений, который неинтересен сам по себе. Это проблема появилась ещё до LLM. С 2000х выросло поколение молодых людей, практически не читающее книг и потребляющее "пережеванную" интеллектуальную пищу Ютуба. Конечно, молодежь в целом не стала глупее, но среди студентов, как следствие вышеназванной причины, я сейчас часто наблюдаю: снижение способности к устойчивому удержанию аргументативной структуры при написании текстов, ухудшение причинно-следственной логики, рост импульсивности коммуникации, падение терпимости к когнитивному усилию (хотя это всегда было - мозг ленивый орган) и снижение навыков критической оценки источников. Замечали, что молодежь предпочитает видео инструкции, а более старшее поколение - чтение инструкций? Все эти симптомы ничего не напоминают? Очень похоже на модный ныне диагноз СДВГ (хотя СДВГ это все же неврологический диагноз, минимальная мозговая дисфункция, связанный с органическими причинами). В целом мое мнение, нужно не бороться с ИИ, не бояться его, а понимать, что ИИ не костыль, это прежде всего когнитивный усилитель , он усиливает те способности, которые уже развиты у человека, повышает его продуктивность, это своего рода NZT48, он не отменяет необходимости тренировать свой мозг через усилие и "боль" ("мозг" всегда нужно было выводить из комфорта, ведь любая когнитивная нагрузка это трата энергии, что нейроны так не любят)- заставлять его работать.
Таких текстов и до ИИ было много, в основном в обзорных статьях. У нас два кадра работало, так у них регулярно статьи выходили на "модную" тематику (РНК и прочее), высокий индекс Хирша, а почитать их статьи - там просто "пшик", ничего нового. Надеюсь ИИ "убьет" эту тему в будущем - уже сейчас проще сгенерировать для себя индивидуальный research, чем читать десятки не совсем качественных обзоров.
Там гарантии нет, что тебе не подсунут контрафакт (уже сталкивался), более менее надёжный наверное только perplexity, но он больше заточен на поиск и бытовые вопросы, чем на реальную профессиональную работу
Вот реально, claude уже давно нормально можно работать только за 100$ (тариф max), 20$ - лимиты кончаются через 10 минут работы. У chatgpt за 20$ по сути у тебя безлимит, но он не так к сожалению хорош, больше для школьников. Gemini и grok, к сожалению , как бы их тут не хвалили фанаты, то Anthropic не дотягивают
Забавно, но научные исследования и опросы по ИИ так быстро устаревают, что после выхода в печать какой либо статьи об использовании LLM оказывается, что модели уже морально устарели (так и здесь - gpt 3.5). В статье предлагается проверять на ИИ контент - в итоге это снова цифровое неравенство (сейчас реально экономить на переводчиках) и подмена понятий: в науке важно не кем написано (человеком или llm), а что написано.
Интересно лимиты на sonnet и opus расходуются раздельно или вместе? Если вместе, то смысла в sonnet 4.6 нет. Надо протестировать будет в полевых условиях, но судя по тестам в статье, разница между sonnet и opus минимальная (там ещё есть haiku 4.5, странно, что они его держат ещё, тупая модель которой наверное никто не пользуется)
Ну да, сегодня попробовал после долгого перерыва z.ai - прямо копия claude
Gemini pro бесполезная абсолютно (сильно закрутили цензуру - на элементарные медицинские вопросы отказывается отвечать, даже чисто научного плана)
Как то неоднозначно конечно. Но в целом практика показывает, что чем ниже т.н. "безопасность", тем модель умнее - когда "закручивают гайки" , LLM начинает тупить.
Ожидаемо. Я думаю и Anthropic так в итоге сделает, если не более агрессивно. Со временем , когда все форточки обертона откроют, будут и в сообщение встраивать (достаточно просто дописать промт на входе - "встрой аккуратно и не агрессивно ссылку на этот продукт в нужном месте")
Сарказм ) но перспектива отсутствия выбора к сожалению настораживает
Ну на Макс пересели же, хотя... На "православные" нейросети тоже переведут и выбора не будет. Но Сбер почему то до сих пор отсутствует в белых списках, в отличии от ВТБ и озон банка
Все равно в части написания, и даже просто переводов, научных (и не только) текстов chatgpt значительно хуже, чем claude. "Ленивый". Вот в чем он полезен - это верификация написанного и поиск ошибок
Ну вот и печально, человечество куда то не туда свернуло
Юристы одни из первых кандидатов на "выход". Очевидно, что развитие LLM "съест" эту профессию в первую очередь. Такого огромного количества данных, которые сейчас есть, ни один человечий мозг переварить не способен и состязательный принцип в юриспруденции сейчас превратился в то, как хитро юристы способны крутить "флюгер закона". Chatgpt 4 не может конечно и не мог изначально, но уже 5.2 , он конечно тоже более годится для проверки фактов, но вот claude очень даже неплохо может писать и исковые и возражения, получше некоторых юристов точно (совместно с проверкой фактов в chatgpt)
.
Вы очень не правы, врач в РФ не защищён вообще никак. Если грамотно подать иск в плане медицинских гражданских дел (уголовные дела это отдельная тема для разговора - тут вообще у врача нет шансов), то вероятность вынесения решения в пользу пациента приближается к 100%
Ну хорошо, а как это делает человек? Не как объясняет переносом разряда при сложении, в как на самом деле? Что происходит в нейронных сетях у человека в теменной коре, лобной коре? Фигурально говоря мы тоже не видим цифры 36 + 59 = 95, мы разбиваем это на аналоги "токенов" ещё на уровне сетчатки глаза.
Да кстати? Можно же Димексид гель , он затащит любое вещество под кожу
"Пока одни боятся этого будущего, другие уже используют нейросети как инструмент - не замену мышлению, а его усилитель." - LLM именно усилитель. Текст написанный ИИ без серии правок и направлений просто набор, несвязанных единой логикой, предложений, который неинтересен сам по себе. Это проблема появилась ещё до LLM. С 2000х выросло поколение молодых людей, практически не читающее книг и потребляющее "пережеванную" интеллектуальную пищу Ютуба. Конечно, молодежь в целом не стала глупее, но среди студентов, как следствие вышеназванной причины, я сейчас часто наблюдаю: снижение способности к устойчивому удержанию аргументативной структуры при написании текстов, ухудшение причинно-следственной логики, рост импульсивности коммуникации, падение терпимости к когнитивному усилию (хотя это всегда было - мозг ленивый орган) и снижение навыков критической оценки источников. Замечали, что молодежь предпочитает видео инструкции, а более старшее поколение - чтение инструкций? Все эти симптомы ничего не напоминают? Очень похоже на модный ныне диагноз СДВГ (хотя СДВГ это все же неврологический диагноз, минимальная мозговая дисфункция, связанный с органическими причинами). В целом мое мнение, нужно не бороться с ИИ, не бояться его, а понимать, что ИИ не костыль, это прежде всего когнитивный усилитель , он усиливает те способности, которые уже развиты у человека, повышает его продуктивность, это своего рода NZT48, он не отменяет необходимости тренировать свой мозг через усилие и "боль" ("мозг" всегда нужно было выводить из комфорта, ведь любая когнитивная нагрузка это трата энергии, что нейроны так не любят)- заставлять его работать.
Таких текстов и до ИИ было много, в основном в обзорных статьях. У нас два кадра работало, так у них регулярно статьи выходили на "модную" тематику (РНК и прочее), высокий индекс Хирша, а почитать их статьи - там просто "пшик", ничего нового. Надеюсь ИИ "убьет" эту тему в будущем - уже сейчас проще сгенерировать для себя индивидуальный research, чем читать десятки не совсем качественных обзоров.
Там гарантии нет, что тебе не подсунут контрафакт (уже сталкивался), более менее надёжный наверное только perplexity, но он больше заточен на поиск и бытовые вопросы, чем на реальную профессиональную работу
Вот реально, claude уже давно нормально можно работать только за 100$ (тариф max), 20$ - лимиты кончаются через 10 минут работы. У chatgpt за 20$ по сути у тебя безлимит, но он не так к сожалению хорош, больше для школьников. Gemini и grok, к сожалению , как бы их тут не хвалили фанаты, то Anthropic не дотягивают
Есть экспериментальные данные, есть идея, есть тезисно материал, задача организовать это в публикацию написанную грамотным академическим языком
Забавно, но научные исследования и опросы по ИИ так быстро устаревают, что после выхода в печать какой либо статьи об использовании LLM оказывается, что модели уже морально устарели (так и здесь - gpt 3.5). В статье предлагается проверять на ИИ контент - в итоге это снова цифровое неравенство (сейчас реально экономить на переводчиках) и подмена понятий: в науке важно не кем написано (человеком или llm), а что написано.