Согласно исследованию Корнелльского университета, опубликованному в журнале Science в декабре 2025 года, использование больших языковых моделей повышает продуктивность учёных на 30–50%, а для исследователей из неанглоязычных стран — до 50–90%.
Тут забыли написать, что под «продуктивностью» в этом исследовании подразумевается количество статей. Еще это же исследование утверждает, что их язык становится более качественным. А вот, собственно, научный вклад, падает!
На практике, эта горизонтальная линия «продуктивности» может находится как на середине максимальной высоты пика, так и на 1/10 от него. И на 1/100. И на 1/1000…
Сильнейших (и не очень) игроков спасает, обычно, не другое направление бизнеса, а государство: «мы же не можем допустить, что бы они рухнули, иначе нас Китай сразу съест, давайте напечатаем им 3—4 триллиарда денег!»
Я понял, что объединяет все те задачи, которыми может в будущем заниматься ИИ!
Есть необходимое условие: сейчас этими задачами занимается кто-то другой, и ты лично с ним эту работу не обсуждал. Всем понятно, что ИИ (без постоянного присмотра) не справится с твоей задачей. Но вот этот кто-то другой — он же, ясное дело, полной фигней занимается, бумажки перекладывает, в его случае ИИ должен справится!
«Преждевременность» — это взгляд из будущего. Технологий не было тогда, технологии появились позже, значит перегрев был «преждевременным», а не пузырем.
Но в тот-то момент не известно было появятся ли технологии (и другие не менее важные факторы) через 10—20 лет!
И некоторым, на первых порах, даже может показаться, что проверять проще чем создавать. Это уже пото-о-ом внезапно (я подчеркиваю, внезапно!) выяснится, что при проверке пропустить ошибку намного проще…
Вы подразумеваете, что глобальная цель‑то задана — ответ в формате JSON, и значит эта фраза должна быть в поле «ans». Но! Модель с большой долей вероятности это проигнорирует и исполнит вашу просьбу, сгенерировав простой текст.
В реальной жизни, модель может наткнутся на что-то отдаленно напоминающее вопрос в обрабатываемом тексте и бросится на него отвечать, наплевав и на json-формат и на промт вообще.
Я думаю, стоимость тут имеет вторичное значение. Роботодатель может считать, что проверять, проще чем писать самому. Это не так, по крайне мере не в разы. Концепция замены 3-х кодеров на одного надсмотрщика за 3-я LLM-ами, привет к огромному и быстрому росту технического долга.
90% означает, что в реализации базовой (!) задачи, в 1 случае из 10 будет лажа. И тут не важно, 1 это из 10 или из 30. На практике, это означает, что нужно пере-проверять все. На первый-то взгляд решение будет убедительным. Самое печальное, и для многих не очевидное: если LLM хорошо справляется с задачей, это не значит, что она хорошо справится с очень-очень похожей задачей! Малозаметные нюансы используемых слов и языковых паттернов могут развернуть ее мышление совершенно непрогнозируемо.
Не-е, они сами. Или, можно сказать, это общее свойство моделей вообще. Так же как любой метод интерполяции данных может соврать в «додуманных» точках, и даже скорее всего соврет.
Из списка были вычищены *все* разработчики с почтовым адресом в ru. Видимо, по удивительному совпадению, абсолютно все из них работают в подсанкционных компаниях?
Тогда сразу будет разоблачение фокуса. Кто же за такое заплатит?!
Тут забыли написать, что под «продуктивностью» в этом исследовании подразумевается количество статей. Еще это же исследование утверждает, что их язык становится более качественным. А вот, собственно, научный вклад, падает!
Только тут на оси ординат не хватает делений.
На практике, эта горизонтальная линия «продуктивности» может находится как на середине максимальной высоты пика, так и на 1/10 от него. И на 1/100. И на 1/1000…
Сильнейших (и не очень) игроков спасает, обычно, не другое направление бизнеса, а государство: «мы же не можем допустить, что бы они рухнули, иначе нас Китай сразу съест, давайте напечатаем им 3—4 триллиарда денег!»
Я понял, что объединяет все те задачи, которыми может в будущем заниматься ИИ!
Есть необходимое условие: сейчас этими задачами занимается кто-то другой, и ты лично с ним эту работу не обсуждал. Всем понятно, что ИИ (без постоянного присмотра) не справится с твоей задачей. Но вот этот кто-то другой — он же, ясное дело, полной фигней занимается, бумажки перекладывает, в его случае ИИ должен справится!
«Преждевременность» — это взгляд из будущего. Технологий не было тогда, технологии появились позже, значит перегрев был «преждевременным», а не пузырем.
Но в тот-то момент не известно было появятся ли технологии (и другие не менее важные факторы) через 10—20 лет!
И некоторым, на первых порах, даже может показаться, что проверять проще чем создавать. Это уже пото-о-ом внезапно (я подчеркиваю, внезапно!) выяснится, что при проверке пропустить ошибку намного проще…
Эксперты предсказывают автоматизацию задач! Но пока не могут составить список этих задач…
Ага, заодно с Зеленым переходом™!
В реальной жизни, модель может наткнутся на что-то отдаленно напоминающее вопрос в обрабатываемом тексте и бросится на него отвечать, наплевав и на json-формат и на промт вообще.
Я думаю, стоимость тут имеет вторичное значение.
Роботодатель может считать, что проверять, проще чем писать самому. Это не так, по крайне мере не в разы.
Концепция замены 3-х кодеров на одного надсмотрщика за 3-я LLM-ами, привет к огромному и быстрому росту технического долга.
Будем кодить в минус, но что ж поделать — таков прогресс!
90% означает, что в реализации базовой (!) задачи, в 1 случае из 10 будет лажа. И тут не важно, 1 это из 10 или из 30. На практике, это означает, что нужно пере-проверять все. На первый-то взгляд решение будет убедительным.
Самое печальное, и для многих не очевидное: если LLM хорошо справляется с задачей, это не значит, что она хорошо справится с очень-очень похожей задачей! Малозаметные нюансы используемых слов и языковых паттернов могут развернуть ее мышление совершенно непрогнозируемо.
Ожидания прогресса ИИ:
дурак → разумный → гений → супер-гений
Реальный прогресс ИИ:
дурак → быстрый дурак → супер-быстрый дурак → 10 супер-быстрых дураков спорящих друг с другом о задаче
Сэм Альтман разочаровался в термине «окупаемость». Новая цель — суперзатраты!
Не-е, они сами. Или, можно сказать, это общее свойство моделей вообще. Так же как любой метод интерполяции данных может соврать в «додуманных» точках, и даже скорее всего соврет.
Есть вполне конкретные люди, которые с этим не заморачиваются — называются первичными психопатами. Вот бы хорошо, что бы все такими были, да?
…и через некоторое время аналитики OpenAI обнаружили, что сети стало выгоднее отвечать «я не знаю», даже при 95% уверенности.
Да не важно сколько человек: всех у кого адрес в зоне ru — выпилили. (И Serge Semin). Всех остальных — оставили. Критерий весьма очевиден.
Из списка были вычищены *все* разработчики с почтовым адресом в ru. Видимо, по удивительному совпадению, абсолютно все из них работают в подсанкционных компаниях?