Люди, которые не разобрались с экономикой предприятия в Экселе - теперь разберутся, благодаря более сложной системе учёта. Ага ага. Как правдоподобно.
Тут по сети недавно ходила хорошая ироничная байка про внедрение ИИ в компании. Там было что-то про электронное письмо, которое можно прочитать за 30 секунд, благодаря использованию ИИ-саммаризации можно изучить за 45. Эта очень похожа на неё.
Отличная статья! Давно это заметил и именно от Антропика.
Что интересно: они выигрывают от хайпа сейчас, но потом теряют от разочарования пользователей. Люди, на основании прессы воспринимают ЛЛМ не как сложный инструмент, а как осознанный субъект и ждут чудес.
Всё это фигня с поиском паттернов, уж извините. )) Хотя интересно, как практическое упражнение.
В статьях, написанных ИИ раздражают не слова и паттерны, а конкретные недостатки "мусорных" текстов. Я бы выделил следующие:
Много воды (информации не несущей смысла);
Отсутствие одной чёткой идеи в тексте. Вместо этого - несколько идей и "перепрыгивание" между ними;
Много лишней смысловой информации, которая запутывает, а не помогает понять главную идею.
Можно ещё что-то выделить. Но это может сделать только человек, внимательно изучая раздражающие тексты. А потом, на основании этого, сформулировать чёткий промпт, который бы определял эти моменты в статьях.
А все эти типичные паттерны (характерные слова, пробелы, знаки препинания) - для людей особо и не важны. Зато модель, при обучении, скорее всего, именно на них будет обращать внимание. Игнорируя существенные проблемы.
Я уже заметил, после того, как прокомментировал. ))
Но, и тут на здоровье. Я сам с хабра подписался на несколько каналов. Если полезная информация в статье и канале, то почему бы и нет.
И ладно, на кликбейт в названии и неактуальность можно закрыть глаза. Но, если уже привлёк внимание, то хоть в тексте дай полезной информации. А так одно раздражение. Какое-то броуновское движение у таких деятелей.
Елена, а какая максимальная (или скорее оптимальная) длина контекста для обычного промпта современных моделей (GPT 5, Sonet 4,5, Gemini 2.5 pro)? Обычных чатов, Без использования RAG и продвинутых решений.
Так, чтобы быть полностью уверенным, что весь текст будет обработан и учтён?
Я понимаю, что вопрос не только в количестве токенов, а и в чёткости. Но, тем не менее интересно знать хотя бы примерные рамки.
Как они задолбали с этим распространением магической чуши про живые существа.
Да, их работа выходит за рамки привычного понимания машин и алгоритмов. Но, они не перестают быть чем-то другим. Просто, это очень сложные и впечатляющие алгоритмы. Они расширяют наше понимание алгоритмов.
Прошлые технологии тоже были не предсказуемые и меняли правила игры. Изобретение ДВС или Интернета поменяли мир не хуже вашего ИИ. И тоже вызовы не хилые создали.
Что-то память у вас не самая выдающаяся. Очень много было маленьких нишевых специализированных сайтов с уникальным контентом. А на больших часто бывал поверхностный и схематичный контент.
Но, дело вообще не в сравнении кто лучше. А в том, что поисковики так и не справились с задачей поиска по релевантности за все эти годы. И просто отдали весь трафик большим ресурсам, чтобы не усложнять себе работу с алгоритмом.
Я бы делал всё по другому, но это ваш путь. Главное тут, как по мне: "лучше сделать и пожалеть, чем жалеть всю жизнь, что не сделал".
Нету другого способа набраться реального опыта, кроме как через практику и ошибки. Что-то можно изучить на чужом опыте, но только делая самостоятельно всё ощущается совсем по другому.
Все больше психологически здоровых людей увлекаются психотерапией, начинают искать в себе травмы и расстройства. Психотерапия иногда даже приобретает полный контроль над их жизнью, а лечащий специалист становится абсолютным авторитетом, духовный лидером
Если у автора "психологически здоровые люди" делают из специалиста "абсолютного авторитета, духовного лидера" и виновата в этом психологизация, то значит автор абсолютно ничего не смыслит в базовых понятиях психологии.
Дальше можно было бы и не читать остальную чушь про "границы" которые "мешают социализации". И про то, что земля налетит на небесную ось.
Автор, пишите на те темы, в которых хоть что-то понимаете. Тогда жить будет не так страшно.
П
Большинство "психологов" конечно ещё те дилетанты и аферисты, но реальных проблем в этой сфере вы даже по касательной не зацепили.
Ваш сарказм на мой критический комментарий вполне логичен и понятен.
Также, мне понятно ваше желание охватить необъятное в статье. Дать максимум информации для убедительности. Сам иногда грешу этим. А потом сложно вычитывать это, чтобы не было противоречий.
Но, вот изучая навыки работы с контентом, всё-таки понял, что важно держать одну идею на текст. И всё, что не помогает в ее раскрытии - отбрасывать.
Не понимаю, кто наставил лайков этой статье?Это какая-то компиляция сгенерированных ИИ текстов, с разными идеями и аргументами, которые противоречат друг другу. Уровень эмоциональности текста меняется от абзаца к абзацу (писал коллектив авторов? 😁 ).
Сначала автор жалуется на галлюцинации, а потом, в середине, объясняет почему это нормально для моделей. В начале про "пузырь который лопнет", в конце "пинок который продвинет". А поверхностный "анализ" доходов и количества пользователей из заявлений Альтмана - даже повеселил немного.
В общем, с этим салатом ИИ абзацев невозможно ни спорить, ни согласиться.
Вы проводили эксперименты или фантазируете, как упомянутые "ведущие" инженеры?
Уверен, что фантазируете. Потому, что если задание "роли" ещё может улучшить качество ответа, то всё остальное - это магическое мышление.
Задание в роли "отличник" будет только заставлять модель имитировать речь "отличника". То есть, часть токенов мышления будут направлены на создание имитации а не на решение. И ответ скорее будет даже хуже.
Вывод: роль задавать полезно, но только в той степени, которая поможет модели сузить специфику вашего вопроса. А всякая водянистая шелуха, не несущая смысла: "отличник", "Мегамозг", "вундеркинд" - будет только отвлекать модель от решения, как и упомянутые кошки.
Люди, которые не разобрались с экономикой предприятия в Экселе - теперь разберутся, благодаря более сложной системе учёта. Ага ага. Как правдоподобно.
Тут по сети недавно ходила хорошая ироничная байка про внедрение ИИ в компании. Там было что-то про электронное письмо, которое можно прочитать за 30 секунд, благодаря использованию ИИ-саммаризации можно изучить за 45. Эта очень похожа на неё.
Отличная статья! Давно это заметил и именно от Антропика.
Что интересно: они выигрывают от хайпа сейчас, но потом теряют от разочарования пользователей. Люди, на основании прессы воспринимают ЛЛМ не как сложный инструмент, а как осознанный субъект и ждут чудес.
Всё это фигня с поиском паттернов, уж извините. )) Хотя интересно, как практическое упражнение.
В статьях, написанных ИИ раздражают не слова и паттерны, а конкретные недостатки "мусорных" текстов. Я бы выделил следующие:
Много воды (информации не несущей смысла);
Отсутствие одной чёткой идеи в тексте. Вместо этого - несколько идей и "перепрыгивание" между ними;
Много лишней смысловой информации, которая запутывает, а не помогает понять главную идею.
Можно ещё что-то выделить. Но это может сделать только человек, внимательно изучая раздражающие тексты. А потом, на основании этого, сформулировать чёткий промпт, который бы определял эти моменты в статьях.
А все эти типичные паттерны (характерные слова, пробелы, знаки препинания) - для людей особо и не важны. Зато модель, при обучении, скорее всего, именно на них будет обращать внимание. Игнорируя существенные проблемы.
Что бы не делал Майкрософт, в результате получится Интернет Эксплорер!
В котором:
80% обычных запросов будет блокироваться по соображениям безопасности;
Будет принудительно установлен в Винду;
Его будут 10 лет "фиксить и улучшать", пока не откажутся окончательно и не начнут использовать движок от эффективного ИИ на тот момент времени.
О! Спасибо! Это именно то, что мне нужно.
Я уже заметил, после того, как прокомментировал. ))
Но, и тут на здоровье. Я сам с хабра подписался на несколько каналов. Если полезная информация в статье и канале, то почему бы и нет.
И ладно, на кликбейт в названии и неактуальность можно закрыть глаза. Но, если уже привлёк внимание, то хоть в тексте дай полезной информации. А так одно раздражение. Какое-то броуновское движение у таких деятелей.
Ваша новость с душком, ведь ей уже не меньше месяца. А за лживый кликбейт в названии я бы вам отдельное место в аду выделил.
Ну, и про пять видео в месяц - тоже полуправда. Пять - если быстрый режим (низкое качество). Если высокого качества - то всего лишь одно в месяц.
Итого:
Новость которая что лет не новость;
Лживый кликбейт в названии;
Заявленная в названии информация подана неверно.
И только один вопрос остаётся, зачем вы это делаете??? На благодарность читателей надеетесь?
Елена, а какая максимальная (или скорее оптимальная) длина контекста для обычного промпта современных моделей (GPT 5, Sonet 4,5, Gemini 2.5 pro)? Обычных чатов, Без использования RAG и продвинутых решений.
Так, чтобы быть полностью уверенным, что весь текст будет обработан и учтён?
Я понимаю, что вопрос не только в количестве токенов, а и в чёткости. Но, тем не менее интересно знать хотя бы примерные рамки.
Как они задолбали с этим распространением магической чуши про живые существа.
Да, их работа выходит за рамки привычного понимания машин и алгоритмов. Но, они не перестают быть чем-то другим. Просто, это очень сложные и впечатляющие алгоритмы. Они расширяют наше понимание алгоритмов.
Прошлые технологии тоже были не предсказуемые и меняли правила игры. Изобретение ДВС или Интернета поменяли мир не хуже вашего ИИ. И тоже вызовы не хилые создали.
Что-то память у вас не самая выдающаяся. Очень много было маленьких нишевых специализированных сайтов с уникальным контентом. А на больших часто бывал поверхностный и схематичный контент.
Но, дело вообще не в сравнении кто лучше. А в том, что поисковики так и не справились с задачей поиска по релевантности за все эти годы. И просто отдали весь трафик большим ресурсам, чтобы не усложнять себе работу с алгоритмом.
Тоже не очень понимаю, что вы имеете ввиду под рекурсивным промптом? Объясните в двух словах, очень интересно.
Здесь просто пропущен "ИИ", который не в том состоянии. Обычная механическая ошибка, не вижу повода падать в обморок.
В общем, интересно было почитать.
Я бы делал всё по другому, но это ваш путь. Главное тут, как по мне: "лучше сделать и пожалеть, чем жалеть всю жизнь, что не сделал".
Нету другого способа набраться реального опыта, кроме как через практику и ошибки. Что-то можно изучить на чужом опыте, но только делая самостоятельно всё ощущается совсем по другому.
Верно. Идеализация кого-либо, включая психолога - признак инфантильности. И объект идеализации тут никак не виноват. )
Если у автора "психологически здоровые люди" делают из специалиста "абсолютного авторитета, духовного лидера" и виновата в этом психологизация, то значит автор абсолютно ничего не смыслит в базовых понятиях психологии.
Дальше можно было бы и не читать остальную чушь про "границы" которые "мешают социализации". И про то, что земля налетит на небесную ось.
Автор, пишите на те темы, в которых хоть что-то понимаете. Тогда жить будет не так страшно.
П
Большинство "психологов" конечно ещё те дилетанты и аферисты, но реальных проблем в этой сфере вы даже по касательной не зацепили.
Ваш сарказм на мой критический комментарий вполне логичен и понятен.
Также, мне понятно ваше желание охватить необъятное в статье. Дать максимум информации для убедительности. Сам иногда грешу этим. А потом сложно вычитывать это, чтобы не было противоречий.
Но, вот изучая навыки работы с контентом, всё-таки понял, что важно держать одну идею на текст. И всё, что не помогает в ее раскрытии - отбрасывать.
Не понимаю, кто наставил лайков этой статье?Это какая-то компиляция сгенерированных ИИ текстов, с разными идеями и аргументами, которые противоречат друг другу. Уровень эмоциональности текста меняется от абзаца к абзацу (писал коллектив авторов? 😁 ).
Сначала автор жалуется на галлюцинации, а потом, в середине, объясняет почему это нормально для моделей. В начале про "пузырь который лопнет", в конце "пинок который продвинет". А поверхностный "анализ" доходов и количества пользователей из заявлений Альтмана - даже повеселил немного.
В общем, с этим салатом ИИ абзацев невозможно ни спорить, ни согласиться.
А афтерефект чем можно заменить?
Что за Смит и какие вирусы? ))
Вы проводили эксперименты или фантазируете, как упомянутые "ведущие" инженеры?
Уверен, что фантазируете. Потому, что если задание "роли" ещё может улучшить качество ответа, то всё остальное - это магическое мышление.
Задание в роли "отличник" будет только заставлять модель имитировать речь "отличника". То есть, часть токенов мышления будут направлены на создание имитации а не на решение. И ответ скорее будет даже хуже.
Вывод: роль задавать полезно, но только в той степени, которая поможет модели сузить специфику вашего вопроса. А всякая водянистая шелуха, не несущая смысла: "отличник", "Мегамозг", "вундеркинд" - будет только отвлекать модель от решения, как и упомянутые кошки.