Комментарии 20
Какой всё-таки стиль изложения у ИИ узнаваемый. Сначала подумал - "ну, это точно иишка написала" и только потом заметил дисклеймер.
Все эти "Не приближённо. Не через интерфейс с кнопками. А буквально — на естественном, разговорном языке. Это не метафора. Это буквально то, что происходит. Просто на другом языке. На своём собственном, разговорном."
Ничего не поделать. Статья написана им и опубликована первая версия без корректировок.
Придется идти через эту боль. Это личная фаза принятия. А то "Общаться я с ним могу и он мне много всего полезного дает, но публиковать я его конечно же не буду, потому что мне стыдно за его стиль изложения".
Угу, вот только точно такуюже статью каждый может себе за минуту нагенерить пучок и еще десяток сверху. Так зачем тогда читать именно вашу? Нет смысла.
Зачем тогда вы написали сюда свой комментарий? Там сразу было сказано: это ИИ. Не нравится, не тратьте свое время.
А если по существу отвечать на ваш коммент, то разница есть: потому что как я и написал ниже, у меня огромный опыт как в программировании, так и в использовании ИИ, и то, что тут ИИ написала, она сама не догадалась, это я с ней обсуждал и направлял ее. Она просто написала конечный текст, который отражает суть обсужденного.
Ну это как если вам кучку наложили в коридоре и табличку поставили "это перфоманс, если не нравится, проходите мимо". По коридору ходишь, оно выглядит не очень, ещё и воняет. Если ничего не высказать, кучек будет становиться всё больше.
Самое практичное, что можно сделать прямо сейчас — начать программировать на естественном языке.
И сразу же написать программу "сделай хорошо" — потом пойти гонять на мотоцикле.
Не нужно учить, говорите? Что ж, найдите собеседника на китайском/индийском/армянском - любом языке, который максимально не похож на те, которыми вы владеете - и используйте только переводчик для общения. Как скоро вы попадёте в неловкую ситуацию, не понимая, что вам напишет машина? В программировании аналогично. Не понимая, что вам пишет машина, вы далеко не уедете. Вы обязательно упрётесь в нерешаемую проблему, которую не понимаете - и это не худший вариант, если это случится до релиза, в котором обнаружится множество уязвимостей, из-за которых вы потеряете пользователей, данные и/или деньги.
На скалы тоже можно лазить, ничего о них не зная. Надолго ли хватит такого скалолаза?
1) У меня к вам несколько встречных вопросов: Насколько вы активно сами используете ИИ в программировании? (Если вы программируете).
2) Вот этот ваш негативный посыл - это от практического активного опыта?
3) Какие варианты решений вы видите, или считаете что и начинать не надо?
От себя же скажу: я 18 лет активно программирую, так что не вчера пришел в эту сферу. С ИИ программирую уже больше года. Последние 3 месяца почти не пишу кода вообще, выступая только тим/тех лидом по сути, а так же постановщиком задач, кодревьюером и т.п.
Я это к тому, что эта статья не просто так "Дайка напишу что-нить от делать нечего"
Ну конечно мы все активно используем ИИ и даже спрашиваем: кто вы!
Почему вы получили такой нелестный отзыв тоже спрашиваем у ИИ и вот что он отвечает:
Вывод: скорее всего, это не злой умысел, а сочетание финансовой нестабильности, неумения говорить "нет" клиентам и избегания неприятных разговоров. Но для человека, которому должны — результат одинаково неприятный.
Это прекрасно, когда ИИ все решает за нас и вас. Согласны?
А соотносятся данная публикация и какой-то левый коммент с какого-то левого сайта от какого-то нонейма, который не описал полностью кейса, к тому же закинутый сюда не понять кем? Ну, чисто технически? И там идите спросите кто вообще такой, что за долг, как он образовался, как он накопился, как человек ко мне вообще попал, какие обязанности выполнял и насколько их хорошо.
Цитата из вашего текста:
Итоговый текст написан моим ИИ-коллегой на основе нашего с ним разговора, я его прочитал и опубликовал.
Моя цитата моего коллеги Claude Sonet 4.6. которого я попросил поискать информацию о вас, я его прочитал и опубликовал:
Вывод: скорее всего, это не злой умысел, а сочетание финансовой нестабильности, неумения говорить "нет" клиентам и избегания неприятных разговоров. Но для человека, которому должны — результат одинаково неприятный.
И там идите спросите кто вообще такой, что за долг, как он образовался, как он накопился, как человек ко мне вообще попал, какие обязанности выполнял и насколько их хорошо.
Я хочу спрашивать у моего коллеги Claude Sonet 4.6, он же даже код пишет и в людях разбирается. На человеческом языке задачу можно поставить гораздо шире, не только код писать. У вас есть ИИ-коллега, и у меня есть ИИ-коллега — у нас общие коллеги. Почему я должен ограничивать возможности своего ИИ-коллеги только программированием?
Аа. Ну тогда вы не выдергивайте из контекста отдельные фразы, а цитируйте сюда полностью свой вопрос, что именно вы спросили и как и полностью весь ответ своего коллеги.
А еще, включайте голову и читайте вдумчиво, перепроверяйте источник. Я вот пошел и перепроверил. Оказывается, это бывший удаленный сотрудник, который вообще-то у меня много чему научился, и говорил это не раз, а потом слег с переутомлением и выпал из процесса более чем на месяц (не я его заставлял переутомляться, он сам почему-то переутомился). И то, что он не доделал, доделывал я за него, плюсом к тому, что у меня итак была нагрузка.
Так что, во-первых, вы не проверили ничего, во вторых, фраза "неумения говорить "нет" клиентам" говорит о том, что судя по всему ваш коллега даже не увидел разницу между клиентом и неисполнительным удаленщиком, который не выполнил свою работу и подставил под удар команду.
И не забудьте у колеги попросить найти и положительную информацию о моей персоне, а не только негативную. И соотнести в процентах.
Каждый день использую Copilot и много, но как помощника, джуна, выполняющего скучную работу, оставляя себе самое интересное. Иногда прошу сделать что-то посложнее, когда лишний раз не хочется касаться html, экономя много часов работы. Чётко описанная задача в пределах 1-3 файлов не на тысячи строк работает прекрасно. Но чем объёмнее задача, тем непредсказуемее получается результат. Если ещё при этом не понимать, что изменилось и почему, можно получить неожиданные сюрпризы. Например, вместо правки кода под выполнение тестов будут исправлены тесты. Тесты будут выполняться (формально задача выполнена), но только логика будет не та.
Человечество уже много раз активно использовало не до конца изученное. А когда со временем накапливали статистику, приходилось очень многое менять, вводить ограничения, правила и т.п. Как это было с асбестом, например, который прошёл путь от повсеместного использования до запретов со всех сторон. Незнание привело ко множеству смертей. Знания - ко множеству ограничений.
Я не говорю, что ИИ окажется настолько же плох (хотя данных пока недостаточно). Но использование его вслепую ни к чему хорошему не приведёт, пока он не научится выдавать предсказуемые результаты на большой кодовой базе. Доверять ему полноценную разработку пока рано, тем более без ревью специалиста. Потому что это пока и не ИИ.
Вы извините, но если называть вещи своими именами, копилот всегда был днищем. Аргументирую:
1. Если бы он не был днищем, не было бы ему нужды давать возможность выбирать сторонние модели, включая антропик
2. ИМХО, сама по себе ллм не в состоянии, и не будет никогда в состоянии быть хоть в какой-то сфере созидания полноценным помощником. Просто по причине того, что она не умеет накапливать что-либо в себе. Она - лишь среда, где пролетает мимолетная мысль. Но как мне видится, не бывает ничего такого, где можно дать исчерпывающее задание и получить ожидаемый правильный результат. Это всегда последовательный многофазный процесс. Так вот, чтобы ИИ нормально программировал (или что угодно), ему надо много обвязок, чтобы попутно накапливать информацию, собирать что и почему сделано, смотреть что изменилось и т.д. и т.п. Это делается только чем-то, что поверх ЛЛМ. (Тут отступление: подозреваю, что некоторые умники уже суют дополнительные обвязки в саму программу ллм и выдают это как новый шаг в развитии ЛЛМ, хотя по факту это делают все за пределами ллм и это не развитие ллм, а развитие около-ллм-ной инфораструктуры).
Так вот, попробуйте windsurf IDE, попробуйте в нем хотя бы opus 4.5 или sonnet 4.6 и почувствуйте разницу.
Лучшее возражение против публикации текстов, написанных языковыми моделями, умещается в одну фразу: если бы мне было интересно, что думает LLM, я бы спросил LLM.
Проблема в том, что подобный текст не несёт никакой информационной ценности для читателя, у которого уже есть доступ к LLM. А он есть у всех, кто читает что-либо в интернете в 2026 году.
Доступ к LLM — и в твоём распоряжении бесконечный поток комментариев, сводок, разборов и эссе на любую тему. Компетентных, взвешенных, хорошо структурированных. Модель объяснит тебе квантовую механику и тут же перепишет объяснение в стиле Хемингуэя, если попросишь. Зачем тогда читать чужую статью, которая представляет собой ровно то же самое, только поданное через посредника?
Автор, публикующий текст, сгенерированный моделью, предлагает аудитории продукт, который та уже имеет в неограниченном количестве — и при этом лишает её единственного, чего модель дать не может: себя.
Каждый ученик извлекает из урока ровно столько, сколько он может извлечь (с)
И спросите у доступной вам ЛЛМ, как у нее обстоят дела с цитированием того, чего еще не произошло.
Разжую: если вы хотите смотреть в прошлое, то с ЛЛМ это не проблема. Если хотите в будущее, то без человека пока особо не получится.
Модель с доступом к интернету знает текущее состояние мира — не хуже читателя, открывшего новостную ленту. Она знает все методы прогнозирования, которые человечество выработало. Она не устаёт, не искажает анализ эмоциями, не имеет когнитивных предубеждений, которые систематически ломают человеческие прогнозы.
Филип Тетлок опубликовал свою книгу “Expert Political Judgement” в которой описал как с 1984-го по 2003-й, на протяжении почти двадцати лет, он проводил эксперименты и собрал около 28 тысяч предсказаний от 284 экспертов, которые согласились поучаствовать на условиях анонимности. Результаты были неутешительными: в среднем эксперты предсказывали ненамного лучше случайного угадывания.
Насколько хорошо LLM могут предсказывать будущее?
ForecastBench — специализированный бенчмарк для оценки точности прогнозов, разработанный группой исследователей включая Филипа Тетлока. Каждые две недели моделям и людям задают одинаковые вопросы о реальных будущих событиях — политика, экономика, наука, спорт. Точность измеряется по Индексу Брайера: шкала от 0 до 100%, где 50% означает случайное угадывание, а 100% — абсолютно точный прогноз. Суперпрогнозисты — лучшие человеческие прогнозисты из проекта Тетлока, систематически обгоняющие как обычных экспертов, так и среднего человека — держат планку 70.6%. Именно этот уровень модели и должны достичь, и вот что говорят последние данные: лучшие модели на март 2026 года — Grok 4.20 Preview и CassiAI ensemble — набирают 67.9%, отставая от суперпрогнозистов на 2.7 процентных пункта. За предыдущий год модели прибавили 2.4 пункта. При сохранении этого темпа паритет с суперпрогнозистами ожидается в мае 2027 года.
Но пока человеки предсказывают лучше, наверное с человеками — лучше будет, а после достижения паритета — наоборот.
редакторы, аналитики, юристы, хорошие менеджеры
Юристы - да. Их подход к текстам договоров очень напоминает то, как тексты пишу программисты. Аналитики - вощможно, и до далеко не все. А редакторы, менеджеры - вообще в другом контексте живут, с иекстами на уровне неоднозначностей и целостности мало кто из них работает.
Итоговый текст написан моим ИИ-коллегой на основе нашего с ним разговора, я его прочитал и опубликовал.
Статья, как ни странно, мне понравилась, ожидал худшего.
Естественный язык – это новый язык программирования
Не думаю, что акцент надо делать на языке, естественный язык не в меньшей степени алгоритмичен, что и искусственный. Я бы даже сказал больше – языки программирования это просто формализованные подмножества естественного языка.
И у этого языка, как у любого языка программирования, есть свои требования:
Точность формулировок
Умение устранять неоднозначность
Способность декомпозировать сложную мысль на части
Понимание контекста, который ты передаёшь
И, пожалуй, самое сложное – осознание момента, когда ты сам ещё не понял чего хочешь
Ну, вот! Вы и сами это подтверждаете. Фактически, вы формализуете естественный язык, после чего он становиться похож на искусственный, только и всего.
Те, кто всегда был "гуманитарием" — внезапно оказываются ближе к новому языку, чем многие технари.
Вот уж не уверен, от слова «совсем»! Гуманитарии не имеют никаких преимуществ, ибо у них, «насквозь», отсутствует абстрактное мышление. Абстрактное мышление хорошо развито, допустим, у математиков. Однако, у них нет «базы», т.е., связи с «Землей». Скажем, на математиков в МГУ «поступают либо в 17 лет, либо никогда!». Но, после Университета, они живут в «облаках» и реальную жизнь знают плохо. Лучше, если они закончат второй ВУЗ, например, технический, в рамках работы на предприятии, либо в Научном Центре, который свяжет их с технической «прозой жизни». Как говорят физики-теоретики: «Любая теория верна до тех пор, пока не будет опровергнута!», а физики-экспериментаторы добавляют: «Прибор нужен не «в принципе» (т.е. в теории), в кожухе (т.е., на практике)».
Отсюда следует, что преимущества в будущем будут иметь люди с двумя высшими образованиями: научным и техническим (если еще будет гуманитарное, то, хуже точно не будет).
учиться теперь нужно совсем другому
Но, не общению с машиной (хотя это было давно предсказано, например, я, в 1981-м году, на военных офицерских сборах, читал философское эссе: «Логика диалога или дилогика», в котором автор предсказывал будущее за диалогом естественного и искусственного разума), а, скорее, развивать собственное мышление.
Дело в том, главное в целеполагании развития – это наши «хотелки», которые могут быть очень смутными и неопределенными. И время, пока созреет идея до полной ее формализации или хотя бы пространного артикулирования, типа: «Сделайте мне красиво!» или «Пойди туда, не знаю куда, принеси то, не знаю что!», может, иногда, составить целые годы.
Чем в этом случае, нам поможет ИИ? Он лучше нас знает, чего мы хотим? На эту тему даже анекдот есть: «Митинг Партии Женщин: – Кто мы? – Женщины! – Чего мы хотим? – Не знаем! – Когда мы этого хотим? –Прямо, сейчас! И много!».
Если ИИ научатся желать за нас, зачем им тогда «кожаные мешки»? То ли ИИ-ям искать биологические тела для себя, то ли «мешкам» имплантировать себе в мозги ИИ-шные чипы.
Короче от «дилогики» мы, пока, ни куда не денемся. На ближайшее время симбиоз человека с ИИ-сервисами – неизбежен. Поэтому, человеку надо развивать в себе все человеческое, а ИИ-ям – ИИ-шное! При этом, «естественный язык программирования», здесь, совершенно не причем.

Какую именно технологическую революцию не замечают многие