Comments 80
>>Секс, любовь и роботы
Сериал называется "Любовь, смерть и роботы", а не то, что вы там себе нафантазировали
Дудь в попу программистам — больше не обязательно.
Оговорка почти по Фрейду.
Моих друзей, уехавших в Нидерланды, немного удивляет и даже возмущает, что сантехники зарабатывают больше них.
Ради интереса поискал, какая же зарплата у сантехников в нашей лягушачьей стране. Оказалось, в среднем 3200 евро в месяц. У тех, которые работают как предприниматели, часовая ставка 40 евро.
Вопрос: где вашим друзьям удалось устроиться на такую низкую зарплату, что она даже ниже, чем зарплата сантехника?
возможно они были удивлены что почасовая стоимость физического труда достаточно хорошо оплачивается
--
Стоимость вызова сантехника в Нидерландах в 2025 году зависит от характера работ, срочности и времени суток. Ниже представлены ориентировочные расценки:
💧 Стандартные тарифы
Почасовая ставка: от €65 до €85, включая НДС и выезд мастера.
Фиксированная цена за вызов и первую половину часа работы: €99 (без НДС), включая выезд, диагностику и использование оборудования.
🚨 Срочные и внеурочные вызовы
Срочные работы (в течение 24 часов): доплата 50% к стандартному тарифу.
Вечерние вызовы (после 18:00): доплата 50%.
Ночные вызовы (с 22:00 до 07:00) и в праздничные дни: доплата 100%.
🛠️ Примеры стоимости работ
Прочистка канализации: от €109.
Установка или замена ванны: от €309.
Подключение холодильника с водоснабжением: от €225.
А что, они хотели, чтобы копошение руками в известной субстанции плохо оплачивалось?
Это стоимость вызова, а не зарплата, не надо путать теплое с мягким
Указанные расценки - это то, что получает компания, присылает сантехника, а не сам сантехник.
Видимо как всегда факт не совсем верен.
Не "в среднем сантехники в Нидерландах получают больше программистов", но "я знаю сантехников, которые зарабатывают больше меня - программиста"
Разница налицо
Пусть заменит, я потом буду контратаковать и заменю его обратно.
Давайте честно, в этой модели мира "крутые и гладкие" тексты и от авторов-людей далёких от передовых краёв наук и технологий набирают много лайков только если они резонансные провокационные. Голосующие в плюс или в минус думают что что-то там поддерживают или против чего-то борются. Ничего кроме мета-иллюзии за этим не стоит, это вам не онлифанс :)
А по сути вопроса, моё мнение, основанное на экстраполяции внешних факторов и личного опыта, говорит о том, что в ближайшие 2 года 20% айтишников будет заменено. Ещё за 5 лет, более двух третей из оставшихся. Это без мистификаций и веры в AGI и тому подобное, то есть ближе к консервативным оценкам. Всех никогда не заменят, это очевидно не целесообразно экономически.
Если смотреть на новости то кажется что есть тенденция к сокращению, если смотреть на цифры - то просто пропал дефицит. Плюс молодые люди перестали выбирать эту специальность (больше не хайпово)
———
За последние три года количество программистов в мире не уменьшилось, а значительно увеличилось.
📈 Рост числа программистов с 2022 по 2025 год
Согласно данным исследовательской компании SlashData, с начала 2022 года по начало 2025 года число профессиональных разработчиков выросло на 70% — с 21,8 млн до 36,5 млн человек. Общее количество разработчиков (включая любителей) достигло более 47 миллионов к началу 2025 года.
JetBrains также подтверждает положительную динамику: количество профессиональных разработчиков увеличилось с 17,3 млн в 2022 году до 19,6 млн в 2024 году.
👥 Изменения в структуре сообщества
Профессионалы: число профессиональных разработчиков значительно выросло.
Любители: число любителей-программистов начало сокращаться, снизившись более чем на 1 миллион за последний год.
Возрастная структура: доля разработчиков в возрасте 18–24 лет снизилась с 33% в 2022 году до 23% в 2025 году, в то время как доля специалистов в возрасте 35–44 лет увеличилась с 22% до 26%.
🧭 Вывод
Таким образом, за последние три года количество программистов в мире значительно увеличилось, особенно среди профессионалов. Однако наблюдается снижение числа начинающих и любителей, что может повлиять на будущий приток новых специалистов в отрасль.
У меня под землёй на даче трубу прорвало, точне земля просела и передовила ПНД трубу. Труба была закопана под 25-30 см, а почва была ещё промерзшей дело было в конце февраля. Так вот вызвал двух человек с перфоратором они за 10-15 мин работы взяли 12000 руб. И я подумал может я не тем занимаюсь, я столько не зарабатываю за 15 мин, хотя вроде и владею хайповой профессией.
они за 10-15 мин работы взяли 12000 руб
За день.
... они за 10-15 мин работы взяли 12000 руб. И я подумал, может, я не тем занимаюсь...
Раз вы не решили эту проблему самостоятельно, то текущий выбор вам всяко больше подходит на данный момент, скиллсет и опыт. Переучиваться, конечно, можно и это не займёт много времени (потому что, как я считаю, в этой сфере побольше паттернов и предсказуемости, просто всё надо делать своими руками и иногда таскать всякое), но вот стоит ли оно того...
вызвал двух человек с перфоратором они за 10-15 мин работы взяли 12000 руб.
А они к Вам телепортировались? Или, может, они всё-таки истратили на Вас пару часов? (Естественно, не на то, чтобы поработать с трубой — а ещё и на то, чтобы сначала добраться собственно до места проведения работ).
Коллега-рекрутер рассказала про возможный тренд на найм возрастных программистов. И дело не в знании древних технологий — ALGOL, Objective-C. А в отношении к работе, в системном мышлении, в опыте. Зумеры — может, ещё ничего. Но Альфа — возможно, уже только в prompt-инженеры.
Ахахаха, найм в айти в 2025-м:
Ты слишком стар, толстяк. А ты - чересчур блондин, мать твою! Вон! Вон отсюда, оба!
Интересные мысли, но, на мой взгляд, весьма противоречивые.
Адам Грант в книге You Are So Good They Can’t Ignore You утверждает, что невозможно получать удовольствие от деятельности, пока не достигнешь в ней уровня мастерства. Это и есть главный парадокс. Как понять, что это твоё, если пока ничего не получается?
Что за книга такая, что за автор. Где можно скачать/купить её? Попахивает галлюцинацией от ИИ, и с высокой вероятностью, т.к. у вас прослеживается, что вы активно ею пользуетесь.
Есть такая интересная картинка:

Чтобы получать удовольствие (я предпочитаю термин радость) от деятельности, нужно соблюдать баланс между сложностью задачи и своими умениями, тогда будешь попадать в потоковый канал. Необязательно достигать уровня мастерства, чтобы это ощутить. В программировании на начальных этапах может увлекать написание самых простых консольных приложений, пока это не наскучит, затем повышаем немного сложность тем самым возвращаемся в поток. А если взяться за задачу несоответствующую своим способностям, то это загонит в тревогу.
Как понять, что это твоё, если пока ничего не получается?
Это тоже сложный вопрос, но мне кажется, что перед тем как чем-нибудь заняться у человека должен быть к этому изначальный и неподдельный интерес. Допустим, я в жизни не пойду, работать каким-нибудь юристом/нотариусом или стоматологом, хотя там тоже можно заработать денег (ну и наверное получать удовольствие от деятельности), мне эти области просто неинтересны и я даже не буду пробовать начинать, а тем более достигать уровня мастерства, чтобы удостовериться, что это "моё".
Попахивает галлюцинацией от ИИ
Видимо, потому как На Самом Деле™ её написал другой дяденька.
Извините, я перепутал Адама Гранта, последние книги которого сейчас читаю, и Кэла Ньюпорта (известного по книге Focused Work). Там кажется в первой главе он критикует Стива Джобса о том что «следовать своему сердцу» может быть плохим советом в выбора профессии. Приводит статистику.
У вас же картинка из книги Михаи Чиксентмихаи - Поток. Автор этого термина. Замечательная книга. Там у него все приметы о людях «в потоке» которые занимаются этим всю жизнь, ~20 лет. Поэтому я не вижу противоречий. Хотя Роберт Мартин, критиковал это состояние (кажется в книге чистый код)
*сейчас в горах с плохим интернетом, не могу проверить орфографии
из книги Михаи Чиксентмихаи - Поток. Автор этого термина. Замечательная книга. Там у него все приметы о людях «в потоке» которые занимаются этим всю жизнь, ~20 лет.
Это где это такое в книге "Поток" написано?) При том, что к этой картинке Михай привёл в пример мальчика, который только учится играть в теннис. Я же привёл аналогию с программированием.

да, вы правы, я забыл про мальчика. Запомнились только деды которые там что-то мастерят. Но помню картинку из The Sciense of Well Being на Coursera/Yale. Там была чёткая визуализация мысли что для того чтобы войти в состояние потока, нужно обладать скилами. Поэтому, мне кажется, что начинаю программисты обычно находятся в зоне Anxiety (беспокойство) - скилов нет, а чэлендж большой, и достаточно сложно упасть в состояние потока (гораздо проще уйти в синдром самозванца)
Интересная картина, в эту сторону я не смотрел. Не нашел, что именно Михай это придумал, нашел только несколько вырезок из книг с подписью к такой картинке "адаптировано Михай", т.е. первоисточник этой картинки найти не удалось, но это, скорее всего, не автор "Потока". Если у вас есть информация, что можно почитать по этой теме, подскажите.
Но тут тоже важный вопрос, как определить координаты центра? Явно этого не видно, это может и быть и уровень студента программиста и уровень программиста с 20 летним стажем. И сложность поставленных перед ними задач получается тоже разный.
Я в целом все равно не согласен с вашим тезисом в статье, что чтобы почувствовать поток нужно достичь в деятельности уровня мастерства.
[del]
"Лошади не исчезнут никогда" - статья, написанная в 1905 году лошадью.
Производительность LLM растёт от поколения к поколению. О программистах из мяса такого сказать нельзя.
Да вы не переживайте за программистов, они придумают что поделать. Лучше переживайте за 90% офисного планктона.
Так и офисный планктон в зоне риска. Но проблема тут в том, что в зоне риска вообще все. И сидеть думать "все умрут а я останусь" - наивно до боли.
В разуме человека никакой магии нет. Если человек может что-то делать, то в теории это может делать и машина. И на практике - маховик прогресса раскручивается, и способности машин становятся всё шире. Меньше чем за 10 лет ИИ прошёл путь от "не может написать и две строчки кода" и до "вайб-кодит условно рабочие сайты лучше среднего джуна". Где ИИ будет через ещё 10 лет прогресса?
Сегодня ИИ приходит за копирайтерами и первой линией в колл-центрах - а завтра может прийти уже за тобой. Тут вопрос уже не "если" - тут вопрос "когда".
В разуме человека никакой магии нет. Если человек может что-то делать, то в теории это может делать и машина
А где такая теория и кто ее автор? Можно ссылки?
Разум человека запихан в мозг. Мозг - физический объект, и его существование - сугубо физический процесс. Любой физический процесс можно переложить на вычислимую математику с высокой, если не абсолютной, точностью. Машина Тьюринга может считать любую вычислимую математику.
Этой цепочки допущений достаточно. Не все из них строго доказаны, но ни одно из них не было опровергнуто - и не от отсутствия попыток.
Так что разум в вычислительную коробочку запихать в теории можно. То, что не все физические процессы детерминированы, ни теоретического, ни практического значения не имеет - у нас поставлена задача не предсказывать результат процесса, а имитировать сам процесс.
На практике для "переложить мозг на математику и посчитать на компьютере с высокой точностью" у нас банально не хватает знаний - ни физики, ни биологии. С нервной системой червя едва справляемся.
Но ещё на практике нам и не нужно делать копию мозга 1:1. Достаточно найти любой практически реализуемый алгоритм, способный выполнять те же функции, что и разум человека. Что сейчас и делается. LLM к этой планке уже чудовищно близки.
Между физическими процессами и возможностью их вычислений большая пропасть, связанная с проблемой измеримости на уровне микромира, а так же попыткой воспроизвести логику хаотических сложных систем, при которой даже минимальная погрешность даст кардинально иной результат. Далее, ни о какой близости LLM к разуму не может быть и речи, пока не решена трудная проблема сознания. Имеет место классическая проблема "китайской комнаты" Серла: для внешнего наблюдателя ответы LLM выглядят так, как будто модель ведёт осмысленный диалог, на деле же понимания в человеческом смысле у нейронной сети нет.
Повторяю ещё раз:
То, что не все физические процессы детерминированы, ни теоретического, ни практического значения не имеет - у нас поставлена задача не предсказывать результат процесса, а имитировать сам процесс.
Хаотичные системы сложно предсказать, но имитировать их не сложнее чем любую другую систему.
Далее, ни о какой близости LLM к разуму не может быть и речи, пока не решена трудная проблема сознания.
Проблемы сознания к практической разработке ИИ не имеют абсолютно никакого отношения.
С точки зрения внешнего наблюдателя нет абсолютно никакой разницы между китайской комнатой, и комнатой с настоящим китайцем. Они функционально эквивалентны. Именно функциональную эквивалентность мы ищем в практически применимом ИИ.
Все эти разговоры про "настоящее" и "ненастоящее" понимание - субъективная философская туфта. В реальном мире мы берём бенчмарк, прокатываем по нему разные ИИ (и иногда людей ради сравнения), и результат бенчмарка - это и есть наша метрика понимания.
Если у нас LLM на бенчмарке по математике показывает 93%, а средний человек - 71%, значит, эта LLM понимает математику лучше среднего человека. Не согласен? Думаешь, бенчмарк не всё покрывает? Пили новый бенчмарк по математике, который на процентной метрике покажет, где у этой LLM в понимании математики слабое место. И смотри как производительность LLM на этом бенчмарке потихоньку растёт от релиза к релизу.
Исходный тезис был о запихивании "разума человека" в машину. Разум человека включает сознание. Если цель создать искусственный аналог человеческого разума (AGI, сильный ИИ), а не просто функциональный инструмент (слабый ИИ), то проблема сознания становится центральной. Игнорировать ее нельзя.
результат бенчмарка - это и есть наша метрика понимания
Это циркулярное определение. Мы определяем понимание через тест, который сами же создали для измерения понимания.
Хаотичные системы сложно предсказать, но имитировать их не сложнее чем любую другую систему
Это технически неверно. Хаотические системы характеризуются: экстремальной чувствительностью к начальным условиям, экспоненциальным расхождением траекторий, невозможностью точной имитации без бесконечной точности. Даже малейшая ошибка округления приведёт к полностью другой траектории системы.
Все эти разговоры про "настоящее" и "ненастоящее" понимание - субъективная философская туфта.
Это уже ложная дихотомия: либо принимаем бенчмарки как меру понимания, либо занимаемся "философской туфтой". Игнорируется возможность объективного изучения качественных различий между разумом человека и машиной.
Нельзя не учитывать, что LLM может показывать высокие результаты на стандартных задачах, но проваливаться на задачах, требующих причинно-следственного мышления, ситуациях с противоречивым контекстом, творческих или нестандартных применениях знаний. К тому же высокий результат на бенчмарках может быть связан с переобучением на похожих данных, эксплуатации статистических паттернов, "взлома" специфики теста без реального понимания.
В общем ваша позиция напоминает бихевиористский подход начала ХХ века, который был отвергнут именно из-за игнорирования внутренних процессов и механизмов.
Опять: зачем сознание? +7.0122% на бенчмарке во-первых намного проще измерить, а во-вторых намного полезнее. Потому что для любого внешнего наблюдателя толку от сознания ноль.
Даже малейшая ошибка округления приведёт к полностью другой траектории системы.
В этом разница между предсказанием и вычислением. Нам не нужно предсказать поведение полностью. Нам нужно найти одну любую случайно выбранную траекторию, совместимую с имеющимися у нас вводными.
Мозг - не хаотичная система вроде погоды, а структурированная самоорганизующаяся система с обратными связями. Его функции (память, обучение) требуют полной и точной воспроизводимости состояний. Ошибка округления в симуляции одного единственного нейрона может привести к невозможности формирования устойчивых нейронных ансамблей, нарушению механизмов долговременной потенциации (база обучения), качественному изменению "траектории" мышления.
Имитация разума требует не "просто любого пути", а биологически корректного воспроизведения процессов. Случайные отклонения разрушают функциональность. Если точная симуляция невозможна из-за хаоса/ошибок, а достаточно "примерной" - это автоматически опровергает тезис о принципиальной вычислимости мозга как физического объекта. Если при имитации процесса разрешено брать произвольные траектории, то это уже не имитация, а генерация правдоподобного результата имитации мозга.
+7.0122% на бенчмарке во-первых намного проще измерить
"Проще измерить" не равно "правильно измерять". Термометр проще применить чем МРТ, но это не значит, что температура расскажет всё о состоянии мозга.
намного полезнее
В критических системах (медицина, авиация, ядерная энергетика) понимание ПОЧЕМУ система приняла решение часто важнее самого решения. "Чёрный ящик" с высоким процентом успеха может быть опаснее человека с меньшим процентом, но понятной логикой.
Подчеркну ещё раз, что мы не можем игнорировать сознание в вопросе воспроизведения разума человека поскольку может быть так, что сознание необходимо для достижения определённого типа интеллекта, метрики могут не отражать качественные аспекты разума, системы без сознания могут иметь фундаментальные ограничения, пока не выявленные нами.
Мозг - не процессор, где ошибкой в одном бите легко обрушить всё. Мозг - биологическая система, сделанная из мокрого мяса.
Нам не нужно вперёд медведя бежать. Нам нужно всего лишь не выбиваться из фонового шума - постоянного источника абсолютно естественной для мозга ошибки, которая уходит корнями аж в биохимию, и в биологической системе неистребима.
Химические реакции протекают случайно, нейроны умирают по случайным причинам, в клетки мозга попадает невнятная химия извне, во все органы чувств натекает случайный шум извне. И мозг с этим обязан справляться. Если мы эмулируем, то все эти конвергентные свойства мозга работают не против нас, а на нас.
"Чёрный ящик" с высоким процентом успеха может быть опаснее человека с меньшим процентом, но понятной логикой.
Понятная логика принятия решений? В человеке? Ха.
Всё что мы знаем о том, как люди принимают решения, ставит идею о "понятной логике принятия решений" под большое сомнение. Человек сам часто не знает, почему принимает решение. Более того - в реальных условиях на принятие решения может уходить 3% "вычислительной мощности" человека - и ещё 90% на то, как уже принятое решение аккуратно обосновать в документации чтобы прикрыть свою задницу. Что очень полезно для задницы того человека - но не очень полезно для системы в целом.
Подчеркну ещё раз, что мы не можем игнорировать сознание в вопросе воспроизведения разума человека поскольку может быть так, что сознание необходимо для достижения определённого типа интеллекта, метрики могут не отражать качественные аспекты разума, системы без сознания могут иметь фундаментальные ограничения, пока не выявленные нами.
"Мы не можем игнорировать Бога в вопросе научного исследования мира, потому что может быть так, что существование Бога абсолютно необходимо для определённых категорий научного познания, и картина мира без Бога не отражает реальный мир. Конечно, мы сейчас таких категорий познания не знаем, и никакой нужды в Боге в нашей картине мира не видим. Но в Бога будем верить, на всякий случай."
У нас нет никаких данных о том, какую роль сознание играет в интеллекте, и играет ли оно какую-то роль вообще. Мы не знаем, есть ли сознание у современных LLM, или у других типов ИИ. Мы не знаем наверняка, есть ли оно у людей - возможно, сейчас 20% населения Земли спокойно себе живут без всякого сознания, а мы и не в курсе. У нас нет ни одного инструмента, способного измерять сознание - и нет ни одной причины считать сознание критически важным компонентом ИИ.
С такими вводными орать про необходимость сознания - это невероятно глупая затея.
Если текущие подходы к ИИ фундаментально ущербны, то мы это обязательно увидим. На бенчмарках - когда производительность ИИ на измеримых задачах упрётся в невидимый потолок. Когда будут найдены задачи, с которыми люди справляются, а современный ИИ принципиально не способен справляться.
Сейчас мы этого потолка не видим.
Нам нужно всего лишь не выбиваться из фонового шума
Это в корне неверно. Вы путаете устойчивость к шуму (способность системы функционировать несмотря на помехи) и хаотическую чувствительность (экспоненциальное расхождение траекторий). Мозг устойчив к случайному шуму, но это НЕ означает, что он не чувствителен к начальным условиям в макромасштабе. Это разные уровни организации системы.
Человек сам часто не знает, почему принимает решение
Если логика принятия решений человеком непонятна, то каким образом вы собрались ее воспроизводить?
Мы не можем игнорировать Бога в вопросе научного исследования мира...
Ложная аналогия. У нас есть прямой доступ к собственному сознанию, это феноменологический опыт. Бог - метафизическая гипотеза, у нас нет прямого эмпирического доступа к божественным сущностям. Это фундаментально разные эпистемологические категории. Сознание - это данность первого лица, а не гипотеза.
Нет данных, что сознание влияет на интеллект
Это не так. Имеется множество нейробиологических коррелятов. Повреждения областей мозга, связанных с сознанием (таламус, кора), резко снижают когнитивные способности. Состояния изменённого сознания (анестезия, кома) сопровождаются потерей высших когнитивных функций. Развитие сознания у детей коррелирует с развитием абстрактного мышления. Если сознание не даёт преимуществ, почему эволюция его создала и поддерживает? Сознание энергозатратно, мозг потребляет 20% энергии организма. Естественный отбор не сохраняет бесполезные дорогие функции. Сознание обеспечивает: глобальную интеграцию информации - связывание данных из разных модальностей, рабочую память - удержание и манипулирование информацией, метакогницию - размышление о собственном мышлении, планирование - моделирование будущих сценариев. Без сознания невозможны рефлексия и самокоррекция, понимание контекста и творческий синтез.
Утверждающий, что "сознание не важно для интеллекта" должен объяснить:
Почему все известные нам интеллектуальные существа обладают сознанием?
Как возможен интеллект без субъективного опыта?
Почему мы должны игнорировать очевидную корреляцию между сознанием и интеллектом?
У нас нет ни одного инструмента, способного измерять сознание
Вы утверждаете, что измеримости метрик ИИ на бенчмарках достаточно для того, чтобы считать ИИ функционально эквивалентным разуму. Далее вы признаёте существование неизмеримых явлений, но почему-то считаете их неважными. Это замкнутая на себе логика: "важно только измеримое - сознание неизмеримо - сознание неважно".
возможно, сейчас 20% населения Земли спокойно себе живут без всякого сознания
Даже если это так, это не опровергает важность сознания для творческого мышления, этических решений, понимания контекста, самосознания и рефлексии.
Если у ИИ есть фундаментальные ограничения, они проявятся в бенчмарках
Это иллюзия исчерпывающих тестов. Бенчмарки измеряют предсказуемые задачи, но не адаптацию к непредвиденным обстоятельствам, смысловое понимание вместо статистической угадываемости, эмпатию и моральные суждения. LLM набирают 95% на тесте по юриспруденции, но предлагают аморальные решения в реальном судебном деле из-за отсутствия осознания последствий. Катастрофические ошибки ИИ могут возникнуть внезапно в уникальных условиях, не охваченных бенчмарками. Это неприемлемо. Аргумент о "невидимом потолке" слишком рискован - мы можем обнаружить ограничения ИИ слишком поздно, когда система уже причинит вред. Ожидание провала на бенчмарках как единственного сигнала об ограничениях - наивно.
Даже если мы не понимаем полностью роль сознания, это не повод игнорировать феномен, который является центральным для человеческого интеллекта, может быть ключом к настоящему пониманию "понимания", потенциально критичен для безопасности.
Если в вашем представлении роль ИИ можно ограничить рамками решения типовых задач с низкой ценой ошибки, то почему бы и нет. Но в таком случае ИИ никак не может претендовать на полноценный аналог разума человека.
Почему все известные нам интеллектуальные существа обладают сознанием?
Обладают ли? Удачи доказать, что у случайно выбранного Васяна вообще есть сознание.
Как возможен интеллект без субъективного опыта?
Мы не знаем, из-за чего возникает "субъективный опыт" и при каких условиях. Это может быть как ключевым элементном интеллекта, так и побочным продуктом. Возможно что субъективный опыт существует и у вещей, интеллектом вовсе не обладающих.
Почему мы должны игнорировать очевидную корреляцию между сознанием и интеллектом?
Где корреляция?
Если бы у нас был тест на уровень сознания, который мы могли бы дать любому человеку (а в идеале и не-людям тоже) и определить, насколько у него есть сознание?
То да, можно было бы посчитать корреляцию тестов на сознание и тестов на интеллект. Но у нас тесты на интеллект есть, а вот на сознание не завезли. Так что корреляция не определена. Она может быть, может не быть, а может быть и вовсе отрицательной.
Катастрофические ошибки ИИ могут возникнуть внезапно в уникальных условиях, не охваченных бенчмарками. Это неприемлемо.
Мы живём в мире победившего мокрого мяса. Мне рассказать, сколько в мире тупых и абсолютно предотвратимых ошибок было совершено мясным интеллектом?
Уже сейчас на многих задачах ИИ ошибается реже людей. Включая профессиональных людей, которым за качество работы платят.
Удачи доказать, что у случайно выбранного Васяна вообще есть сознание
Это классический аргумент солипсизма, который при последовательном применении делает невозможной любую науку о человеке, противоречит презумпции аналогии (другие люди похожи на меня), игнорирует поведенческие и нейрофизиологические корреляты сознания.
Если вы сомневаетесь в сознании других людей, почему вы вообще с ними спорите? Зачем писать тексты для потенциальных философских зомби?
Это может быть как ключевым элементом интеллекта, так и побочным продуктом
А может быть чем-то ещё? Например, эмерджентным свойством сложных когнитивных процессов, функциональным механизмом (по типу глобального рабочего пространства в теории Станисласа Деана), эволюционным адаптационным инструментом (интеграция информации для принятия решений)? И да, "побочные продукты" не сохраняются эволюцией, если они энергозатратны.
Возможно что субъективный опыт существует и у вещей, интеллектом вовсе не обладающих
Здесь мы зачем-то приплетаем панпсихизм. Нейронаука опровергает идею, что сознание есть у неразумных объектов, нужен минимально достаточный уровень сложности организации объекта, чтобы он мог иметь сознание. Но гипотетически, даже если панпсихизм верен, это не отменяет связь между сложным сознанием и интеллектом.
Где корреляция? ... у нас тесты на интеллект есть, а вот на сознание не завезли
Простите, но это неправда. Существуют тесты на уровень сознания: Glasgow Coma Scale, тесты на метакогницию, самосознание у детей (зеркальный тест). GSC - это клинический инструмент для оценки уровня сознания у пациентов с черепно-мозговыми травмами (ЧМТ), инсультами или другими повреждениями мозга.Есть нейрофизиологические маркеры сознания. Например, P300 - это положительный пик в ЭЭГ, возникающий примерно через 300 мс после предъявления значимого стимула. Он отражает процессы сознательного внимания, распознавания и принятия решений. Он появляется только если стимул достигает сознания. Есть гамма-ритм - высокочастотные колебания в мозге, связанные с интеграцией информации между различными областями коры. Гамма-активность резко возрастает, когда стимул достигает сознания (например, в экспериментах с бинокулярным соперничеством). У пациентов под наркозом или в коме гамма-активность подавлена. Безусловно, эти маркеры имеют свои ограничения и условия применимости. Но приравнивать отсутствие идеального теста к отсутствию корреляции вообще - значит отрицать огромный массив данных современной нейронауки.
Мне рассказать, сколько в мире тупых и абсолютно предотвратимых ошибок было совершено мясным интеллектом?
Whataboutism про человеческие ошибки. То, что люди ошибаются, не означает, что мы должны создавать системы с новыми типами ошибок. Человеческие ошибки понятны и предсказуемы, ошибки ИИ - в основном нет. Это аргумент типа "два зла делают добро".
Уже сейчас на многих задачах ИИ ошибается реже людей
Ключевой аспект - это не частота, а тип ошибки. ИИ может делать ошибки, невозможные для человека (например, видеть школьный автобус на картинке с котиками). Количество ошибок и их критичность или предсказуемость - разные вещи. Здесь мы рискуем попасть в статистическую ловушку. Точность ИИ измеряется на ограниченных наборах данных, но, реальный мир - открытая система с непредсказуемыми событиями ("Чёрные лебеди"). LLM не способны к каузальным рассуждениям - их ошибки принципиально иные.
Она может быть, может не быть, а может быть и вовсе отрицательной
Это есть эпистемологический релятивизм. По такой логике, мы не можем утверждать вообще ничего. В том числе неважность сознания для имитации естественного интеллекта.
Если мы не уверены, важно ли сознание, разумнее предполагать, что важно. Иначе создав AGI без сознания, мы можем упустить что-то критически важное, что будет иметь негативные последствия.
Вы одновременно утверждаете:
Мы не можем знать, есть ли сознание у людей;
ИИ превосходит людей в интеллектуальных задачах;
Сознание не важно для интеллекта.
Но если мы не знаем (1), как мы можем утверждать (3)? И если (2) верно без сознания, почему эволюция создала сознание?
Вы пытаетесь занять позицию радикального скептицизма в отношении сознания, но догматизма в отношении его неважности. Это философски несостоятельная позиция, поскольку она основана на выборочном игнорировании фактов, методологическом нигилизме и внутренних противоречиях. Если сводить аргументацию к "мы не можем идеально измерить Х, следовательно Х не важен" - это будет абсурдно для любого сложного феномена. Попытка приравнять интеллект к статистической эффективности ИИ влечет за собой отрицание, что человеческий разум - это не только обработка данных, но и способность к смыслообразованию, интенциональность (направленость на объект), экзистенциальная рефлексия. Именно эти свойства делают человеческие ошибки предсказуемыми, а отсутствие их у ИИ создаёт неприемлемые риски.
Клиническое определение сознания - это буквально измерение способности мозга реагировать на раздражители. О наличии, отсутствии или степени субъективного восприятия это говорит очень мало.
А варианты с зеркальным тестом или измерениями импульсов мозга конечно весёлые - но можно сделать абсолютно то же самое с LLM. И сказать, например: "вот тут LLM узнаёт собственный чатлог в изображении - значит, ИИ осознаёт себя", или "вот тут мы видим активацию, которая возникает при принятии сложных решений, но не при принятии простых решений - значит, информация достигла сознания LLM". Точность этих методов сомнительна.
Сознание неизмеримо. Мы не понимаем что это, не понимаем как это измерять, и единственный надёжный способ определить его наличие или отсутствие строго субъективен. Что остро ограничивает его применимость.
С точки зрения практического ИИ это значит что сознания буквально не существует. Сознание - философская дурь, которая не имеет никакого отношения к решению реальных проблем искусственного интеллекта.
И это состояние вещей нам абсолютно ничего не говорит о том, обладает ли сознанием современный ИИ, и будет ли он им обладать в будущем. Как и о том, есть ли в сознании хоть какая-то практическая необходимость.
Возможно, то, что в мире неизмеримой, плохо определённой философской дури называется "сознание", в мире разработки ИИ назовут "архитектура перекрёстного сведения модальностей", и начнут использовать просто потому что она стабильно даёт +2-3% на разных бенчмарках.
Клиническое определение сознания - это буквально измерение способности мозга реагировать на раздражители
Во-первых, вы путаете операциональное определение с онтологическим. Это как сказать "температура - это просто движение ртути в термометре". Во-вторых, выше я приводил примеры клинических тестов. Они измеряют именно корреляты сознания, а не утверждают, что сознание = реакции. Нейронаука различает:
Возбуждение (arousal) - физиологическая активация, измеряемая реакцией на стимулы;
Осознание (awareness) - субъективное переживание, связанное с интеграцией информации.
Их можно разделить. Например, вегетативное состояние: есть возбуждение, нет осознания. Более того, теории сознания Integrated Information Theory (IIT) и Global Neuronal Workspace (GNW) предлагают фальсифицируемые модели с экспериментальным подтверждением.
можно сделать абсолютно то же самое с LLM
Конечно же нельзя. Зеркальный тест разработан для оценки самосознания у биологических организмов и неприменим к LLM как минимум потому, что LLM не обладают физическим телом и сенсорной системой, необходимыми для интерпретации зеркального отражения. Зеркальный тест предполагает спообность распознавать себя через визуальные и моторные сигналы, чего у языковых моделей принципиально нет. Даже если бы модель "ответила", что видит себя в зеркале, это была бы лишь симуляция на основе текстовых паттернов, а не осознанное восприятие. Попытка использовать зеркальный тест для LLM - это антропоморфизация, игнорирующая фундаментальные различия между биологическим сознанием и алгоритмической симуляцией. Даже если модель "пройдет" тест в текстовой форме, это будет лишь технический результат, а не свидетельство самосознания.
Сознание неизмеримо... единственный надёжный способ определить его наличие строго субъективен
Если сознание "строго субъективно", откуда мы можем знать, что оно "не важно"? Почему субъективность делает явление несуществующим? Боль тоже субъективна - значит ли это, что анестезия не нужна?
С точки зрения практического ИИ это значит что сознания буквально не существует
"Трудно измерить" не значит "не существует". "Не нужно для текущих задач" не значит "не нужно вообще". Гравитация была "философской дурью" до Ньютона. Вообще, многие фундаментальные открытия начинались как "непрактичная философия". Квантовая механика казалась бесполезной абстракцией.
Если сознание - "дурь", то его искусственные аналоги не могут давать практическую пользу. Выходит, что механизмы сознания все же функционально значимы? Чтобы создать архитектуру, имитирующую сознание, нужно понимать его функции, что вступает в противоречие с его "неизмеримостью". Невозможно предполагает практическую ценность "аналогов сознания" в ИИ, отрицая при этом их существование. Парадокс: как ИИ будет моделировать человеческое поведение без теории сознания?
архитектура перекрёстного сведения модальностей... даёт +2-3% на бенчмарках
Бенчмарки измеряют узкие способности, не общий интеллект. Это как оценивать интеллект человека только по IQ-тесту.
Мы не понимаем что это, не понимаем как это измерять
Не настолько категорично. Наука о сознании активно развивается. Теории сознания предлагают тестируемые предсказания. Есть ощутимый прогресс в понимании нейронных коррелятов.
Если принять логику отрицания через неформализуемость и неизмеримость, то:
Эмоции "не существуют" (субъективны, плохо измеримы).
Понимание "не существует" (нет чёткого определения).
Креативность "не существует" (неизмерима объективно).
Удастся ли создать AGI без моделирования эмоции, понимания и креативности?
Бросается в глаза эпистемологическая асимметрия. Нет идеального теста сознания - сознания не существует. Есть несовершенные бенчмарки - ИИ разумен.
Сведение сознания к терминам типа "архитектуре перекрёстного сведения модальностей" - попытка элиминировать (устранить) сознание, заменив его техническими терминами. Парадокс: элиминативист использует сознание, чтобы отрицать сознание. AGI должен понимать людей, а люди живут с убеждением в реальность своего сознания. AGI, построенный на элиминативистских принципах, не сможет адекватно моделировать человеческое поведение.
Аргументация "если что-то сложно измерить прямо сейчас, оно не существует и не важно" остановила бы развитие науки на уровне механики Ньютона.
Зеркальный тест разработан для оценки самосознания у биологических организмов и неприменим к LLM как минимум потому, что LLM не обладают физическим телом и сенсорной системой, необходимыми для интерпретации зеркального отражения.
Ну да. Тест для людей хороший потому что люди сделаны правильно, а для LLM плохой потому что LLM сделаны неправильно.
Опять - если уж взялись трогать вещи вроде Integrated Information Theory и Global Neuronal Workspace, то можно найти схожие системы прям в современных жирных мультимодальных LLM.
Но у LLM сознания, конечно, быть не может. А у людей оно, очевидно, есть. Пруфов не будет.
Очередное ведро философской дури без опоры на реальность.
Тест для людей хороший потому что люди сделаны правильно, а для LLM плохой потому что LLM сделаны неправильно
Очередная подмена тезиса. Никто не говорил о "правильности" или "неправильности". Зеркальный тест требует визуального восприятия и телесности - это объективное ограничение, а не оценочное суждение. Это как сказать: "Тест на дальтонизм плохой для слепых, потому что слепые сделаны неправильно".
можно найти схожие системы прям в современных жирных мультимодальных LLM
IIT (Integrated Information Theory) требует не просто "схожих систем", а специфической причинно-следственной структуры с измеримым Ф (phi). LLM обрабатывают информацию дискретно, без эмерджентной интеграции Φ. Так же "внимание" в трансформерах — локальный механизм взвешивания токенов, не создающий единого рабочего пространства.
"У людей сознание очевидно есть. Пруфов не будет"
Логическая несостоятельность. Требовать пруфов при полном отсутствии пруфов для своего тезиса.
Если вы отрицаете сознание у людей, то должны объяснить:
Почему все люди сообщают о субъективном опыте?
Как возникают нейронные корреляты сознания (P300, гамма-синхронизация)?
Почему повреждения мозга избирательно нарушают сознание?
"Философская дурь" - это не аргумент, а риторический приём. Отказ от рассмотрения сложных вопросов - признак догматизма. Настоящая наука не боится сложных вопросов. Многие прорывы начинались как "непрактичная философия".
Ваша позиция представляет собой интеллектуальный луддизм - отрицание сложного и непонятного вместо попыток понять. Это не просто неконструктивно, это опасно для развития AGI.
Вопрос: ты хоть на картинке LLM видел?
Потому что у современных LLM есть визуальное восприятие. Вкручено криво, но есть. И у них есть окно интерфейса с чатом - которым LLM ограниченно управляет, кидая туда текст. Поэтому что мы делаем? Снимаем скриншот этого окна и впихиваем в эту же LLM.
И многие LLM вполне способны понять, что им скармливают скриншоты их собственного интерфейса, в котором отображается текущий чат с пользователем. Хотя намеренно их этому не учили.
Но LLM, конечно, сделаны неправильно. Визуальное восприятие ненастоящее, да и "тело" тоже картонное. Поэтому никаким доказательством сознания этого быть не может.
Советую меньше упиваться философской дурью, и больше - заниматься бенчмарками. Ничего полезного в философии для разработки ИИ нет.
Забавно слышать вопрос "ты хоть на картинке LLM видел?" от человека, который путает мультимодальность с визуальным восприятием, обработку токенизированных эмбеддингов изображений с "видением", статическую классификацию с динамическим восприятием. Это как сказать, что калькулятор "видит" цифры на своём дисплее.
Техническая справка для "практика":
Человек: фотоны → сетчатка → LGN → V1 → дорсальный/вентральный потоки → интеграция
LLM: изображение → CLIP/ViT → эмбеддинги → конкатенация с текстом → трансформер
"Зеркальный тест" через скриншот - тут вы совсем себя закапываете. Что происходит на самом деле: LLM получает статический снимок текста, распознаёт паттерны, которые видела в обучении, генерирует правдоподобный ответ. Чего НЕ происходит: нет непрерывного самонаблюдения, нет модификации поведения на основе "увиденного себя", нет формирования устойчивого self-модели. Это как показать попугаю фотографию попугая и радоваться, что он сказал "попугай". Это распознавание паттерна, а не самосознание.
намеренно не учили
Вранье. LLM обучались на терабайтах текста, включающего: описания чат-интерфейсов, обсуждения Al-ассистентов, метадискуссии о диалогах Способность LLM "понять" скриншот чата - это не эмерджентное самосознание, а интерполяция между обучающими примерами.
О "картонном теле" и непонимании воплощённости. Проблема не в том, что тело "картонное", а в том, что его вообще нет: нет сенсомоторной петли, нет проприоцепции, нет временной непрерывности опыта, нет каузальной связи между "действием" и "восприятием".
Исторический факт. Большинство прорывов в АI пришло от людей с глубоким философским бэкграундом:
Тьюринг: философ-математик, размышлял о природе мышления.
Минский: писал о философии сознания.
Хинтон: вдохновлялся философией восприятия.
Бенжио: активно участвует в философских дебатах о сознании.
Суцкевер: открыто обсуждает философские аспекты AGI
А знаете, кто просто "занимался бенчмарками"? Те, кто 20 лет улучшал экспертные системы на 0.1% и пропустил революцию глубокого обучения.
Утверждение "ничего полезного в философии для разработки ИИ нет" легко опровергается тем, как из философских концептов вырастали концепты AI:
Логика (Аристотель) → экспертные системы
Эпистемология (Байес) → вероятностные модели
Философия языка (Витгенштейн) → NLP
Феноменология (Мерло-Понти) → embodied Al
Философия сознания (Чалмерс) → тесты на AGI
Вы так яростно боретесь с "бесполезной философией", что не замечаете: ваша позиция "Философия бесполезна" - это тоже философская позиция (причём довольно старая - позитивизм ХІХ века).
Это как кричать "Я НЕ ГОВОРЮ ПО-РУССКИ!" на чистом русском языке.
Если философия так бесполезна для AI, почему OpenAI нанимает философов в команду alignment? Почему DeepMind имеет целый отдел по философии AI? Почему Anthropic основан людьми с философским бэкграундом? Почему все ведущие АІ-лаборатории публикуют философские статьи? Может, они просто "упарываются дурью" вместо того, чтобы заниматься бенчмарками? Или, может быть, люди, создающие передовые Al-системы, понимают что-то, что ускользает от такого "практичного" как вы?
Поток философской чуши неостановим.
Никто никаких "философов" в команды ИИ не нанимает. Нанимают датасатанистов, математиков, физиков и прочих зверюшек, знакомых с наукой, обработкой данных и математическими репрезентациями.
Потому что от математических инструментов и научных методов польза при создании ИИ очевидна. От чуши вроде "ИИ точно-точно для работы нужно сознание, и его точно-точно сейчас нет, но пруфов не будет, я просто так вижу" толку ноль.
Если ты зайдёшь в серьёзную лабораторию ИИ и начнёшь задвигать свою телегу про сознание, тебя засмеют, и будут правы.
Благо, в серьёзных лабораториях трудятся умные люди, которые понимают важность междисциплинарных исследований, связанных с ИИ, включая этические, социальные и философские проблемы взаимодействия ИИ и человека.
OpenAI:
Amanda Askell - PhD по философии (NYU), ведущий исследователь по этике Al (linkedin)
DeepMind:
Murray Shanahan - профессор философии в Imperial College, автор книги "Embodiment and the inner life: Cognition and Consciousness in the Space of Possible Minds"
Отдельная команда, занимающаяся этическими и социальными вопросами применения AI
Anthropic:
Chris Olah - открыто пишет о философских основаниях интерпретируемости [Distill.pub]
Jared Kaplan - физик с глубоким философским бэкграундом, соавтор scaling laws
Google AI:
Blaise Agüera y Arcas - VP, регулярно публикует философские эссе о сознании AI [Medium]
От философии толку ноль
Конкретные примеры "нулевого толка":
Alignment Problem - сформулирована философами (Bostrom, Russell, Yudkowski)
Тест Тьюринга - философская работа [Computing Machinery and Intelligence, 1950]
Китайская комната - философский аргумент Сёрла, до сих пор влияет на дизайн ИИ систем [Minds, Brains, and Programs, 1980]
Многие ведущие Al- исследователи имеют философское образование или активно занимаются философией:
Yoshua Bengio - регулярно публикует философские работы о сознании [The Consciousness Prior, 2017]
Stuart Russell - соавтор главного учебника по AI, философ по первому образованию
Max Tegmark - физик, написал книгу о философии Al "Life 3.0: Being Human in the Age of Artificial Intelligence"
Некоторые публикации "несерьёзных" лабораторий о сознании:
"Consciousness in Artificial Intelligence" - Google Research [arXiv:2308.08708]
"Constitutional AI: Harmlessness from AI Feedback" - Anthropic [arXiv:2212.08073]
Если философия так бесполезна, попробуйте ответить на эти практические вопросы без философии:
Как определить, когда AI можно доверить критические решения?
Какие ограничения накладывать на автономные системы?
Как измерить "понимание" в Al?
Когда AI становится морально значимым агентом?
Спойлер: без философии вы даже не сможете корректно сформулировать эти вопросы, не говоря уже об ответах.
>Где ИИ будет через ещё 10 лет прогресса?
А почему вы так уверены, что этот прогресс будет еще 10 лет и с той же скоростью?
"Если последние три года так было, то значит и всегда так будет" правильно я понимаю вашу логику?
Полной уверенности у меня нет. Но причин считать что прогресс в ИИ встанет колом я сейчас точно не вижу.
Ещё более бессвязный комментарий придумать не мог?
Бессвязность — в глазах смотрящего.
Если тебя заменить на LLM, то среднее качество комментариев на Хабре от этого вырастет.
Если Вас заменить на LLM, то вежливость комментариев на Хабре от этого абсолютно точно вырастет.
Вежливость - в топку, честность - на стол. Поэтому говорю честно: без твоих спинномозговых комментариев Хабр будет лучше.
И если бы Хабру остро нужно было больше комментариев такого уровня, то администрация покупала бы рекламу на Пикабу.
Ну правильно, Хабру нужно больше комментариев, в которых человек расписывается в собственной слепоте, охотно верю.
А почему вы так уверены, что этот прогресс будет еще 10 лет и с той же скоростью?
"Моё хобби — экстраполировать!"

"Лошади не исчезнут никогда" - статья, написанная в 1905 году лошадью.
Лошади исчезли? Стали жить хуже?
В 2025 году:
– Лошадей не используют на тяжёлых работах
– Лошадей не используют как «пушечное мясо»
– Лошади катают детишек, спортсменов и туристов.
– Имеют медицинское обслуживание лучше большинства людей
Производительность LLM растёт от поколения к поколению. О программистах из мяса такого сказать нельзя.
Производительность Пелевина – 1 роман в год. О Толстом такого сказать нельзя.
Лошади исчезли?
Численность лошадей в 1900 году в Российской империи, навскидку - 25 миллионов голов; в 2025 году в Российской Федерации - около 1,5 млн голов.
В прежней роли тяглового и транспортного животного исчезли, да.
"Лошади не исчезнут никогда" - статья, написанная в 1905 году лошадью.
А что, разве лошади исчезли?
Производительность LLM растёт от поколения к поколению
Примерно как у той машинистки.
Чувствуется некоторая паника
разве что в вашей голове
Дарио Амодеи, генеральный директор компании Anthropic (привлекли 18,2 миллиарда долларов инвестиций), заявил, что искусственный интеллект заменит программистов через полгода
Той самой компании, что разрабатывает искусственный интеллект?) ну то есть ген.дир компании, которая разрабатывает некий революционный продукт, заявил, что этот продукт через полгода совершит революцию. а что ещё он мог сказать, какие были другие варианты? "мы делаем говно, не давайте нам больше денег"?
что новость высосана из совершенно базовых заявлений маркетологов, что сам пост, как ответ на якобы какое-то весомое событие.
искусственный интеллект заменит программистов через полгода
О том, насколько это соответствует истине, наглядно говорит страничка https://www.anthropic.com/jobs.
Зумеры — может, ещё ничего. Но Альфа — возможно, уже только в prompt-инженеры.
Детский труд это вообще отдельная тема, интересно как к вашим HR попали дети до 13 лет. Поскольку Альфы это те, кто родился после 2010. В одной фразе в принципе вся статья, точнее ее качество и подход к написанию

Хомо копают яму, все глубже и глубже, интересно им, в один прекрасный день из-за смещения грунта стена ямы, вместе с насыпаной горкой земли обвалится, засыпав копателей, но срабатывает шаблон мышления "со мной это точно не случится"...
Что ж вы так нас не любите. Ну уйдет хайп и отлично. Во времена когда я пошел учиться на данную профессию, мне говорили "Ну ПК становиться больше может и найдешь работу" и если закончу проф. карьеру в таких же условиях не проблема. Насчёт llm когда хайп закончиться и начнут сводить дебит с кредитом , тема заменой программистов по утихнет. А llm просто станет одним из инструментов в помощь программистам, как свое время ушли от ассемблера, так и разработка уйдет на более высокий уровень.
>"Дудь в попу программистам — больше не обязательно."
Прочитал, интерпретатор невольно воспроизвёл что делает Дудь с программистами, потом долго пытался это развидеть, когда понял, что это просто "опечатка по Фрейду"... :)
С остальным соглашусь, пожалуй... :)
Нельзя учиться и одновременно получать удовольствие.
Исключительная субъективщина. Впрочем, легко объяснимая - школа, универ... Как там у классиков - нравились животные, пока в школе не начались занятия по биологии (вольная цитата).
Ну вот хороший же водевиль изобразили...но почему же "фальш"??
Статья ни о чем, сплошная вода, из которой не получается вывести ни одной мысли после прочтения.
Программисты не исчезнут никогда