Немного танцев с бубном, но подтверждаю, Context Usage
Model: claude-opus-4-6[1m] Tokens: 22.4k / 1000k (2%) Это claude code на тарифе max в VS Studio Code через claude и через плагин. Нужно переустановить claude через irm https://claude.ai/install.ps1 | iex, до версии 2.1.76 (Claude Code) . Через WinGet подтягивается еще 2.1.74, в которой 200к.
Через расширение нужно вручную выбрать модель "claude-opus-4-6[1m]". В бою пока не пробовал, но это совсем другое дело)
Попробуйте тожесамое проделать в Claude code. Лично у меня с этим никогда не было проблем с тестами и документацией. По поводу следования инструкциям Claude очень хорош. У меня длинные промпты с огромным количеством обязательных пунктов и чеклистов. Как правило проблем со следованием инструкциям нету, если правильно все наладить. Например разбить большие задачи на подзадачи . Сделать строгое ветвление рассуждения с обязательным отчетом по каждому пункту чеклиста. Лучше не просто галочку о выполнении, а краткий отчет, тогда модель не может соскочить. Ну и агенты. Если бы вы написали отдельных агентов для тестов и документации , то вообще вопросв бы не возникло. Так что тут чисто вопрос подхода.
Интересное сравнение, спасибо. Только не понятно почему штрафуете за отсутствие тестов и документации? Вы давали такое задание моделям? То же Клод отлично делает и то и другое. И замечательно использует в работе прогоняя тесты до и после правок. Также четко ведёт и использует документацию.
А не проще те же задачи поручить субагентам. Собственно для этого они и нужны. Пусть они дёргают mcp, делают прогнозируемую обработку в рамках своей роли и возвращают короткий результат. Ну или вообще делают работу сами, а возвращают отчёт.
Именно так, я тоже заметил, что чем больше условий и обязанностей в промпте, тем больше шанс что модель их проигнорирует. Собственно она сама в этом и признается, если спросить. Спасают чекисты ,да ещё с полным отчётом. Т.е. если модели надо поставить галочку, мол это сделано, ее заставляет вернуться, прочитать и сделать.
Ещё можно усугубить и заставить отчитаться, как именно данное условие было понято и применено, вот тут уже точно она не соскочет.
В целом это как у человека, чем больше условий, тем больше вероятность, что он забудет, а чек-лист это самопроверка.
Угу, я вот недавно сделал rm -rf /home/WALLETS (ну папка по другому немного называлась, это для аналогии) , забыл что там еще виртуалка с боевым кошельком лежит ))). Хорошо копия была, но теперь зарекся без mc удалять что-то.
Им контекст большой нужен или они просто знают толк в ... ? На самом деле даже автоматизировать все можно через code без апи. Я тоже прикидывал свои задачи по токенам, становилось страшно от того, что когда то скажут мол вэб/code все, поигрались и хватит , дальше оплата за токены по нашим тарифам, вот вам купон на 10% скидки.
Контентный может и нет, а вот сайт продажи билетов в основном, как мне кажется, продает билеты. И если таким способом будет больше продаж, то побегут делать аж бегом.
Да и для остальных - это трафик, пользователь пришел,сделал действие, дальше уже пошел бороздить стандартным способом.
К тому же чем дальше, тем точка входа чаще из ии будет , так что тут без вариантов.
Дак тут прямо написано нужен "Генератор идеи". на самом деле, по моему опыту АИ с этим справляется так себе. Т.е. как исполнитель - идеально, оно будет развивать твою идею до последнего вздоха, будет тащить твои догмы из контекста в контекст. Но она не скажет мол стой, тут у нас развилка. Ну точнее возможно скажет, но опять-таки по опыту, у меня на 15 версии было 3 ключевых развилки, при чем все в разные стороны. :D Все 3 раза это были мои ключевые решения. Ни разу нейронка не сказала: - "ей, стой, мы свернули не туда" . Для нее оператор царь и Бог! Сказал надо, значит надо! Возможно как-то это промптами правится, но мне пока не удалось . Т.е. по крайней мере по дефолту это не сработает, нужно ее заставить мыслить критически.
Все модели нужно направлять промптами. По типу "не уверен, скажи что не уверен или не знаешь" или "проверь в сети и в социальных сетях". Просто надо помнить, что модель никогда не скажет, что она чего-то не знает, если ее не остановить. Тот же ChatGpt будет находить ошибки и улучшения в вашем коде просто до бесконечности, если не дать четкие критерии понятия этой самой конечности. Но с настройками роутеров да, беда, к тому же модель могла обучатся еще на старой версии прошивки, на старой документации. Нужно иногда прямо ткнуть носом на страницу с документацией. Это вообще очень касается всех свежих версий любого продукта, особенно если они развиваются стремительно. И уж самая боль, если был переход на новую версию в котором кардинально поменялось API. Модель скорее всего обучена на старой документации и будет постоянно подсовывать старый код, если не загрузить ему просто в лоб новую.
Вот хотел бы где-то увидеть реальный тест, а не однострочные промпты. У меня есть все подписки: и Gemini Pro и ChatGpt Pro и Claude Max(тестирую). И для реально боевых задач они очень разные. работают совершенно иначе. Где-то лучше где-то хуже, но в целом различия основные начинаются когда проект начинает вылазить из размера контекста и тут начинаются пляски. Тот же Gemini заявляет 1М контекста, но работает это весьма странно местами и непредсказуемо. Один проект я в нем написал с 0 до боевой версии в одном контексте. Вместе с UI. Для прототипа шикарно, правда потом 3 раза переписывал точечными правками, но задача выполнена, идея проверена и подтвердила свою жизнеспособность, дальше уже суровая реальность. Но в один момент Gemini начинает забывать все как рыбка. И это настолько непредсказуемо, что очень сложно с этим жить. ChatGpt глотает вообще какие-то невероятные обьемы и документации и json, иногда кажется что контекст у него бездонный, но на Pro тормозит нещадно (долгое выполнение + тормозной UI на desktop, хотя на андроид сам UI летает) , иногда выполнение промпта-генерации падает без обьяснения причин и начинай заново, очень долго. Но контекст живет до последнего вздоха. Claude Pro - это прям считай бесплатная версия по ограничениям, работает быстро, но лимиты выжираются просто моментом, график жизни ломается для подстройки под его 5и часовые интервалы. Claude Max по лимитам ок , но контекст это его беда, он такой же как в pro 200k. Пишет он все как боженька, если не вылазишь из контекста. А вылазишь почти всегда, ибо вся русскоязычная документация - это х2 по токенам, и 100кб тщательно выверенной документации сьедают почти весь контекст. Начинаются постоянные сжатия , модель забывает все ... потом начинает из-за этого читать транскрипты и контекст забывается еще больше ... потом контекст просто падает без возможности продолжить . И, начинай по новой, документация, новый контекст, опять сжатие ... 2 дня пишешь документацию, 2 часа работаешь. Но в меньшей мере это касается кода, с этим немного проще. Забился контекст - не беда, есть документация (обзорная, не подробная), есть сам код, новый контекст перечитал. Для него его код - это его документация. Погнали дальше, пока контекст не забьем :D А дальше те же пляски с бубном. Opus 4.5 - 4.6 вообще разницы с этим нету, в 4.6. в max web/code - тот же 200к токенов контекст. 1М это через апи (200к+ токенов там совсем конские цены), это уже совсем на богатом ... Хотя одна надежда живет, что оно есть и вопрос чисто в нагрузке и цене, а не в технологии. Т.е. со верменем можно ожидать повышение размера контекста, вот тогда заживем)))) Хотя более чем уверен, что будет 500к для web/code, а выше для апи и за тот же ххх ценник. Но главное помнить, что 200к claude , 1M gemini, 200kgpt - это вообще не сопоставимые в абсолютных цифрах. Технологии совсем разные, работают по разному . А основная ценность раскрывается именно для реальных проэктов, а не однострочных промптов.
ElevenLabs надо выбрать голос подходящий, тот что в примерах - неудачный. Их там огромное множество и результат разный, я для своих задач около 70 переслушал, выбрал 2 (не для русского). Там для русского есть очень качественные варианты. По сути реальный диктор, главный недостаток - цена) Озвучить книжку будет дороговато. А гугл понравился, без контекста и не понял бы что это озвучка. Хотя текст не простой, но все же по одной фразе сложно понять. Тут вот как раз лучше ему дать классику почитать, например. У того же ElevenLabs порой голоса звучат очень эмоционально под текст (это , кстати тоже настраивается).
Надеюсь ui chatgpt не она же разрабатывала. Без сторонних плагинов пользоваться на десктопе сложно. Да и с ними немного легче.
Хотя, справедливости ради, там где ChatGpt дико тормозит, claude 10 раз сообщила бы об ошибке и отказалась отвечать вообще, и контекст можно было вытащить только из транскрибтов в другой сессии.
Это тоже выход, но рассмотрите мой совет выше, он проверен на практике. Тоже сначала думал о магистрали, но пришел к варианту звёзды. Хотя, все конечно зависит от условий. К тому же такая разводка позволит менять яркость на уровне комнат, а это, поверьте, вам понадобится.
Также мощный БП на всю магистраль будет дорогим, габаритным, греться и свистеть. Да и падение вольтажа к концу магистрали может быть заметным. А диммирование начнет стробить.
Ленты да, лучше паять. И обязательно предусмотреть рефлекторы направив их так,чтобы не слепили, в глаза диоды эти будут бить как прожекторы.
Ещё учтите, что на высокой яркости вылезут все косяки ремонта - стыки обоев, неровности стен, пыль и т.д.
И не забудьте про отвод тепла,хотя на практике, на комфортной яркости, у меня не особо грелись. В идеале сразу найти алюминиевый профиль с рефлектором или делать натяжные парящие потолки/световые линии.
Я делал на дом парящие потолки, там даже больше вышло. В каждую комнату, в центр, заводил из щитка 3х жильный кабель в 4квадрата и звездой запитывал ленты на 24в. (1 жила на 2 точки, земля общая) В щитке уже ставятся блоки питания рассчитанные на свой сегмент (ну или несколько сегментов). Также от выключателей тянем кабель в щиток и там делается коммутация. Немного больше проводов, но зато без распредкоробок и так надёжнее , проще менять БП, а также позволяет сделать потом любую автоматизацию, диммиирование и т.д. Толстый кабель для нивелирования падения напряжения на трассах.
При таком подключении выходит, что максимальный ток на месте стыка = потребление максимальной длины одной стены/2. А это ничем. Для пущей безопасности можно предохранители поставить на каждый сегмент.
Ещё , без диммирования такое воротить нету смысла, на максимальной яркости можно ослепнуть. Чаще оно будет светить максимум на 1/3, а то и меньше.
Особенно это видно , когда делается подсветка парящих потолков по периметру комнаты. Особо "умные" монтажники записывают с одной стороны и получаем неравномерное свечение в конце, что очень заметно. Правильно подключать их звездой.
На самом сама деле идея прикольная, можно придумать кучу кейсов использования. Для детей тут бы сделать карточку в виде паззла, где собирая и получая отдельные части за определеные полезные действия , можно ее собрать и получить доступ к какому-то контенту , недоступному в повседневной жизни (новая серия мультика, купленная игрушка ...).
Ну а как облегчение - это будет более полезно для наших пожилых родителей: фильмы (в том числе старые), аудиокниги, а также сделать фото/видео альбомы с оцифрованными старыми пленками или вашими фото . Вот это реально бомба и даже идея для стартапа. Для пожилых людей , особенно не знакомых с современными технологиями, такая тактильная система более понятна. Взял из стопки карточку , приложил или вставил в ридер и запускается плеер (можного еще и сделать тактильные крутилки типо громкость, пауза, промотка). Я бы вот реально купил такой девайс для своих (при чем тут и постоянный заработок на печати карточек или облаке).
Им реально сложнее пользоваться пультом или планшетом. А дети сейчас наоборот , скорее натыкают этот мультик в поисковике или пультом, чем разберуться какой стороной эту карточку и куда прикладывать.
Кто-то должен и рисовать схемы и писать код. Иногда последнее лениво и долго. Даже если программист может написать код, это не значит что он обязательно это должен делать.
Как раз ИИ позволяет избегать выгорания и заниматься действительно интересными вещами, а не переписыванием алгоритма сортировки на ассемблере. Ну а что, програмист же , может, хотя это дико истощает, когда вместо действительно интересных задач приходится заниматься какой-то ерундой. Не говоря о том, что надо еще и следить постоянно за новыми стеками.
Я просто кайфую от того, что самую нудную работу удается скинуть на ИИ и остается больше времени на действительно интересные задачи.
Это вы по Греции , наверное, не ездили, вот где боль ... если на немецком/венгерском можно еще несколько слов заучить, ибо там знакомые латинские буквы, то Греция всегда боль в навигации, т.к. даже названия населенных пунктов забить в навигатор та еще задачка. По сути как на арабском, китайском ... К слову, переехав жить в одну из европейских стран, стал в первую очередь подтягивать английский, т.к. понимаю, что в больнице на официальном языке еще не скоро смогу изьясняться, а вот с английским шансов больше. Остальные же вопросы решаются и без знания языка.
Немного танцев с бубном, но подтверждаю,
Context Usage
Model: claude-opus-4-6[1m]
Tokens: 22.4k / 1000k (2%)
Это claude code на тарифе max в VS Studio Code через claude и через плагин.
Нужно переустановить claude через
irmhttps://claude.ai/install.ps1| iex, до версии 2.1.76 (Claude Code) .Через WinGet подтягивается еще 2.1.74, в которой 200к.
Через расширение нужно вручную выбрать модель "claude-opus-4-6[1m]".
В бою пока не пробовал, но это совсем другое дело)
Попробуйте тожесамое проделать в Claude code. Лично у меня с этим никогда не было проблем с тестами и документацией.
По поводу следования инструкциям Claude очень хорош. У меня длинные промпты с огромным количеством обязательных пунктов и чеклистов. Как правило проблем со следованием инструкциям нету, если правильно все наладить.
Например разбить большие задачи на подзадачи . Сделать строгое ветвление рассуждения с обязательным отчетом по каждому пункту чеклиста. Лучше не просто галочку о выполнении, а краткий отчет, тогда модель не может соскочить.
Ну и агенты. Если бы вы написали отдельных агентов для тестов и документации , то вообще вопросв бы не возникло.
Так что тут чисто вопрос подхода.
Интересное сравнение, спасибо. Только не понятно почему штрафуете за отсутствие тестов и документации? Вы давали такое задание моделям? То же Клод отлично делает и то и другое. И замечательно использует в работе прогоняя тесты до и после правок. Также четко ведёт и использует документацию.
А не проще те же задачи поручить субагентам. Собственно для этого они и нужны. Пусть они дёргают mcp, делают прогнозируемую обработку в рамках своей роли и возвращают короткий результат. Ну или вообще делают работу сами, а возвращают отчёт.
Именно так, я тоже заметил, что чем больше условий и обязанностей в промпте, тем больше шанс что модель их проигнорирует. Собственно она сама в этом и признается, если спросить. Спасают чекисты ,да ещё с полным отчётом. Т.е. если модели надо поставить галочку, мол это сделано, ее заставляет вернуться, прочитать и сделать.
Ещё можно усугубить и заставить отчитаться, как именно данное условие было понято и применено, вот тут уже точно она не соскочет.
В целом это как у человека, чем больше условий, тем больше вероятность, что он забудет, а чек-лист это самопроверка.
Ох вы далеко не один) Это я думал, что я один такой склеротик) и вот конкретно этот tar с его xfz - это самая боль!
Угу, я вот недавно сделал rm -rf /home/WALLETS (ну папка по другому немного называлась, это для аналогии) , забыл что там еще виртуалка с боевым кошельком лежит ))). Хорошо копия была, но теперь зарекся без mc удалять что-то.
Им контекст большой нужен или они просто знают толк в ... ? На самом деле даже автоматизировать все можно через code без апи. Я тоже прикидывал свои задачи по токенам, становилось страшно от того, что когда то скажут мол вэб/code все, поигрались и хватит , дальше оплата за токены по нашим тарифам, вот вам купон на 10% скидки.
Контентный может и нет, а вот сайт продажи билетов в основном, как мне кажется, продает билеты. И если таким способом будет больше продаж, то побегут делать аж бегом.
Да и для остальных - это трафик, пользователь пришел,сделал действие, дальше уже пошел бороздить стандартным способом.
К тому же чем дальше, тем точка входа чаще из ии будет , так что тут без вариантов.
Дак тут прямо написано нужен "Генератор идеи". на самом деле, по моему опыту АИ с этим справляется так себе. Т.е. как исполнитель - идеально, оно будет развивать твою идею до последнего вздоха, будет тащить твои догмы из контекста в контекст.
Но она не скажет мол стой, тут у нас развилка.
Ну точнее возможно скажет, но опять-таки по опыту, у меня на 15 версии было 3 ключевых развилки, при чем все в разные стороны. :D
Все 3 раза это были мои ключевые решения. Ни разу нейронка не сказала: - "ей, стой, мы свернули не туда" . Для нее оператор царь и Бог! Сказал надо, значит надо!
Возможно как-то это промптами правится, но мне пока не удалось .
Т.е. по крайней мере по дефолту это не сработает, нужно ее заставить мыслить критически.
Все модели нужно направлять промптами. По типу "не уверен, скажи что не уверен или не знаешь" или "проверь в сети и в социальных сетях". Просто надо помнить, что модель никогда не скажет, что она чего-то не знает, если ее не остановить.
Тот же ChatGpt будет находить ошибки и улучшения в вашем коде просто до бесконечности, если не дать четкие критерии понятия этой самой конечности.
Но с настройками роутеров да, беда, к тому же модель могла обучатся еще на старой версии прошивки, на старой документации. Нужно иногда прямо ткнуть носом на страницу с документацией.
Это вообще очень касается всех свежих версий любого продукта, особенно если они развиваются стремительно.
И уж самая боль, если был переход на новую версию в котором кардинально поменялось API.
Модель скорее всего обучена на старой документации и будет постоянно подсовывать старый код, если не загрузить ему просто в лоб новую.
Вот хотел бы где-то увидеть реальный тест, а не однострочные промпты. У меня есть все подписки: и Gemini Pro и ChatGpt Pro и Claude Max(тестирую). И для реально боевых задач они очень разные. работают совершенно иначе. Где-то лучше где-то хуже, но в целом различия основные начинаются когда проект начинает вылазить из размера контекста и тут начинаются пляски.
Тот же Gemini заявляет 1М контекста, но работает это весьма странно местами и непредсказуемо. Один проект я в нем написал с 0 до боевой версии в одном контексте. Вместе с UI. Для прототипа шикарно, правда потом 3 раза переписывал точечными правками, но задача выполнена, идея проверена и подтвердила свою жизнеспособность, дальше уже суровая реальность. Но в один момент Gemini начинает забывать все как рыбка. И это настолько непредсказуемо, что очень сложно с этим жить.
ChatGpt глотает вообще какие-то невероятные обьемы и документации и json, иногда кажется что контекст у него бездонный, но на Pro тормозит нещадно (долгое выполнение + тормозной UI на desktop, хотя на андроид сам UI летает) , иногда выполнение промпта-генерации падает без обьяснения причин и начинай заново, очень долго. Но контекст живет до последнего вздоха.
Claude Pro - это прям считай бесплатная версия по ограничениям, работает быстро, но лимиты выжираются просто моментом, график жизни ломается для подстройки под его 5и часовые интервалы.
Claude Max по лимитам ок , но контекст это его беда, он такой же как в pro 200k. Пишет он все как боженька, если не вылазишь из контекста. А вылазишь почти всегда, ибо вся русскоязычная документация - это х2 по токенам, и 100кб тщательно выверенной документации сьедают почти весь контекст. Начинаются постоянные сжатия , модель забывает все ... потом начинает из-за этого читать транскрипты и контекст забывается еще больше ... потом контекст просто падает без возможности продолжить . И, начинай по новой, документация, новый контекст, опять сжатие ... 2 дня пишешь документацию, 2 часа работаешь. Но в меньшей мере это касается кода, с этим немного проще. Забился контекст - не беда, есть документация (обзорная, не подробная), есть сам код, новый контекст перечитал. Для него его код - это его документация. Погнали дальше, пока контекст не забьем :D А дальше те же пляски с бубном.
Opus 4.5 - 4.6 вообще разницы с этим нету, в 4.6. в max web/code - тот же 200к токенов контекст. 1М это через апи (200к+ токенов там совсем конские цены), это уже совсем на богатом ... Хотя одна надежда живет, что оно есть и вопрос чисто в нагрузке и цене, а не в технологии. Т.е. со верменем можно ожидать повышение размера контекста, вот тогда заживем)))) Хотя более чем уверен, что будет 500к для web/code, а выше для апи и за тот же ххх ценник.
Но главное помнить, что 200к claude , 1M gemini, 200kgpt - это вообще не сопоставимые в абсолютных цифрах. Технологии совсем разные, работают по разному . А основная ценность раскрывается именно для реальных проэктов, а не однострочных промптов.
ElevenLabs надо выбрать голос подходящий, тот что в примерах - неудачный. Их там огромное множество и результат разный, я для своих задач около 70 переслушал, выбрал 2 (не для русского). Там для русского есть очень качественные варианты. По сути реальный диктор, главный недостаток - цена) Озвучить книжку будет дороговато.
А гугл понравился, без контекста и не понял бы что это озвучка. Хотя текст не простой, но все же по одной фразе сложно понять. Тут вот как раз лучше ему дать классику почитать, например. У того же ElevenLabs порой голоса звучат очень эмоционально под текст (это , кстати тоже настраивается).
Надеюсь ui chatgpt не она же разрабатывала. Без сторонних плагинов пользоваться на десктопе сложно. Да и с ними немного легче.
Хотя, справедливости ради, там где ChatGpt дико тормозит, claude 10 раз сообщила бы об ошибке и отказалась отвечать вообще, и контекст можно было вытащить только из транскрибтов в другой сессии.
Это тоже выход, но рассмотрите мой совет выше, он проверен на практике. Тоже сначала думал о магистрали, но пришел к варианту звёзды. Хотя, все конечно зависит от условий. К тому же такая разводка позволит менять яркость на уровне комнат, а это, поверьте, вам понадобится.
Также мощный БП на всю магистраль будет дорогим, габаритным, греться и свистеть. Да и падение вольтажа к концу магистрали может быть заметным. А диммирование начнет стробить.
Ленты да, лучше паять. И обязательно предусмотреть рефлекторы направив их так,чтобы не слепили, в глаза диоды эти будут бить как прожекторы.
Ещё учтите, что на высокой яркости вылезут все косяки ремонта - стыки обоев, неровности стен, пыль и т.д.
И не забудьте про отвод тепла,хотя на практике, на комфортной яркости, у меня не особо грелись. В идеале сразу найти алюминиевый профиль с рефлектором или делать натяжные парящие потолки/световые линии.
Я делал на дом парящие потолки, там даже больше вышло. В каждую комнату, в центр, заводил из щитка 3х жильный кабель в 4квадрата и звездой запитывал ленты на 24в. (1 жила на 2 точки, земля общая) В щитке уже ставятся блоки питания рассчитанные на свой сегмент (ну или несколько сегментов). Также от выключателей тянем кабель в щиток и там делается коммутация. Немного больше проводов, но зато без распредкоробок и так надёжнее , проще менять БП, а также позволяет сделать потом любую автоматизацию, диммиирование и т.д. Толстый кабель для нивелирования падения напряжения на трассах.
При таком подключении выходит, что максимальный ток на месте стыка = потребление максимальной длины одной стены/2. А это ничем. Для пущей безопасности можно предохранители поставить на каждый сегмент.
Ещё , без диммирования такое воротить нету смысла, на максимальной яркости можно ослепнуть. Чаще оно будет светить максимум на 1/3, а то и меньше.
Особенно это видно , когда делается подсветка парящих потолков по периметру комнаты. Особо "умные" монтажники записывают с одной стороны и получаем неравномерное свечение в конце, что очень заметно. Правильно подключать их звездой.
На самом сама деле идея прикольная, можно придумать кучу кейсов использования. Для детей тут бы сделать карточку в виде паззла, где собирая и получая отдельные части за определеные полезные действия , можно ее собрать и получить доступ к какому-то контенту , недоступному в повседневной жизни (новая серия мультика, купленная игрушка ...).
Ну а как облегчение - это будет более полезно для наших пожилых родителей: фильмы (в том числе старые), аудиокниги, а также сделать фото/видео альбомы с оцифрованными старыми пленками или вашими фото . Вот это реально бомба и даже идея для стартапа. Для пожилых людей , особенно не знакомых с современными технологиями, такая тактильная система более понятна. Взял из стопки карточку , приложил или вставил в ридер и запускается плеер (можного еще и сделать тактильные крутилки типо громкость, пауза, промотка). Я бы вот реально купил такой девайс для своих (при чем тут и постоянный заработок на печати карточек или облаке).
Им реально сложнее пользоваться пультом или планшетом. А дети сейчас наоборот , скорее натыкают этот мультик в поисковике или пультом, чем разберуться какой стороной эту карточку и куда прикладывать.
Кто-то должен и рисовать схемы и писать код. Иногда последнее лениво и долго. Даже если программист может написать код, это не значит что он обязательно это должен делать.
Как раз ИИ позволяет избегать выгорания и заниматься действительно интересными вещами, а не переписыванием алгоритма сортировки на ассемблере. Ну а что, програмист же , может, хотя это дико истощает, когда вместо действительно интересных задач приходится заниматься какой-то ерундой. Не говоря о том, что надо еще и следить постоянно за новыми стеками.
Я просто кайфую от того, что самую нудную работу удается скинуть на ИИ и остается больше времени на действительно интересные задачи.
Это вы по Греции , наверное, не ездили, вот где боль ... если на немецком/венгерском можно еще несколько слов заучить, ибо там знакомые латинские буквы, то Греция всегда боль в навигации, т.к. даже названия населенных пунктов забить в навигатор та еще задачка. По сути как на арабском, китайском ... К слову, переехав жить в одну из европейских стран, стал в первую очередь подтягивать английский, т.к. понимаю, что в больнице на официальном языке еще не скоро смогу изьясняться, а вот с английским шансов больше. Остальные же вопросы решаются и без знания языка.