Комментарии 378
В каждой из этих волн старые навыки становились устаревшими.
Всё таки есть вечные темы. Умножение матриц до сих пор не теряет актуальности (и до сих пор там приходится опускаться до ассемблера)
Что в умножении матриц принципиально требует ассемблера? И почему условный с++ для этого не подходит?
Например если хочется применить магию SIMD.
Интринсиксы намного удобнее в использовании чем ассемблер. И компилятор генерирует очень хороший код. std::experimental::simd просто пушка, очень жду C++26.
Хотел лайкнуть, но, к сожалению, не могу. Поэтому отпишусь так.
Согласен с Вами. Особенно, если учесть, что современные компиляторы очень хорошо умеют в оптимизацию. На https://godbolt.org/ это прекрасно можно увидеть.
«Искусственный интеллект» — пафосный термин, но интеллекта там нет. То что сейчас называют ИИ, на сегодня, даже нормальный текст скопилировать не может, а тут идёт диалог о программировании с помощью ИИ. Проще код самому написать с "нуля" чем править бред написанный ИИ.
„Чтобы правильно задать вопрос, нужно знать бо́льшую часть ответа.“ — Роберт Шекли «Верный вопрос»
Если я знаю большую часть ответа, то и сам смогу решить задачу. Надеюсь в ближайшем будущем появиться более менее реальный ИИ, а так запасаемся попкорном и смотрим шоу.
Да, и так будет если не всегда то ещё очень долго
Проще код самому написать с "нуля" чем править бред написанный ИИ.
Ну это если умеешь.
И они ж говорят, что "любой может написать программу в режиме чата с ботом". То есть заказчику нужно "просто сформулировать ТЗ" , какая мелочь )))
Так это проходили уже. "Каждый инженер может запрограммировать свою задачу" - когда появились языки програмиирования. "Каждый специалист может написать свою программу. Программисты отомрут" - появились языки высокого уровня. "Компьютер каждой домохозяйке" - когда появились персоналки.
Только чем проще становился интерфейс для человека, тем сложнее становилась его реализация в машине. Экспотенциально сложнее. И, несмотря ни на что, чтобы понять (не "починить" методом тыка) почему программа делает не то, что предполагалось, достаточно часто приходится спускаться в самый "низ" - ассемблер, менеджеры памяти, драйвера, протоколы. А для этого нужны не только умение общаться с ИИ.
То есть заказчику нужно "просто сформулировать ТЗ" , какая мелочь )))
Даже это представляет для заказчика сложность. Приходится формулировать вместе с ним :)
Интринсиксы намного удобнее в использовании чем ассемблер
Интринсики это костыль, чтобы упростить написание на ассемблере без лишней мороки с инлайн ассемблером.
Вы используете напрямую набор инструкций конкретного процессора, что никак не соотвествует определению C++ как платформонезависимого языка.
Что в умножении матриц принципиально требует ассемблера?
Сходите к разрабам OpenBlas и спросите =)
https://github.com/OpenMathLib/OpenBLAS/tree/develop/kernel
Современные компиляторы прекрасно справляются с SIMD. Советую глянуть, очень увлекательное чтиво: https://matklad.github.io/2023/04/09/can-you-trust-a-compiler-to-optimize-your-code.html
Покажите мне компилятор, который эффективно запользует AMX. Почему то серьёзные дяди пишут вот так.
simd сейчас доступны хоть в питоне, с помощью numba.
Можете показать пример? Как будет с numba выглядеть, например, строковые операции, доступные через сишный интринсик _mm_cmpestrm
?
Никогда не интересовался ускорением строковых операций. А вот для работы с терабайтными растрами хоть на лаптопе можете посмотреть мой проект https://github.com/AlexeyPechnikov/pygmtsar Там используются numba с numpy, и распараллеливание и векторизация есть. Аналогичный софт на си (однопоточный, но в консоли утилиты могут быть запущены параллельно на всех ядрах) далеко позади по скорости работы и требует в 10-100 раз больше оперативной памяти.
Никогда не интересовался ускорением строковых операций
..а потом они удивляются: «а чё оно так тормозит?»
Что тормозит, трололо вы наш? Передача имени файла для открытия и работы с терабайтным растром? И как вы предлагаете ускорить эту передачу указателя интрисиками?:)
Кодировки с переменной длинной внесли некоторое разнообразие в скучный str* + N * m
(этот не будет ручаться за точность, ибо последний раз на сях писал лет 12 назад, на специфическом диалекте, но смысл должен быть передан верно)
И как вам тут помогут оптимизации, направленные на работы с фиксированным количеством байтов?.. Речь идет о блочных операциях типа шифров или хэшей, а не про обработку символов юникода.
Э?
Еще раз - интрисики используют не для обработки кодировок (переменной длины), ваш комментарий бессмысленный в данном контексте.
Вы взяли комментарий каджита, перефразировали его не меняя смысла, и заявляете что он бессмысленный? В таком случае, вы опубликовали уже два бессмысленных комментария.
Попробуйте подумать над тем, кто на ком стоял. И, раз уж заговорили от контексте, над тем, кто кому на что отвечал.
Вот обсуждаемый комментарий:
Можете показать пример? Как будет с numba выглядеть, например, строковые операции, доступные через сишный интринсик _mm_cmpestrm?
В ответ на мой:
simd сейчас доступны хоть в питоне, с помощью numba.
Вы же влезли в разговор со своими идиотскими замечаниями не в тему и утверждаете, что речь шла о вас. Научитесь читать, а еще лучше, и думать.
Даже в кодировках переменной длины нулевой байт конца строки — это всегда нулевой байт конца строки, и искать его желательно побыстрее, например.
И даже в задачах с кодировками переменной длины, скажем, искать пробелы — обычные, ASCII, вместо произвольных уникодовых пробельных символов — часто более чем достаточно. Или, несмотря на всё буйство красок уникодовой пунктуации, в жсоне (даже содержащем уникодовые строки) кавычки, указывающие ключи, и разные скобочки, указывающие объекты и массивы, всегда ASCII.
Более того, даже в UTF-8 simd оказывается очень полезен, о чём регулярно пишет, скажем, Дэниел Лемир (если это имя о чём-то говорит, конечно).
Так это автовекторизация, что совсем не то же самое, что использование SIMD а-ля ассемблер или интринсики. Сравнивать их в таком контексте — это подменять тезис (но, впрочем, вспомнил ваш ник и каждую прошлую дискуссию с вами — для вас это норма).
скорость
Для 99% задач линейно алгебры используется та или иная реализация BLAS/LAPACK. Покажите, пожалуйста, где там ассемблер?
Да, вы правы, всё хуже. Там Fortran
Например,
https://github.com/amd/blis/blob/master/kernels/zen5/3/bli_dgemm_avx512_asm_8x24.c
Это реализация BLAS для AMD. Там почти все ядра написаны на ассемблере, даже не интринсики.
В исходниках той или иной реализации BLAS/LAPACK от вендоров железа.
Вот только этот навык мало кому нужен. Blas умножит матрицы намного эффективнее многих любителей ассемблера. Но и пользоваться им не требуется, keras сделает это за вас.
Конечно, человечеству нужно, что бы хотя бы сотня человек могли это сделать и понимали, что там находится внутри, но остальным этот навык полезен не будет
keras сделает это за вас.
Вот как раз неделю назад DeepSsek продемонстрировал, что оптимизировав свое решение под свое железо опустившись на один уровень библиотек ниже можно сделать немного шороху.
Конечно, человечеству нужно, что бы хотя бы сотня человек могли это сделать и понимали, что там находится внутри, но остальным этот навык полезен не будет
Это тоже вполне нормальный способ выживания в новом мире- быть высоко квалифицированным специалистом в узкой сфере. И да, там скорее всего ещё и интересно.
Только если интеллекта очень много и он в нужном направлении заточен. Тогда конечно, быть крутым технарем в известном на весь мир стартапе интересно.
Для подавляющего большинства это не подходит, не могут же все входить в топ 1% разработчиков, там мест маловато. Автор статьи наверняка про других разработчиков. Хороших, но не тех, кто может сделать лучше всех в мире.
Абсолютно с вами согласен. Даже добавил бы: в Deepseek команда разработчиков - это кванты, а не рядовые разработчики. Т.е. это молодые высококлассные инженеры и математики, победители олимпиад, студенты, аспиранты и ученные из топовых вузов Китая. Это даже не 1% разработчиков, а 0.001%. И эти ребята сотворили свое чудо не за месяц другой, а за годы кропотливой работы.
имеете ввиду относительную дешевизну обучения дипсика?
думаете это было достигнуто за счет оптимизации под конкретное железо?
Кто то же должен придти на смену Гото-сану и прочим зубрам ) Да, согласен что это не массовое направление - но если хорошо разобраться, опыт будет востребован.
Вот именно.
Согласен с идеей статьи. И что интересно, возникают новые необычные сложности. Сейчас тоже тесно использую AI, и недавно поймал себя на мысли, что такой способ позволяет ускорить работу и открыть новые горизонты разработки. Но при этом в ближайшем будущем очень легко прийти к ситуации, когда результат работы программиста совместно с AI будет недоступен для понимания человеком. И для того чтобы хоть как-то разобраться, опять же AI будет необходим.
А это может разрушить область ИБ. Раз код пишет АИ и разбираемся в нем с АИ, а по-другому не можем - то мы понятия не имеем, что там может быть скрыто дополнительного. У нас пропадает второй канал информации в виде прямого понимания кода. И если протестировать "что должно делать приложение" относительно легко, то протестировать "что не должно" - на порядки сложнее, сродни проблеме доказательства отсутствия чего-либо.
Пусть другой АИ анализирует код на безопасность. Или изначальный делает на нем акцент.
Но да, с этой точки зрения безопасность становится все более абстрактной и туманной
Раз код пишет АИ и разбираемся в нем с АИ, а по-другому не можем - то мы понятия не имеем, что там может быть скрыто дополнительного. У нас пропадает второй канал информации в виде прямого понимания кода.
Это ведь не качественно новая проблема.
Условное среднестатическое приложение подключает в себя сотни (по цепочке зависимостей) либ и мы понятия не имеем что там скрыто дополнительно, особенно когда они регулярно обновляются, без чего тоже нельзя.
Когда мы бьем приложение на микросервисы или модули, то отдаем модули разным разработчикам (командам/фирмам) и у нас нет ни прямого понимания кода, ни понятия о том, что там скрыто дополнительно.
Современная разработка слишком разрослась, чтобы тешить себя иллюзией контроля и пониманием происходящего. Всё в конце концов сводится к тестированию ПО, при чем как на тему "что должно делать", так и на тему "что не должно делать", при этом даже тестировщики ПО говорят что даже 100% покрытие кода тестами невозможно.
Поэтому - да, проблема есть, но она не качественно новая, это та же старая проблема, которой еще и до появления ИИ не было решения.
Из современного - можно вспомнить боинг, который без всякого ИИ отдавал код на аутсорс. Из старого - можно вспомнить ошибку вычислений с плавающей точкой на интеловском пентиуме, на правильность вычислений которых полагались приложения хотя и не знали что там скрыто и ничего не понимали. Из глобального можно вспомнить уязвимости в роутерах.
Из-за ИИ эта проблема выйдет на качественно новый уровень.
Так как приложение нельзя модифицировать за приемлимую цену, которая в большинстве случаев будет выше цены создания, то обретут актуальность рантаймы и песочницы для таких приложений, где даже вирус, пусть он даже пожрётъ приложение его распаковавшее, не затронет других частей системы. А это еще овердофига слоёв всяких абстракций, т.к. окажется, что песочницу будут надиктовывать тоже чоповцы (модное словечко?). А тут еще больше ресурсов потребуется! Слава роботам!
Всё верно.
Технологическая сингулярность как есть
В системах с чувствительными данными почти всегда есть многоуровневые процедуры согласования/блокировки доступов и пермишенов, причем даже между внутренними ресурсами. Некоторые из таких алгоритмов принятия решений не отражены даже в регламентах и хранятся в коллективном понятийном мышлении дабы "неслучайный дровосек" по открытому алгоритму не наломал дров. Учитывая, что польза от изолированного АИ примерно как от подушки безопасности в бронепоезде, опасаться распространения ИИ в критических инфраструктурах сильно преждевременно. Из без них "течет" гигабайтами.
Против лома (социальной инженерии) нет приема. Кстати нет статистики по взломам в разрезе социальная инженерия vs все остальное?
Хотя конечно СИ это только метод входа, а уж что там троян может наворотить - это на совести операционки.
Да и смысл открытого исходного кода изменится. Безопасность и отсутствие бэкдоров в том, что непонятно человеку изначально, будет полностью опираться на доверие ИИ
Какому классу задач нужен настолько сложный код?
Я это начал чувствовать на примере реализации кастомной структуры данных на основе кольцевого сегментированного буфера. И чтобы эта штука была thread safe c максимальной эффективностью.
LLM помог Вам в написании такой структуры?
Большинство эффективных многопоточных структур сложны для понимания без участия ИИ. Для обеспечения производительности и корректности нужно довольно строго и точно понимать все переходы между состояниями, а со строгостью у LLM как раз проблемы насколько я вижу из отзывов. Довольно необычно если Ваш опыт говорит о полезности ИИ в данной задаче.
Вот вот. В наиболее сложных технически вещах (сам ml, компиляторы и вообще ЯОП), всё должно быть верифицировано, а LLM - противоположность строгости. Собственно, все истории успеха "начатгпшил новый модный стартап" - это крайне примитивный с точки зрения CS код. Современный стек технологий часто сложный для понимания не потому что ракеты в космос запускает, а потому что фреймворки - перегруженное свистелками кю.
Эксперимент скорее неудачный оказался. Мне не удалось заставить написать AI версию кода, которая прошла бы многопоточные тесты. Именно поэтому я написал про ближайшую перспективу, а не про сейчас. Но с текущей динамикой развития ИИ выглядит реально в будущем
LLM конечно такую структуру данных не напишет самостоятельно. Но это не означает, что LLM не будет полезной.
Если взять в качестве примера тот же Cursor, то LLM там поможет вот так:
"Простое" автодополнение, которое уменьшит объем механического набора текста. Это хорошо работает для генерации каких-то стандартных конструкций языка, написания комментариев.
Можно попросить сгенерировать некий скелет/основу: какие-то классы, параметры конфигурации и пр. Дополнять скелет, конечно, придется самому
Можно попросить сгенерировать тесты для той самой многопоточной структуры. Вот тут LLM может сделать очень много полезного и то, что обычно писать человеку лень.
LLM очень хороши в написании кода, который логирует ошибки и не только. В сообщение можно добавить сколько угодно хорошо отформатированного контекста: вместо "shit happened" написать "shit happened in thread ${thread_id}, x = ${x}, y = ${y}". Это же работает и с сообщениями об ошибках в исключениях (exceptions).
LLM хорошо справляется с механическим рефакторингом типа переименования или добавления нового параметра в вызов какой-то функции. Можно пытаться делать и чуть более сложные вещи типа "залогируй все вызовы вот этого метода и оберни это в какой-нибудь helper".
LLM хорошо справляется с написанием небольших изолированных компонент с простым API. К примеру, можно сгенерировать код на основе Reflection API из Google Protobuf - обойти поля протобуфа и чего-то с ними сделать в процессе. Поскольку протобуф поддерживает очень большое количество разных типов данных, то генерация код тут полезна. Однако нужно быть внимательным и направлять LLM в правильное русло.
Чат можно использовать как источник справочной информации. Можно задавать вопросы по языку/библиотеке/технологии. Тут нужно быть осторожным, т.к. есть простор для галлюцинаций.
В целом, LLM - хороший инструмент, но не серебряная пуля. Нужно уметь этим инструментом пользоваться и понимать ограничения.
Например, для прогнозирования, оптимизации и планирования. А так как их результаты дают явное конкурентное преимущество бизнесу, то спрос весьма велик.
Другое дело, что тут требуется больше аналитики, чем кодирования. Поэтому я предполагаю, что программисты в будущем будут больше аналитики и прикладные математики, чем кодеры. Может я и не прав, но у меня уже сейчас так и получается, судя по соотношению списанных часов на кодирование и на проработку постановок с клиентом.
Это сверхусложнение может стоить потери стабильности всего мира, когда код написанный ИИ приведет к масштабному сетевому сбою и окажется, чтобы его отладить без доступа к датацентру с ИИ нет связи.
Возможно мои рассуждения наивны, т.к. я не программист, но я вижу какое беспомощное говно современные девайсы и софт в местах где банально нет связи или она нестабильная и медленная.
Вы даже не представляете на каком говнокоде держится стабильность мира сейчас
А вы принимаете во внимание, что написание вашего комментария было реализовано биологической системой невероятной сложности - вами. Это же композит из астрономического числа клеток, белков, генов, нейронов, связей, памяти, человеческого опыта, семантики. Который, тем не менее, устойчиво на протяжении длительного периода времени и более или менее успешно противостоит как внутренним сбоям, так и внешним воздействиям. И вроде никто не держит полной документации по этой системе)
Но для этих систем приходится писать сложные правила и инструкции, и строить специальные учреждения для исправления и изоляции неисправных систем. И взаимодействие этих систем порой крайне сложное.
Поэтому простые и детерминированные системы всё же предпочтительней.
Тут нельзя говорить, что предпочтительнее в отрыве от вопроса "для чего?". Предпочтительнее для чего? Клепать детали на производственной линии - безусловно, простой детерминированный автомат справится лучше. Изобрести эту производственную линию и создать экономику, в которой возникновение этой линии имеет смысл - это задача только для сложных, высокоорганизованных биологических существ.
Развитие систем идет по пути усложнения - это естественный процесс. Предыдущие уровни сложности не отменяются, т.к. некоторые задачи успешно решаются и простыми способами. Условно, изобретение экскаватора не делает ненужными лопаты. Просто круг решаемых задач расширяется.
Ну а что сложные системы сталкиваются со своими специфическим болезнями и проблемами - это не новость.
Тут нельзя говорить, что предпочтительнее в отрыве от вопроса "для чего?"
Для рабочих систем, конечно же. Речь ведь о программировании. Я лично не могу представить автоматизацию без детерминированности.
Изобрести эту производственную линию и создать экономику, в которой возникновение этой линии имеет смысл - это задача только для сложных, высокоорганизованных биологических существ.
Вот тут согласен. Но это уже исследовательская задача. Конечную систему всё же лучше формализовать.
Условно, изобретение экскаватора не делает ненужными лопаты. Просто круг решаемых задач расширяется.
Согласен. Поэтому и не разделяю идеи о кардинальных измененях. Без изменения фундамента, новые технологии лишь увеличивают область применения текущих технологий.
Понимаю и эта вавилонская башня из костылей и легаси рано или поздно даст трещину и моя личность навсегда исчезнет.
То, что вы описали стабилизировалось эволюционным отбором, естественным тестировщиком, трудившимся тысячи миллионов лет, уничтожая совсем кривых нежизнеспособных юнитов...
Я думаю, что понимание там и не нужно. И это даже не проблема, потому что такое явление существует много десятков лет.
Когда вы проектируете автомобиль - вам не нужно придумывать и понимать работу каждой мелочи. Например, вам не нужно разбираться в сплавах для создания какой-либо особо прочной детали, достаточно указать требования. Потом эту задачу будут решать профильные специалисты. И это касается буквально всего. Топлива, масел, материалов, вплоть до целых деталей, типа коробки передач.
Представьте на секунду мир, где разработчик способен в одиночку запрограммировать сложнейшие сервисы, типа гос.услуг при наличии хорошей документации, которую собрала команда с потребителей + ИИ помог с формализацией.
Если сейчас разработчику доступны "готовые" функции языка, библиотеки и фреймворки, то в будущем ему даже печатать ничего не надо будет (конечно, это не в самом близком будущем). Достаточно голосом озвучивать желаемый результат, а ИИ сам из скормленного ему ТЗ выдернет нужные требования (учитывая госты, стандарты безопасности и т.п.) и создаст что надо. Задача же разработчика - собрать из всех этих "кубиков" цельный сервис, проектируя общую архитектуру, контролируя процесс и исправляя "ошибки".
По аналогии с операторами современных ЧПУ-станков, они тоже не работают "руками", но ставят задачу станку и следят за корректным исполнением, вмешиваясь при необходимости.
мир, где разработчик способен в одиночку запрограммировать сложнейшие сервисы, типа гос.услуг
Вообще говоря, любой приличный олдскульный разработчик способен это сделать. Да, возможно, это займёт неприемлемое по нынешним меркам время, поскольку сейчас все хотят MVP через неделю и прод через месяц - но в принципе ничего сверхъестественного в госуслугах нет, это довольно простой сервис.
Дело не в "сверхестественном". Вы же не будете отрицать общую сложность сервиса. К тому же, это лишь пример. Можете заменить на любой сложный сервис, что вы знаете.
И вы правы насчет времени, надо было это явно указать в моем комментарии.
Ну и еще есть такой момент - даже олдскульный сеньор разработчик не запилит такой сервис и за десяток лет. Потому что это результат работы большой команды - дизайнеров, аналитиков, тестировщиков, девопсов и т.д. Вряд ли в природе существуют такие сеньоры, что сильны во всем.
А вот ИИ может помочь в этом. Например, я не художник, но могу симпатичные картины делать с помощью нейросетей, почти мгновенно. Аналогично я могу создать симпатичный дизайн для лендинга с помощью ИИ, не умея ни рисовать, ни верстать. Мне достаточно знать структуру лендинга (тоже ИИ подскажет). Ну и, в конце-концов, я про будущее писал. Причем не столь отдаленное. Тенденция же видна. И статья об этом же.
P.s. Я тут подумал, есть в этом развитии еще и положительный эффект для психики. Мир становится сложнее, программирование в частности. Все больше технологий надо знать, чтобы быть конкурентным. Это давит. Выгорание и депрессия у каждого второго. Но ведь куда лучше выучить что-то одно, но очень очень хорошо. Это избавляет от мук выбора и стресса от того, что знать надо все. И сильно облегчает работу узких специалистов. Ведь все непрофильное может помочь сделать ИИ. Как вы считаете?
Про помощь ИИ не спорю, сам им пользуюсь, весьма ускоряет решение простых задач.
Что же касается "сильны во всём" - я не зря упомянул олдскульных разработчиков. Просто потому, что где-нибудь в середине 90-х тупо не было ни девопсов, ни аналитиков. Ты хочешь себе сайт? Не вопрос - собери себе сервер, поставь туда линукс или фрю, апач, перл, настрой это всё, потом бери html, perl-cgi - и напиши.
Ну то есть не было (да и сейчас нет) разницы между аналитикой (инженер, не умеющий в декомпозицию, вообще не мог называться инженером), админством, кодингом - это всё были знания одного человека. И, поскольку упомянутых в статье средств высокоуровневого абстрагирования ещё попросту не существовало - знания эти были весьма глубокими. Любой приличный программист в студенчестве хотя бы пробовал написать прототип операционной системы; любой приличный админ мог пропатчить линуксовое ядро или какой-нибудь софт. Того же Игоря Сысоева вспомнить, который написал nginx, работая простым админом в рамблере. Без всяких аналитиков, тестировщиков и девопсов, просто "потому что могу" - сделал один из самых популярных веб-серверов в мире. И он не был каким-то уникумом, то же самое мог сделать любой спец приличного уровня.
Проблема в том что тогда не было ещё хайлоада. Интернетом пользовалось сравнительно немного людей, на небольших скоростях, с десктопа - и работать исходя из идеи, что один сервер вытянет любую нагрузку пока у него достаточно ресурсов можно было.
Сейчас портал в интернет есть буквально у каждого в кармане. Часто даже больше одного. Нагрузка на сайты выросла кратно. Требования к безопасности выросли кратно.
Да, хороший программист в одно рыло может написать что-то похожее на госуслуги. У него займёт это кучу времени, правда, но в целом это возможно. Но как только речь зайдёт о деплое, конфигурации на хайлоад, масштабировании, регуляций безопасности для патчей разных уязвимостей и так далее и в том же духе - этот проект одного человека посыплется.
Нагрузка на сайты выросла кратно.
Мощность серверов также выросла кратно. Сейчас любой смартфон мощнее тогдашних серверов. Поэтому умели в оптимизацию.Когда тому же Сысоеву стало понятно, что имеющейся мощности не хватает - он не к начальству пошёл с выкладками из графаны и требованиями нового железа, а написал сверхпроизводительный по тем временам свой веб-сервер с блэкджеком и шлюхами.
Году в 2000-м делали мы вебчат для одного проекта, как раз с расчётом на хайлоад. Чат был написан на сях и представлял собой фактически вебсервер, причём даже однопоточный - просто ни одной блокирующей операции у него в основном цикле не было. Он стартовал, загружал в память все нужные ему темплейты и ресурсы - и больше не обращался к диску вообще, действуя полностью в оперативке. На 10k rps он грузил процессор на 3% (что по тем временам было невозможным хайлоадом), занимая в памяти несколько метров.
Требования к безопасности выросли кратно.
А результаты куда хуже тогдашних, потому что кругом дево-псы, ставящие монгу без пароля ансибловыми плейбуками по статье с хабра. Тогда как в олдскульные времена паранойя являлась обязательной для админа профдеформацией, а "бизапасников" не было вообще, они были не нужны.
Я довольно много работаю с корп сегментом, в том числе с аудитами, в том числе безопасности. От того, что приходится наблюдать, волосы дыбом встают во всех местах.
В середине 90-х. Именно так и было. Но сейчас 2025 год. И мир совсем другой. Даже количество населения выросло с 5 млрд в 90-х до 8 млрд в 2025. А технологические изменения вообще колоссальные. А сколько пользователей интернета в 90-х было? А сколько сейчас?
Даже nginx за эти годы был значительно доработан усилиям десятков или сотен людей. Выросло целое сообщество.
Или поиск Яндекса и Гугла. Они тоже создавались конкретными людьми. Но потом сотни и тысячи людей дорабатывали это десятилетиями.
Я тоже могу сейчас сесть и накатать веб-сервер и разместить его на серваке. Но кому он будет нужен? Я не смогу учесть все нюансы. И моя поделка будет значительно хуже современной версии nginx. Но если сотня человек лет 10 будет допиливать этот сервак, то что-то годное получится.
Прототип ОС в студенчестве мог написать любой приличный студент? И что это было? Подобие первых ОС из 60-х годов? И современный ПРИЛИЧНЫЙ студент не может такого что ли? Трава была раньше зеленее и солнце ярче?
Современный ПРИЛИЧНЫЙ студент не будет заниматься дурью, создавая прототип древней ОС. ПРИЛИЧНЫЕ студенты смотрят в будущее, а не в прошлое. Если студент и будет такое дело делать, то он туда какой-нибудь ИИ запихнет.
Пропатчить линуксовое ядро в 90-х и в 2025 году - огромная разница. Это очевидно же. Попробуй сделать это сейчас, куча ошибок на сотни или тысячи часов работы гарантирована.
В общем, обсуждение зашло в тупик в силу того, что вы сместили фокус с обсуждения статьи и использования ИИ на то, какие крутые были разработчики в 90-е годы. И вы все продолжаете утверждать, что один в поле воин. Что в 2025 один олдскульный разработчик может запилить сложный сервис в одиночку. А все вокруг такие тупые, что не понимают этого. И нанимают целые команды из десятков людей для такой работы.
Зачем это делать? В статье автора именно об этом, что стоит обратить свой взор в будущее и искать способы эффективно использовать ИИ. Исследовать. Почему по-вашему одни люди создают с помощью ИИ новые химические соединения, белки, электросхемы для чипов, ракетные двигатели, ускоряют свою работу на 100% и т.п., а другие скептически посмеиваются, потому что чатжпт не смог решить им задачку?
Ну, системные аналитики в 1990е, конечно, были...
Вам сколько лет?
куда лучше выучить что-то одно, но очень очень хорошо. Это избавляет от мук выбора и стресса от того, что знать надо все. И сильно облегчает работу узких специалистов. Ведь все непрофильное может помочь сделать ИИ. Как вы считаете?
Я могу ошибаться, но за 35 лет в IT у меня, скорее, обратное впечатление.
Если есть разноплановые узкие специалисты Вася и Петя, каждый из которых "хорошо умеет" что-то своё, а всё остальное за них делает ИИ - то логично предположить, что раз ИИ может сделать для Васи - работу Пети, а для Пети - работу Васи, то они оба уже оказались за бортом.
В то же время я наблюдаю дефицит как раз базовых знаний у молодых специалистов. Ну выучит он, условно, Питон - а через десяток лет об этом языке забудут, как забыли сейчас про Перл, Фортран, Кобол, Руби, ColdFusion и множество других языков и технологий. И чего в итоге - отправляться на свалку истории?
В то же время человек, хорошо знающий базу, матчасть - легко освоит любые новшества. Мне понадобилось достаточно немного времени, чтобы достаточно прилично разобраться в технологиях devops - ну потому что я администрирую линукс с 1997-го и происходящее в системе знаю куда лучше, чем современные девопсы-ямлописцы. Появится что-то ещё - разберусь и в этом.
А вот узкому специалисту это, в силу нехватки кругозора, не светит.
Я могу ошибаться, но за 35 лет в IT у меня, скорее, обратное впечатление.
Есть старый текст (не мой), который я выложил в качестве коммента https://habr.com/ru/articles/878266/comments/#comment_27871602
Единственное, что на самом деле влияет на эффективность процесса разработки - это наша способность раньше находить ошибки. А вот оттягивание этого на потом - отличный способ проект убить.
...
В частности, "традиционный" конвейер с отделами "анализ", "программисты", "тестировщики" - это сраный пиздец драматически увеличивающий среднее время жизни ошибки. Врата ада раскрываются, если добавить к этому "отдел архитектуры".
То есть, в случае узких специалистов драматически увеличивается время коммуникации, которое катастрофически уменьшает скорость разработки.
как забыли сейчас про Перл, Фортран, Кобол, Руби, ColdFusion
Алё, гараж, что это за новости такие? Мы сейчас на ruby пишем как не в себя!
Да есть и кто на перле пишет - у меня друг работает в финтех-компании, недавно они портировали один из банков Top5 с оракла на скрепный постгрес, конвертор при этом был как раз на перле. И на коболе до сих пор кто-то да пишет.
Но в целом это языки уже не на слуху. Хотя мне руби в целом нравился, а RoR вообще предопределил путь развития всех современных веб-фреймворков.
Перл, Фортран, Кобол, Руби...
Ну, про них никто не забыл. Фортран и Кобол -- вообще в топе по популярности. И вообще, это специализированные языки, глупо верить, что на них будут писать веб сайты.
А вот узкому специалисту это, в силу нехватки кругозора, не светит.
Узкий специалист - не значит, что это узкий кругозор. Это значит, что у спеца глубокие познания в чем-то одном. Остальные знания - средние или поверхностные. Но не нулевые.
Ну выучит он, условно, Питон - а через десяток лет об этом языке забудут, как забыли сейчас про Перл, Фортран, Кобол, Руби, ColdFusion и множество других языков и технологий. И чего в итоге - отправляться на свалку истории?
Нет, конечно! Само знание питона или других технологий не делает человека специалистом. Язык программирования - это инструмент.
Например, разработчик всю жизнь разрабатывает ПО для нефтянки, допустим на java. Если пересадить его на С++, то после обучения этому языку он также успешно продолжить писать это ПО для нефтянки. Можно пересаживать его на любые другие языки, и через какое-то время (на обучение новому инструменту) он продолжит также успешно писать ПО для нефтянки. Потому что он специалист в этой сфере.
Это работает везде, не только в программировании. Например, я не пойду к хирургу общего профиля делать операцию на сердце, я предпочту кардиохирурга. Это узкий специалист. Но никто не скажет, что у него узкий кругозор, и что он не сможет аппендицит вырезать.
Например, я не художник, но могу симпатичные картины делать с помощью нейросетей, почти мгновенно.
Нет, не можете.
Я могу создать симпатичный дизайн для лендинга с помощью ИИ, не умея ни рисовать, ни верстать.
Нет, не можете.
Вы слишком хорошего мнения о себе, и ещё больше о ИИ. Но поверьте, чтобы ставить задачу даже живому профессионалу, нужно самому разбираться в этом. Чтобы ставить задачи художнику и дизайнеру, нужно самому выучить базу живописи и дизайна.
Может, потому что значение слова "симпатичный" полностью зависит от используемого диалекта русского языка.
Нет, не можете.
Т.е. по-вашему оценивать симпатичность дизайна может только профи?)) А обычный человек, не специалист, такой валенок, что не может оценить удобство интерфейса приложения, сайта? И если человек не художник, то он не может оценить красоту картины?
Чтобы ставить задачи художнику и дизайнеру, нужно самому выучить базу живописи и дизайна.
Т.е. если я приду к художнику и скажу: "нарисуй мой портрет" - мне надо для начала выучить базу живописи и дизайна?
Вы слишком хорошего мнения о себе, и ещё больше о ИИ
Т.е. вы незнакомому человеку пишете, что он чего-то там не может и слишком хорошего мнения о себе, ничего не зная о нем? Вообще-то я менеджером проектов работал, видел сотни дизайнов разных, десятки лендингов проектировал и т.д.
Относительно ИИ - это инструмент. Можно и микроскопом гвозди забивать. Или как в басне Крылова про обезьяну и очки:
Очков с полдюжины себе она достала;
Вертит Очками так и сяк:
То к темю их прижмет, то их на хвост нанижет,
То их понюхает, то их полижет;
Очки не действуют никак.
«Тьфу пропасть! — говорит она, — и тот дурак,
Кто слушает людских всех врак;
Всё про Очки лишь мне налгали;
А проку на-волос нет в них».
в принципе ничего сверхъестественного в госуслугах нет, это довольно простой сервис.
Более того, я как олдскульный разработчик скажу, что тех, кто накропал госуслуги (в их нынешнем виде) надо гнать ссаными тряпками за сто первый километр.
Когда вы проектируете автомобиль - вам не нужно придумывать и понимать работу каждой мелочи. Например, вам не нужно разбираться в сплавах для создания какой-либо особо прочной детали, достаточно указать требования.
Тут вы глубоко неправы. Вы должны знать граничные условия прочности имеющихся сплавов, к примеру, чтобы не заложить невозможные габариты, к примеру.
Вы написали тоже самое, что в моей цитате, но другими словами. И назвали свой вариант написания правильным, а мой нет. Заменили "требования" на "знать граничные условия".
А я про то, что вам не надо быть химиком и материаловедом. Вам не надо знать технологию производства какого-то сплава, соотношение примесей в нем и т.п.
Нет, другое.
Вы должны знать граничные условия прочности имеющихся сплавов, к примеру, чтобы не заложить невозможные габариты, к примеру.
означает, что вы не поставите требования, достижимые только в солнечном ядре. В вашей фразе про "достаточно указать требования" таких ограничений нет.
Причем чем более технологичную вещь вы делаете, тем больше надо знать свойства и меньше размахивать требованиями.Так как ваши требования (разумно выбранные) будут на самой границе возможностей. Иначе вашу вещь можно легко улучшить (если не нужно быстрее/прочнее - то можно дешевле)
Некоторые люди воспринимают все максимально буквально.
Т.е. мне в предыдущем комментарии надо было ещё и разъяснять, что требования должны быть разумными и реалистичными.
И что если в требованиях указаны условия, достижимые лишь в солнечном ядре, то и решение должно предлагаться аналогичным, за неимением других вариантов.
И что в требованиях я могу указать нужные граничные условия. А могу не указывать, отдавая это на усмотрение специалистов.
И решать делать или нет, использовать что-то или нет, будет составитель этого требования. Даже если оно нереалистично, но теоретически возможно.
P.s. Когда я встречаюсь в дискуссиях с такими людьми я просто завершаю беседу. Иначе это превратится в бессмысленный трёп, где на каждое слово, фразу требуется все новое и новое уточнение. И сейчас именно такой момент. Всего доброго вам!
Вы просто не можете поставить требование рядом с границей не зная границы. А требования далеко от границы порождают неоптимальные решения.
Таким образом ваше утверждение " не нужно разбираться" - ложно.
Вы просто не можете поставить требование рядом с границей не зная границы.
«Единственный способ выяснить границы возможного — это выйти за них в невозможное» ©
Молодец! "В тренде". Программирование меняется.
У меня начинающие программисты стали выдавать неплохие вещи. Я интересуюсь, как? Совместно с ИИ.
Зная лишь основы HTML, CSS и JS на уровне синтаксиса и базовых алгоритмов, я за два вечера написал на qwen (+дипсик частитчно) сайт канбан-доску без этих ваших коммерческих to-do, doing, done. ламповую пробковую доску для личного пользования, на которую могу кинуть картинку, текст, заметку, стикер, связать веревочками объекты, сгруппировать их в фрейм. думаю еще маркер добавить. данные пока храню в JSON, запускаю на локалхосте.
Я, зная лишь основы Паскаля, делал когда-то на Delphi веб-броузер и таблицы типа Excel.
С llm?
Зная лишь популярный в начале нулевых мем с баша я пропатчил KDE2 под FreeBSD.
Мой старый друг Володя, которого уже нет с нами - просто гений, однажды, после троекратного пересчёта сметы для капризной бухгалтерии, наутро пришел с программой, напоминающей Excel (лет за 10 до его рождения), написанной на … Бейсике! И «одной левой» многократно пересчитывал эти грёбаные сметы) Это было в 80-е годы прошлого столетия. «Да, были люди в наше время!»
Это все классно, но нет ничего удивительного что LLM вам нарандомила код на типичную tutorial задачу, решений которой в интернете тысячи. Что ей скормили, то она вам с успехом и выдала. Это совсем не показатель того что она адекватно справится с чем-то более сложным на чем ее не обучали.
GhatGPT актуальных версий (но не самой новой) не смог нарисовать схему симметричного мультивибратора на двух транзисторов. Просили его вывод делать в виде netlist, он пытается что-то похожее нарисовать, но схемы получаются неработоспособными. Чувствуется, что такой специфической информацией его не учили...
ChatGPT 4o в платном аккаунте выдает такое, что стоит запостить:

С тестовым сообщением "Here is the schematic diagram of a symmetrical transistor multivibrator circuit using two NPN transistors. Let me know if you need modifications or additional details."
Стоит ли после такого ему уточняющие вопросы задавать?:)
Добавить в запрос что-то в духе 'zirkel sigil' - и можно демона вызывать. А так - на обложку очень даже ничего.
А если попросить чего попроще — ну, скажем, диодный мост?
Не зная ничего я просто посмотрел 30 секундное видео на ютьюб и сделал туду-лист!
Написать и я могу. Отлаживать кто будет? :)
Сам разработчик, но по долгу работы в стартапе начал разбираться с Jenkins.
Первые часов 5 попыток пасовал и мой вполне естественный интеллект)
Кажется, чтобы ИИ такое смог, он должен иметь совсем другой уровень агентности, и в длииином цикле запускать -> тестировать -> править
То есть, как и с o1, еще больше вычислений необходимо переносить в момент ответа на запрос,
Расширять окно контекста, научить модель еще лучше самостоятельно сжимать старые данные в контексте, с возможностью их обратно развернуть, убрав что-то другое
Так, как собственно это и устроено и у человека - думаем мы в узком контексте, но при этом произвольно «подгружаем» в него гораздо более широкий опыт
И вот как только вы захотите что-то посерьёзнее, чем "канбан на локалхосте с JSON-хранилищем", то быстро обнаружите, что LLM чудесным образом перестаёт справляться с задачей.
Все языковые модели вызывают искреннее восхищение у тех, кто с программированием знаком лишь поверхностно. Новичкам кажется, что раз LLM смогла сделать шаблонный ABC-проект, то она так же легко справится и с созданием полноценного приложения.
Вот только она не справляется. Ни Deepseek, ни OpenAI до сих пор не дошли даже до того уровня, чтобы хотя бы корректно разделить чётко описанную логику по слоям DDD. Я уже не говорю о том, чтобы с нуля написать эту логику и не превратить её в лапшу из непонятно как переплетённых друг с другом классов.
С одной стороны, полностью согласен, с другой - не до конца.
Я пробовал просить ллмки что-то в духе "а теперь организуй код в виде проекта согласно DDD" (не цитата), и оно, в ряде случаев, на уровне "прототипа", опять же, в целом, справлялось. Не идеально, но декларировало какие папки, какие в них файлы, и так далее.
Разумеется, для "взрослого" проекта оно всё ещё страшный геморрой, но для прототипов и базового их сшивания друг с другом - вообще, на удивление неплохо, и игнорировать это - зарываться головой в песок.
Проблемы начинаются тогда, когда "экскаватор для знаний" превращается в костыль для калеки, уже неспособного перемещаться без этого костыля
Гугл, кстати, тоже такой "костыль для калеки". В идеале, человек должен сам всё знать, все источники для всего необходимого лично себе, и легко находить без помощи бездушной машины всё важное, в идеале - в своей памяти, а не в железке.
А залезть на stackoverflow - вовсе тяжелейший грех, это для невежд, нищих духом.
</sarcasm>
Гугл может быть как полезным инструментом, так и костылем для калеки.
Использование инструмента не грех. Плохо, когда без инструмента человек станочится абсолютно беспомощным
Если кто-то без гугла (нейросети, калькулятора и т.п.) совершенно неспособен ничего сделать (например, поискать в книгах, вывести или вычислить нужное самому), это печально. Да, это может быть менее эффективно (хотя бывает и наоборот). Но при недоступности инструмента (хотя бы и временной) по какой-то причине результат деятельности этого кого-то будет на период недоступности нулевым. А мог быть хоть и меньшим, но вполне реальным.
Если честно, у меня на это нет веских доказательств, но мне, признаться, кажется, что если человек не умеет работать с информацией, то ему и гугл не поможет. А если умеет, то, даже, привыкнув к нему, худо-бедно, как-то, осилит сделать что нужно и без него.
Это как с "помогут ли конспекты на экзамене по электротехнике".
Так и с нейронками. Подавляющее большинство людей всё ещё не могут выжать из ллмки то, что можно с её помощью сделать даже в своей профессии. А это значит, что и без ллмки у них есть определённые внутренние ограничения.
Всё знать нельзя по определению. И да, было время, когда я кодил не то, что без гугла, но даже и без FIDO, но приходилось вокруг себя класть конспекты и справочники с закладками. А также постоянно изобретать велосипеды.
Казалось бы, а в чём проблема когда человек может перемещаться при помощи костыля? 🤔
в чём проблема когда человек может перемещаться при помощи костыля?
Раньше такие человеки назывались особым словом — «инвалиды», и для них даже специальные зваедения были — «дома призрения».
Да, границы применимости, целесообразности и прочего - штука тонкая, в них действительно надо уметь, понимать что это и зачем. А это тяшшка. Проще всё запретить и не пущать. Или, да, "свершилось, есть одна кнопка, что решает все проблемы!"
А когда-то люди справлялись с такими задачами без LLM, достаточно было лишь ящика пива и жужжащего модема.
Время - беспощадная жеж ты сволочь. (перефразировка одной известной фразы).
Практически любая обезьяна, запертая на полгода в ящике с компом, едой и кофем, понукаемая электрошокером может написать вполне приличную, скажем, замену инфраструктуры Atlassian. Да, это будет неидеально, но импортозамещение же, ну и что.
А что если не хочется тратить полгода, а хочется хоть где-то срезать углы?
А, как назло, под рукой, ни одного гениального Чака Норриса от мира программирования, что за ящик пива за ночь сделает BolgenOS, взломает на нём сервер Пентагона и напишет Quake 8?
Время. Вот для чего это всё.
Ну это в идеале, да.
На практике был у меня случай - делал я софт для довольно крупного транспортного узла, 13% всех контейнерных перевозок Мск/МО. Всё работало, все довольны.
Пришли новые акционеры: как, говорят - да у нас же своя ИТ-компания есть, больше тыщи человек штат, надо чтоб они всё переделали!
Ну пришла команда. Аналитики, девопсы, фронтендеры, бэкендеры, всякой твари по паре. Год пилили-пилили. Ну сделали, да. Ровно всё то же самое по функционалу, что и было - зато микросервисное и в облаке от "Крока" за кучу денег.
Спрашивается: нахуя, а главное - зачем?..
Ответ есть в вашей реплике:
у нас же своя ИТ-компания есть
...
сделали... за кучу денег
Понимаю Вашу боль, бывает и такое. Очевидно, что в этом кейсе произошло одно из (возможно, в комбинации):
Были какие-то хотелки, которые кто-то решил, что реализовывать удобнее "у себя", дескать, можно в любой момент попинать кого надо, и оно, магически, заработает, не то, что у стороннего "производителя", с которым ещё договариваться надо. (ха-ха)
Кто-то хотел денег, занятость, опыт команды, перехват на себя контракта и прочая.
У кого-то в голове засела религиозная мысль "микросервисы - это всегда хорошо, и мы умеем их готовить" (сидят в аду рядом с "микросервисы - это всегда плохо").
В любом случае, это было явно не про экономию времени. )
Понимаете, девять женщин не могу выносить ребёнка за месяц. Нужно привыкнуть к тому, что хорошие вещи требуют время на реализацию.
и получить в ответ полезный прототип на Python (или на языке программирования по вашему выбору)
так это уже давно так: пишешь в интернет запрос практически на человеческом языке и получаешь варианты прототипа под свою задачу, надо только выбрать и доработать напильником. Будущее уже наступило, но понимать что написано в прототипе все равно надо где-то научиться, а сейчас тенденция в том что прототипы выдают за готовые решения даже те кто обучает.
Правильно заданный вопрос уже содержит половину ответа. Так что даже в теории AI может облегчить кодирование лишь на половину. На практике же - намного меньше.
когда то был популярным вариант (который я помню) что правильно сформулированная задача это, вообще 95% ее решения, поэтому я бы даже сказал намного-много меньше :)
Одно из тех мест где AI очень хорошо помогает - это как раз-таки задавать самому себе правильные вопросы и уточнять их с разных сторон.
Представьте себе, много лет многим программистам великолепно помогал резиновый утёнок.
Кто захочет продираться через дерево телефонов службы поддержки клиентов, когда они могли бы поговорить с агентом ИИ, который действительно может решить их проблему?
О, нет! Каждый раз у меня пригорает от этих ИИ-болванчиков в техподдержке
Нет, голосовые ИИ – смерть.
То ли дело качественный ИИ на интернет-ресурсе. Не хочу рекламировать, поэтому название оглашать не буду, но есть хостинг, где доступен консультант в виде "GPT". Впервые такое качество консультации по возможностям и способам их применения встретил. Чуть ли не init.sh написать может. Хотя для решения реальных проблем со сбоями и подобным всё равно писать надо в живую поддержку.
непрограммист может просто поговорить с LLM или специализированным программным агентом на простом английском языке (или на человеческом языке по вашему выбору) и получить в ответ полезный прототип
Только оно может даже в простейшем скрипте набыдлокодить
Стомегабайтные фонарики на Андроид были цветочками, ждём волны результатов соития непрограммистов и LLM
Почему у меня стойкое ощущение, что нас старательно пытаются убедить в том, чего на самом деле нет? Ну ок, из каждого утюга "профессия разработчика умирает", или трансформируется под нажимом ИИ, ну так это ж владельцам Llm , Microsoft и прочим только на руку - чего нас, дармоедов, кормить то? Но уж сильно навязчиво это выглядит... как будто за нас специалистов все решили: какие задачи мы будем решать в будущем, что мы не способны будем разобраться в сложном коде, что нам обязательно нужен ИИ, иначе вымрем... И снова всем навязывают инструменты. Как во время золотой лихорадки бОльшую прибыль получают продавцы лопат....
Да, не, журналисты и блогеры хайпуют на теме и всё
Я пришел к выводу что, если человек не целенаправленно хайпует на теме, то о том что ИИ всех заменит орут либо wannabe вкатуны, либо люди гуманитарного склада ума, которые просто не очень сильно разбираются в теме, но очень легко впечатляются всякими игрушками.
ну знаете ли, не факт далеко, вот тут давича, третьего дня в блоге казалось бы каких то модных молодежных ред_дот_робот что ли, вот как раз когда значится китайцы интервью давали (не Панораме), и значится позволили себе заметить что тернистый путь а АГИ они видят в собственно в естественном языке. На что значится, товарищи разразились статьёй о том, что вот по их мнению что бы думать язык не нужен и всерьёз рассказывали как могут подумать "937" без слов.
А то ли сегодня, то ли вчера у них значится с коллегами из сколково какие то семинары по ИИ.
ps. предельная форма изумления диктует слог, так что если что, простите великодушно
«У кошки четыре ноги: вход, выход, земля и питание» ©
Яндекс? Почему я не удивлен. Попробуйте спросить у нормальных сеточек :)
Яндекс мне на днях и вовсе выдал прекрасное (освежал в памяти матчасть для писательских нужд):

Но к его чести, ссылку на источник он даёт, так что проверить информацию всё ещё несложно.
Но GPT уже пугает своей адекватностью)

Кстати ответ выглядит не особо логичным. В выводе пишет о "очень давно, далёкие предки имели четыре конечности". Но у птиц тоже четыре конечности, крылья это конечности. Тут впору было больше рассуждать о том, при каких условиях конечность можно считать ногой.
Всё не так однозначно!
Перед нами стол. На столе стакан и вилка. Что они делают? Стакан стоит, а вилка лежит. Если мы воткнем вилку в столешницу, вилка будет стоять. Т.е. стоят вертикальные предметы, а лежат горизонтальные? Добавляем на стол тарелку и сковороду. Они вроде как горизонтальные, но на столе стоят. Теперь положим тарелку в сковородку. Там она лежит, а ведь на столе стояла. Может быть, стоят предметы готовые к использованию? Нет, вилка-то готова была, когда лежала. Теперь на стол залезает кошка. Она может стоять, сидеть и лежать. Если в плане стояния и лежания она как-то лезет в логику «вертикальный-горизонтальный» , то сидение - это новое свойство. Сидит она на попе. Теперь на стол села птичка. Она на столе сидит, но сидит на ногах, а не на попе. Хотя вроде бы должна стоять. Но стоять она не может вовсе. Но если мы убьём бедную птичку и сделаем чучело, оно будет на столе стоять. Может показаться, что сидение - атрибут живого, но сапог на ноге тоже сидит, хотя он не живой и не имеет попы. Так что, поди ж пойми, что стоит, что лежит, а что сидит. А мы ещё удивляемся, что иностранцы считают наш язык сложным и сравнивают с китайским.
А вот, кстати, да, это Вы хорошо заметили. Мне внезапно стало любопытно, как обстоят дела в сфере перевода. Ведь там тоже уйма нюансов, которые зависят от контекста и для понимания которых нужно культурное если не погружение, то как минимум - знакомство. И это я говорю про английский и некоторые другие языки романо-германской группы. А если взять, скажем, японский или китайский - там я масштабы даже представить себе не могу. «ИИ» там сильно заменяет людей?
На всякий случай, дисклеймер: в данном случае я говорю не о переводе емейлов, когда стоит задача понять, что от тебя хочет клиент/начальство.
какие задачи мы будем решать в будущем
За какие заплатят. Если это не хобби, то вы выбираете компанию и немного в рамках компании. Но что конкретно нужно компании, решаете не вы. Ничего не изменилось, ни в чем особом автор статьи убедить не пытается.
Чтобы продать всем подписку, особенно "не_программистам", пока хайп не прошёл?
А калькуляторы уже заменили бухгалтеров?
Как минимум сократили на порядок-два расчетные отделы
Ну да, те кто просто считали должны были переучиться на что-то большее. Но и работа бухгалтеров стала эффективнее, они сейчас могут вести сразу несколько компаний/ип, а не вести рассчетны только для одной.
Так что калькулятор в виде ИИ не заменит людей, но изменит рутину и привычные инструменты
На современном этапе бухгалтера уже мало используют калькуляторы. Если какая-нибудь процедура очень часто используется и достаточно распространена, то роль чаще всего роль бухгалтера или какого-нибудь другого оператора сводится к простому и правильному вводу определенных данных. Все остальное делает программа. Если процедура не очень распространена, то ее также пытаются автоматизировать. Основная масса бухгалтеров, на нормальных предприятиях, уже давно превратилась в операторов, которые просто правильно вводят данные. А вот организовать, создать, наладить весь этот процесс ввода данных и дальнейшей обработки вот для этого нужны соответствующие люди, умеющие не только программировать, но и знающие все тонкости того, что пытаешься запрограммировать.
А как много людей, которые занимаются только программированием, когда максимально расписанные требования и спецификации и остаётся только переводить бездушно их в код?
Да и как много собственников бизнеса или менеджеров будут готовы сами составлять подробные спецификации для ИИ, следить за правильностью и качеством результата, тюнить его под задачи и т д? Думаю, это всё будет снова делегированно разработчикам
когда максимально расписанные требования и спецификации и остаётся только переводить бездушно их в код?
Тогда б мы компилятор написали!

А как много людей, которые занимаются только программированием, когда максимально расписанные требования и спецификации и остаётся только переводить бездушно их в код?
Вы не поверите, но это состояние мира с момента изобретения языка FORTRAN. То есть, 70 лет как программисты пишут максимально расписанные требования и спецификации, а компилятор их бездушно переводит в код.
А настоящие программы люди не пишут и того больше, начиная с изобретения автокодов.
как много собственников бизнеса или менеджеров будут готовы сами составлять подробные спецификации...
Для этого индустрия давно выделила аналитиков и продактов
Это не бухгалтеры, это операторы 1С.
Бухгалтеры решают немного другие задачи. К примеру: работник организации, гражданин Республики Беларусь, работая в РФ, отправился в отпуск на родину и сломал себе спину. Каким образом ему оформляется больничный?
Или вопросы расчёта налоговой ставки, когда организация пару раз в год меняет адрес регистрации между разными регионами с разными действующими нормами. При этом в Налоговом Кодексе эта ситуация не отражена, ФНС в своих письмах говорит одно (уточняя, что эти письма не несут законодательного характера), а МинФин говорит совершенно иное (но с той же самой припиской). А в случае ошибки бухгалтера компанию ждут многомиллионные доначисления и штрафы, которые придётся доказывать в суде.
Сразу скажу, что LLM во всех случаях, выходящих за рамки знаний среднего бухгалтера, несёт дикую чушь, потому что интернет пестрит статьями "искпердов", которые перепечатывают эту чушь друг у друга, даже не удосуживаясь почитать матчасть.
Тех, которые только считали, но ничего не знали сверх этого заменили. ИИ тоже заберёт у людей только ту работу, с которой справится, а не всю. Однако может он больше, чем калькулятор.
Как только уголовную ответственность будет нести калькулятор, а не главбух, так сразу и заменят. А пока среди директоров дураков нет…
Калькулятор это была профессия такая. А теперь об этом уже почти никто не помнит...
Вон он моет полы с двумя вышками)
Мне кажется, золотые времена айтишечки прошли, она становится обычной сферой с обычными зарплатами
да, дантисты должны бояться больше всего, вместе с психологами.
Вот по поводу дантистов, всё жду волшебных таблеточек / укольчиков, вызывающих очередную смену зубов как у детей — желательно конкретных, но сойдёт и всех одним махом.
Не думаете, что таблеточку делает "успешный стартап с искусственным интеллектом", так что свои зубы выпадут, а новые не там вырастут?:)
Вроде все зубы у новорожденного уже комплектом идут. И молочные и коренные, а третьего ряда нет.
К сожалению, не выйдет: у человека оба комплекта зубов заложены с рождения, «новых» не вырастает.
Драйверы пишутся программистами и они продолжают и будут продолжать этим заниматься... Причем здесь Windows ?
В статье Windows/macOS упоминается в контексте того, что железо поставлялось сразу с драйверами, а не без них, то есть с появлением Windows/macOS далеко не всем приобретателям железа приходилось искать программиста, чтобы он драйвера поставил, а сразу готовую коробку купить и запустить, при том что на ней много чего можно поделать — это супер удобно покупателям, да и программист мог ориентироваться, что большую часть за него уже реализовали, причём ± везде одинаково, так как Windows очень завирусился и был уже повсеместно.
В статье говорится таки про производителей компьютеров, которым приходилось нанимать программистов, чтобы писать драйверы.
На заре персональных компьютеров каждому производителю компьютеров требовались инженеры-программисты, которые могли бы писать низкоуровневые драйверы, выполняющие работу по чтению и записи на схемы памяти, жесткие диски и периферийные устройства, такие как модемы и принтеры.
Но они до сих пор нанимают программистов, которые пишут драйверы для их устройств. То, что эти драйверы часто потом поставляются сразу с ОС, и что в ОС могут быть обобщенные стандартные драйвера сразу для класса устройств - другой вопрос. Драйвера чипсета для оптимальной и корректной работы компьютера часто являются необходимой штукой и таки должны быть установлены сразу вместе с ОС или даже отдельно.
Удивлю я вас до невозможности ... но с помощью осциллографа люди до сих пор отлаживаются. И бывает, что других вариантов - нет.
Я не понимаю, кто то пишет с помощью нейросетей код и он не требует кучи правок? Кто то реально сделал пару десятков запросов и получил готовое приложение именно таким каким он его видел в голове? Почему у меня чат Джипити новой модели постоянно заходит в тупик? Я не умею с ним работать или все сошли с ума и наслушавшись рекламщиков, бросились писать подобные статьи даже не проверив правдивость заявлений. Столько текста причем и человековремени в это вкладывают. Под похожим постом кто то догадался спросить - а вам пост нейросеть написала? И ответом было нет, она не смогла это сделать так как мне было нужно... Но сами эти люди пишут про код при этом. Я вообще не понимаю зачем писать такие посты честно говоря. Ну заменит нейросеть программистов, думаю пользователи хабра это одни из первых заметят и без кучи статей подобного рода. Когда модерация решит фильтровать такого рода статьи? Да они популярны, но потому что хайп и недоумение + обсуждать это берется любой человек. Это хабрабу уже какой то. Скоро до котиков дойдет
если соц рейтинг низкий, то у ии выдача хуже (шутка)
Я не понимаю, кто то пишет с помощью нейросетей код и он не требует кучи правок?
Я пишу. Правки бывают, но не куча. Очень сильно экономит время.
Правда, я не требую от гпт написать всё приложение целиком, а спрашиваю только мелкие куски уровня "как в с++ на linux определить, есть ли в подкаталогах указанного каталога примонтированные файловые системы" или "какая структура данных лучше всего подойдёт для такой-то задачи".
Ну и объяснение ошибок компиляции, тут гпт прям топчик.
Ну это то всё понятно и никто не спорит, коммент ведь не об этом) То, что ты говоришь - это использование LLM в качестве замены Stackoverflow, но никак не пример того, как нейросети могут заменить программистов. Эти запросы не-программисту покажи - он половину слов в них не поймёт, не то что ответы на них, и что с ними делать потом
Да, нейронки это по сути поисковые системы на стероидах.
но никак не пример того, как нейросети могут заменить программистов
Не могут. Я вообще не понимаю, почему вроде неглупые специалисты так активно и всерьёз обсуждают замену людей штукой, которая даже на самостоятельное целеполагание неспособна. Совсем ополоумели?
почему вроде неглупые специалисты
Потому что глупые.
Это на самом деле маркер и показатель. Хочешь узнать, насколько айтишник квалифицирован в собственной сфере, и насколько понимает автоматизацию вообще - спроси про роботов и нейросети. Если "роботы нас всех съедят, нейронки сами пишут код" - перед тобой идиот. А в каждой такой статье - перепись идиотов. Многие, по их словам, с десятилетним стажем, и более.
К вопросу про собесы и вопросы, кстати.
Всё наоборот.
Джеффри Хинтон глупый?
Джеффри Хи́нтон (англ. Geoffrey Everest Hinton; род. 6 декабря 1947) — британский и канадский учёный, внёсший заметный вклад в глубокое обучение.
Он ангажирован, как и какой-нибудь Сэм Альтман, как и Хуанг (который Куртка).
Всё наоборот.
Ага, ага.
У меня к фанатам ИИ-замещающих-человека одно отношение: "мели, Емеля - твоя неделя". Нейронки упрутся в очередные ограничения, хайп спадёт, пророки скорого установления "вкалывают роботы" сделают вид, что ничего не было.
амену людей штукой, которая даже на самостоятельное целеполагание неспособна
Так и топящие за неё людине способны=) Их и заменят первыми.
>наслушавшись рекламщиков, бросились писать подобные статьи
Вы не поверите... а еще у таких статей огромное количество комментариев и просмотров, например ваш и мой.
Как говорится,
Революция ИИ это всего другая разновидность кризиса доткомов. Что ожидали тогда и получили сейчас? Кто заработал ? Всё это можно и нужно вспоминать сейчас. Свою нишу эти доткомы получили, но лет через 10-15 и торговля через инет пошла и т.д, а до этого это "инвесторы" и очередной проект фондовой биржи.. И конец какого программирования, не в меру распространенных новомодных языков? Причём, не то что будут сокращаться нынешние места, а не будет образовываться новых - а значит не будет "карьеры", "роста" за исключением когда рабочие места освобождаются, как в вузах и госслужбах, по естественным причинам или по родственным связям. Это ровно как конец недвижимости - она не будет дешеветь в рублях, как всех пугают ютуперы, но и не растёт и отстаёт от инфляции и банковских процентов
По большей части ии справляется со сложностью которая возникла из за совершенно чудовищного бардака который сохраняется в электронике и программировании уже около пятидесяти лет. Стандартизация языков программирования не вышла за пределы текстовых заклинаний. Нет стандартного gui. Нет стандартных надёжных компонентов. Устройства почемуто не научились содержать в себе драйверы. Драйверы почемуто не стали стандартными, абстрактными и кросплатформенными. Технари по прежнему пишут абсолютно идиотские мануалы и гайды. В интерфейсах программирования нет идеологии от простого к сложному. , почемуто принято вываливать на первом же уровне все настройки вплоть до самых редко используемых.. В общем ии вытягивает из под коряги индустрию которая десятиоетиями наводила туман и путаницу с целью сорвать побольше бабла в тех вещах которые уже никто не способен освоить в обозримой перспективе. Мы так и не увидели стремления железа к коду. По прежнему программист имеет дело с иерархией из 4 видов разной памяти а не с одним. Особенно фиерично выглядят сейчас изобретатели новы операционных систем. Они берут грант на пол миллиарда а потом в качестве результата радостно приносят очередной клон линукса. Они уже не способны создать ос с нуля потому что не понимают как она работает в глубине своей.
Потому что проблема не в технологиях, а в том что её производит — ограничениях человека, его когнитивных искажениях, стремлении срезать углы и получить приятное, ценой технического, экономического, экологического долга.
Народ вы точно не курили? Какие к херам искажения? Споосите любого синьйора который пилит дрова сетевой каоты я не говорю про всякие гвидиа. У неот все расписанно все шаблонизированно начиная от учебника по ко орому учился заканчивая рулсами железки. Поограммирование д₽ соединяет не соединенрое и это блин процесс. Кто то внедряет ровьё и что есть идея как это новьё сделать по стандарту :) а остальн@е начинают залатывать недостающее между новым интересным и тем что есть.
Нет стандартного gui
И слава богу! Не хватало ещё безальтернативно пользоваться единственным представлением о правильном.
Стандартизация языков программирования не вышла за пределы текстовых заклинаний
Стандартизация в каком плане?
Устройства почемуто не научились содержать в себе драйверы
Как обновлять такие драйверы?
Особенно фиерично выглядят сейчас изобретатели новы операционных систем. Они берут грант на пол миллиарда а потом в качестве результата радостно приносят очередной клон линукса. Они уже не способны создать ос с нуля потому что не понимают как она работает в глубине своей.
О чём именно речь?
Как обновлять такие драйверы?
Ну вот как раз с обновлением сейчас проблем нет. Устройство просто могло бы содержать флеш-память, в которой находится текущая версия драйвера. При установке драйвера добавляется и периодически запускаемая программа-обновлятор, скачивающая новую версию драйвера и записывающая её во флеш-память устройства.
А если такая система станет стандартной, то обновлением может заниматься и какая-то подсистема ОС, обращающаяся к единому реестру драйверов по идентификатору устройства. В принципе, такое обновление есть и сейчас, остаётся стандартизировать хранение драйвера в устройстве.
Собственно, нечто подобное было в принтерах HP. При первом подключении принтера он распознавался как съёмный диск, с которого запускался установщик драйверов. Если драйвер уже был установлен, то он выдавал принтеру команду отключить диск до перезапуска принтера.
Ну вот как раз с обновлением сейчас проблем нет. Устройство просто могло бы содержать флеш-память, в которой находится текущая версия драйвера. При установке драйвера добавляется и периодически запускаемая программа-обновлятор, скачивающая новую версию драйвера и записывающая её во флеш-память устройства.
Такие драйверы должны будут уметь поддерживать все существующие операционные системы и оперативно добавлять поддержку новых. Или же мы поимеем невиданный вендорлок, когда "неправильные" или "нежелательные" или "невыгодные" ОС останутся за бортом. Если сейчас энтузиаст может реверснуть железку и написать драйвер для своей ОС, то в вашей схеме у него не будет такой возможности или же ему придётся обновлять флеш-память устройства (а если он вздумает вернуться на винду - обновлять снова). Очень много гемора.
для своей ОС
Никто не заставляет в своей ОС использовать драйвера из флеш-памяти устройства. Да и вообще, поддерживать доступ к встроенным драйверам.
Драйверы могут накладывать ограничения на модели работы ОС. Насколько я знаю, для ОС реального времени нужны специфические драйверы.
И? Ваша ОС - ваши правила. Надо вам, пишете свои драйверы. Устраивает - используете идущие с устройством. Не вижу никакой проблемы.
Ваша ОС - ваши правила. Надо вам
Владельцы Windows-принтеров, поддержка которых закончилась на Windows XP, с интересом прислушались. Да, нам надо. Но драйвера под Windows 11 что то никто не пишет.
С чего бы? Если у вас драйвера к устройству идут на отдельной флешке и вы на эту флешку записали свежую версию драйверов, то каким образом эта процедура окирпичит устройство? И что принципиально меняется, если такая флешка интегрирована в устройство?
Устройства почемуто не научились содержать в себе драйверы.
Некоторые вполне научились. 3G и 4G модемы, некоторые принтеры. Подключаешь к ЭВМ под Windows, и, если не было раньше установлено, оно таки предлагает установить драйвер со встроенной "флэшки".
Драйверы почемуто не стали стандартными, абстрактными и кросплатформенными.
Некоторые стали. Например, стандартный драйвер внешнего USB накопителя и некоторые принтеры (особенно сетевые). Но это проблема не драйверов, а производителей оборудования, которые редко договариваются до некоторого общего стандарта на этом уровне. Казалось бы, те же принтеры можно давно делать работающими с абсолютно одинаковым драйвером, как флэшки. Всего-то и надо отдавать по стандартному запросу некоторые параметры принтера и получать для печати какой-нибудь PDF или Postscript. Но даже принтеры, таки умеющие получать PDF или Postscript, требуют разных драйверов для управления.
общем ии вытягивает из под коряги индустрию которая десятиоетиями наводила туман и путаницу с целью сорвать побольше бабла в тех вещах которые уже никто не способен освоить в обозримой перспективе
Может быть не вытягивает, а затягивает ее глубже, так как добавляется дополнительный уровень сложности, у которого будет не меньше проблем. Он (ИИ) просто сейчас позволил склеивать то, что раньше было дорого и трудно. Но от этого корень проблем, о которых вы справедливо пишите далее, не ушел никуда.
из под коряги индустрию
Корни проклятые...
По сути дела в индустрии программирования катастрофически не хватает глубокого глобального административного регулирования. Требуется глобальный "джихад " Борьбы со сложностью. Необоснованная сложность плодится чудовищными темпами. И каждый страуструп создант свое болото с томами описания и учебников.
По сути дела в индустрии программирования катастрофически не хватает глубокого глобального административного регулирования.
Да что ж некоторым так неймётся без сапога 🤦🏻♂️
Простой вопрос: что конкретно этот глобальный сапог должен наадминистрировать в IT? И сразу вдогонку: с чего вы решили, что выбранный вами вариант самый правильный и подойдёт всем?
Я бы назвал грядущие изменения не администрированием, а унифицированием и агрегатированием (звучит коряво).
Современное состояние программирования - это как у слесаря-столяра середины прошлого века: пять молотков разного размера, две киянки, кувалда, куча напильников, батарея сверел, тридцать три загогулины, им самим сделанные, любимые, которыми удобно ковырять там и сям лично ему, набор инструментов, оставшихся от бати, блестящие ненужные хреновины, подаренные на юбилей и ящик гвоздей, вперемешку с шурупами, болтами и ржавчиной.
Умение найти требуемое в этом хламе считается мастерством.
А потом появились ЧПУ ...
Так случится и в программировании. Из унифицированных кирпичей можно будет строить всё, что угодно, а вот этот зоопарк языков - тот самый ящик с хламом, куда все кому не лень десятилетиями валили выстроганное под личные нужны, уйдет в прошлое.
Думаю начнется с какого-то машиноориентированного языка или нескольких, заплатить придется объемом кода и быстродействием, как при переходе с ассемблера, зато отпадёт куча лишнего
А потом появились ЧПУ ...
И сверла, фрезы, резцы в ассортименте, держатели инструмента, и прочее все так же нужны. Только стоят они теперь на порядки дороже и куда чаще замены требуют, чем в ручной дрели или в токарном станке с педальным приводом :)
Вы в "Вешу" не играйте, ниша занята. У него задача ляпнуть лишь бы ляпнуть, а по делу или нет, не важно.
Вы что хотите сказать, что с ЧПУ получилось хуже? Дороже? Ненадежнее?
Цель унификации в избавлении от всяких местечковых фишечек, которые с определенного уровня тормозят развитие.
Современное программирование - эта куча фишечек и есть, целиком. Любой новый язык - "гранаты не той системы", переучивай заново.
Это и отвалится
С ЧПУ лучше, пока речь идёт о массовом производстве. Как только нужно сделать что-то в единичном экземпляре, например экспериментальный образец, то слесарь прошлого века справится не хуже, а то и лучше.
качественные фреймворки могли бы решить проблему - 'переучивайте' (потому что сам язык это капля в море),.. пример (который похоже майкрософт слили в унитаз) - .net, там даже .net python есть и .net c++ и еще с пяток языков, и все крутятся вокруг единой экосистемы библиотек, все подходит ко всему, плюс виртуальная машина с оговорками кроссплатформенная (майкрософт только ломать умеет)
Еще как дороже. Комплект приличных высокоскоростных резцов стоит как вся мастерская моего деда… да даже дремель за 50 баксов требует расходников и тулзов на полтысячи, если им регулярно пользоваться.
Не знаю, про какие там фишечки вы говорите, я за год несколькими десятками языков программирования пользуюсь. И фортран, си, и многие другие «олды» бывают незаменимы, так что ваши мечтания про «единый» язык далеки от реальности.
Из унифицированных кирпичей можно будет строить всё, что угодно, а вот этот зоопарк языков - тот самый ящик с хламом, куда все кому не лень десятилетиями валили выстроганное под личные нужны, уйдет в прошлое.
Я это слышал при появлении Java и при появлении .NET - мол, ну теперь всё кардинально упростится, программисты будут пользоваться уже готовыми компонентами и зоопарк уйдёт в прошлое. Не ушёл. Потому что для разных задач хорошо подходят разные инструменты.
Это мечты из разряда "а вот если все люди будут разговаривать на одном языке - сколько лишнего отпадёт!". Чистая маниловщина от людей с очень узким взглядом на реальность (прежде всего: то, что названо лишним - совсем не лишнее).
Единый язык вам уже выдали в пользование, а вы даже не заметили, как и комментаторы выше.
Где он, почему не видно?
А потому, что он не для вас.
Вот же он, "язык" ЛЛМ, пригодный для обработки текста, а результат уже выдается в понятном пользователю виде. Так что можете поставить крыжик, выполнено.
Точно так же появится некий алгоритмический язык для робота, заменяющий вот это всё, созданное для человека. Всё программирование на любом языке - это баланс между способностью удержать в памяти и удобством, шаг влево-вправо и получается либо чрезмерно раздуто и запутанно, либо сокращенно, непонятно и еще хуже.
Отлетит как шелуха, роботу человеческие ограничения не помеха, будет думать и кодировать на своём, а пользователю результат в понимаемом виде.
Будете спорить, подумайте еще раз, то, что вами названо чистой маниловщиной, уже работает
Вот же он, "язык" ЛЛМ
Я не любитель поэзии и сов, натянутых на глобус.
Разумеется, никакой это не язык программирования.
роботу человеческие ограничения не помеха, будет думать и кодировать на своём,
и будет как-то так.
А вы точно программист? Вы вообще знаете, что такое формализация, языки программирования и зачем они нужны?

Из унифицированных кирпичей можно будет строить всё, что угодно, а вот этот зоопарк языков - тот самый ящик с хламом, куда все кому не лень десятилетиями валили выстроганное под личные нужны
Идея конечно хорошая, но на практике оказывается что для создания такого нужен как минимум математический гений по теории категорий и высшей алгебре вкупе со знанием внутренностей современных железок. Задача настолько сложна, что наверное любой (или группа людей) попытающийся за нее взяться упруться в неразрешимые (для их интеллекта) проблемы.
Тут скорее как выражался Торвальдс, процесс похож больше на эволюцию. Каждый пишет свои инструменты под свои нужды, хорошие инструменты переиспользуются и живут дальше, недостаточно хорошие отмирают. Оптимальности нет, есть только то, что работает и что нет. В общем зоопарк, но ничего другого не остается.
Вам ЛЛМ ответы выдает? А как она их создает? Токенами и математикой?Фактически язык ЛЛМ, некий всеобщий язык, перекомпилируемый ею потом в любой человекопонятный.
Так и с программированием.
Будет "думать" внутри себя в токенах, математике и скомпилированных кусках кода, а вам/нам выдавать либо исполняемую программу, либо на понятном языке.
Проблема программирования именно в неразрешимости для интеллекта человека, что тормозит. Вы не можете писать на языке с несколькими тысячами функций или функциями с сотней-другой аргументов, а робот может. Вот и будет что-то подобное.
Аналогии все кривые, но куда ж без них.
То, чем заняты сейчас программисты, это те самые извращения с преобразованиями интегралов в потугах их решить, которыми мы все мучались на матане. Справочники, шпаргалки, признаки того сего, черта с два упомнишь, хитрые методы и прочее. А потом бац и численными методами всё одним чохом решается.
Так и тут будет
В чем возражение то? Вы знаете как создать "универсальные кирпичи" о которых говорили ранее? LLM - это разве универсальный кирпич? LLM'ов вообще то есть много и их можно обучать на разных датасетах - где вы видите универсализм то? LLM скорее можно использовать в виде раствора или клея для других кирпичей.
Сколько есть истории программирования, каждый старался создать свои "универсальные кирпичи", но для каждого набора "универсальных кирпичей" находилась задача, которую было накладно делать с точки зрения производительности с помощью данного набора или неудобно делать для конкретной платформы или железа или еще в силу какой-то специфики задачи. И так до сих пор и появляются все новые и новые наборы кирпичей. Вы хотите сказать что LLM это как-то фундаментально решили?
Вы не можете писать на языке с несколькими тысячами функций...
Более чем могу, тем более, что функции не в языках, а в библиотеках.
...или функциями с сотней-другой аргументов, а робот может.
Функции с сотней аргументов -- это плохие функции, являющиеся результатом неправильного проектирования.
Функции с сотней аргументов -- это плохие функции, являющиеся результатом неправильного проектирования.
В массиве есть сотня ячеек. Кажется, что мы передаём массив, а на деле передаём сотню аргументов.
В объекте есть сотня полей (свойств, атрибутов). Кажется, что мы передаём объект, а на деле передаём сотню аргументов.
Посмотрите на административное регулирование веб-технологий. Стандарты, консорциумы, рабочие группы, производители браузеров.
Ну тем не менее рациональное зерно в регулировании есть, потому что полное отсутствие стандартов порождает полную анархию. Мне доводилось видеть банки и крупные компании, где не было бэкапов (от слова совсем); где "главным роутером" стоял Asus WL-500g и много ещё всяких ужасов.
При этом каких-то вменяемых стандартов о том, как должны строиться информационные системы на практике - их, в общем-то, нет. Разве что PCI DSS - там да, там можно говорить о том, что если ИС сертифицирована по этому стандарту - то там действительно присутствуют определённые элементы информационной защиты. А без этого - каждый делает что считает нужным, потому что нигде нет конкретного документа, где было бы написано "нужно делать бэкапы", "нужно держать файрволл в закрытом режиме" и так далее.
Они просто занимаются закреплением в бумаге уже дефакто сделанного.
В «индустрии» человеческих языков предложите сделать тоже самое? Сложность всех этих региональных форматов дат/времен/веса/номеров телефона, а уж количество болот(100+ живых локалей) в каждом языке просто поражает….
А на чем учили и учат нейронки кодить? Если завтра выключить условные стековерфлоу и ему подобные сайты, тогда не будет появляться новой информации и нейронкам просто не на чем будет учиться, а, ведь, будут и другие языки программирования, другие задачи и проблемы. Без этой "кормовой базы" чатГПТ просто останется без кислорода.
Следующие лет 20-30 основная работа кожаных будет обучение нейронок, вот буквально - оценка и тюнинг ответов, формирование вопросов (важнейшая часть обучения) и вообще генерацией данных... вангую на заре будут появляться компании, которые будут переливать из 'пустого в порожнее' только что бы обеспечить делом народ и наблюдая за ним генерировать данные.
Альфа рубилась сама с собой. Чемпионаты по Атари вроде проводят скармливая картинку экрана, а не ролики прохождения. Так что будет учиться как все - на спецификации, Кнуте и Ахо с Ульманом.
Как только ИИ научится корректно сравнивать 9,2 и 9,11 так и перестанут быть нужны программеры.
https://chatgpt.com/share/67a89d23-eb2c-800d-9120-6228e631160d
Прогерам увольняться?
Квантованная дистиллированная DeepSeek-R1-Distill-Qwen-14B-Q5_K_L, запущенная локально, тоже справилась. Хоть и ответила по-английски а не по-русски, но правильно.
все что можно эффективно автоматизировать с помощью нейросетей, это будет происходить. И этот процесс никогда не остановится, пока происходит развитие ИИ.
Статья написанная ИИ про ИИ
Забавная статья, но всё предыдущая история шла во время опережающего развития железа. Возможность перейти от прямого программирования проводами к нынешним нейросетям сопровождалась ростом вычислительных возможностей на 10 порядков. То есть, программирование развивалось в условиях избытка ресурсов. Разница между топовым бытовым процессором 1985 и 1995 года - это разница между i386 и Pentium Pro, 2005 год - это топовые Athlon 64, 2015-ый - это пятое семейство Core i7. Насколько понимаю, за последние десять лет производительность одного ядра не особо изменилась, приходится лезть в многоядерность, которая тоже уже упирается в физические ограничения. С видеокартами - аналогичная ситуация. Разница между 1997 и 2005 годом - это разница между 3dfx Voodoo и Geforce 7. Разница между 2017ым годом и нынешним - это разница между 1080 и 5090. Тоже большая, но уже не запредельная. Время запредельного избытка ресурсов постепенно уходит, так что на появление ещё пары слоёв абстракции тупо нет аппаратных возможностей. Даже у ИИ начинаются проблемы из-за того, что начинают кончаться естественные данные, на которых их можно обучать.
Даже у ИИ начинаются проблемы из-за того, что начинают кончаться естественные данные, на которых их можно обучать.
Поправка - 'на которых можно быстро обучать'.
В смысле - единицы лет хотят и без существенного участия людей. А так - с естественным интеллектом потратить проценты национального бюджета, кучу человеко-лет специалистов по обучению и лет 25 календарного времени, чтобы получить какое-то количество некопируемых специалистов -- это нормально.
А для ИИ точно так же - уже, почему-то, нет. Хотя результат будет специалист, поддающийся копированию.
То есть, следующая итерация IT - это куча Василиев, которая размечает данные для обучения ИИ?
Насколько понимаю, за последние десять лет производительность одного ядра не особо изменилась
Плохо понимаете, одно ядро Apple Silicon в несколько раз быстрее одного ядра Intel в маках десятилетней давности. Не говоря уже о производительности процессора целиком...
https://www.cpubenchmark.net/singleThread.html
Наивысший результат среди яблок - Apple M3 Max 16 Core 4,792
Я не знаю, какой именно проц был топовым в маках десятилетней давности, но в любом случае это что-то из семейства Haswell с примерно 2000 попугаями в однопоточном режиме. Например: Intel Core i3-4360 @ 3.70GHz 2,079
То есть, рост примерно в 2-2.5 раза. За 10 лет. Даже если сравнивать его с процессором почти двадцатилетней давности (самыми первыми Intel Core 2 Duo) рост производительности в Single Thread будет примерно восьмикратным. за 18 лет. Производительность на ядро уже давно почти не растёт, если сравнивать с тем, что было 20-30 лет назад. В следующие десять лет она вырастет процентов на 30 максимум.
А что касается "производительности в целом" - Похоже, что многоядерность тоже начинает сдуваться. Хотя какое-то время ещё побарахтается.
Как помню, около 2-2.6 ГГц тактовая частота (без турбо буста) была в моих макбуках про 2013-2014 года и 1000 баллов в Geekbench. На кой вы смотрите десктопный процессор?.. Итого, рост производительности почти впятеро для одного ядра. Далее, тогда было доступно 2-4 ядра (в 13" и 15"), а сейчас уже 14 (в 14" и 16"), то есть еще рост в 3.5 - 7 раз. А общий рост производительности процессора в 17-35 раз! И это не все - процессор перегревался при длительной работе и сбрасывал частоту, так что мои вычисления на неделю-две выполнялись на минимальной частоте, а сейчас эппл силикон процессоры неделю работают без перерыва вообще без потери производительности. Так что ваши утверждения, что производительность не меняется, абсурдны.
Эмм, немного непонятна логика: в 2015-ом году в маки из каких-то соображений ставили дохлые процессоры, которые имели производительность в разы меньше, чем у топов на тот момент. Сейчас ставят именно топовые. И вы предлагаете для оценки прогресса сравнивать дохлятину из 2015 с топом из 2025?
Сравнивать надо подобное с подобным. Топы - с топами. Дохлятину - с дохлятиной.
Что за ерунду вы написали? Ставили и ставят топовые мобильные процессоры. А что есть серверные и десктопные мощнее - это и так очевидно. Хотите сравнивать с десктопным интелом - посмотрите характеристики двадцатиядерного мак ультра. А следующим ожидается 32х ядерный мак ультра, еще какой прогресс.
"Ставили и ставят" то, что способно работать в ноутбуке в течение нескольких часов. За десять лет удельная ёмкость литиевых аккумуляторов очень сильно выросла, вот и начали ставить в ноуты более мощные процессоры.
И как я понимаю, по тем ссылкам, которые я привёл, вы не сходили? Там вообще-то общий рейтинг процессоров. Самый топовый сейчас по singlethread - Intel Core Ultra 9 285K, который имеет 5075 попугаев на поток. Прогресс в однопоточных вычислениях за десять лет - 2-2.5 раза, остальное даёт многоядерность. Всё, в этой области уже упёрлись в физику, если прогресс и будет - то процентов на 30 за 10 лет. В многопоточности - тоже начинают упираться в физику, там пошли свои заморочки. Через десять лет процессоры по общей производительности будут максимум в 3-4 раза быстрее, чем сейчас. Дальше - только оптимизация ПО, и убирание слоёв абстракций. Поэтому статья, которая экстраполирует опыт прошлых лет, делает это некорректно.
Десять лет назад макбук про работал от батареи под полной нагрузкой что-то около часа, а теперь работает полдня. И это при том, что производительность процессоров в десятки раз изменилась, как я выше показал. Теперь вы утверждаете, что емкость батарей выросла в сто раз? Ерунда, емкость батареи макбуков 15"/16" всегда определялась одним фактором - не превышать разрешенное для перевозки в ручной клади самолета значение (100 ватт-часов) и равна она что-то вроде 99 ватт-часа, что десять лет назад, что сегодня.
остальное даёт многоядерность
Давайте сравним самым прямым способом, по количеству транзисторов - 1.3 миллиарда для процессоров Haswell и 25 миллиардов для Apple M3, разница в двадцать раз. Это чистое изменение "железа". Плюс еще заметный бонус от смены архитектуры, но он не сравним с ростом числа транзисторов. Если вы не в курсе, то закон Мура как раз про число транзисторов, а не про их организацию в чиплеты, ядра или архитектуру процессора.
Можно спорить сколько угодно, ситуации это не изменит. Удельная производительность на ядро - практически не растёт. Уменьшается энергопотребление за счёт уменьшения техпроцесса, увеличивается количество ядер, но и то и другое тоже подошли к физическим пределам. В ближайшие десять лет ничего кардинально более производительного, чем существующие процессоры - не появится.
За счёт unified памяти у АРМовских маков производительность на ряде задач реально на глаз выше в однопотоке. Например, в компиляции C++.
Ядро сейчас и двадцать лет назад это совсем разные понятия, если вы не осознаете разницы, считайте производительность на процессор или количество транзисторов. Как я выше писал, примерно за десять лет число транзисторов увеличилось в 20 раз, то есть в соответствии с законом Мура. Каждые два года удваивается, с учетом погрешности в год на каждой границе диапазона из-за разницы между разработкой и выходом в устройствах, ожидаем 2^4 - 2^5 прирост, и он есть.
Google Willow?
Всё верно. А ещё есть невозобновляемые ресурсы, редкие металлы, например.
Верит автор, не верит... Увольнения программистов уже начались. Бизнес - вещь жёсткая. Если можно использовать "ИИ-программиста за 20 долларов вместо человека за 4000 в месяц", да ещё не требующего ни отпуска, ни сна, ни выходных - какое будет решение менеджера? Исторический анализ правильный - от "низкого", машинного уровня программирование поднималось вверх по лестнице абстракции через автокоды к Фортрану и Лиспу, далее к Прологу, визуальному lowcode и nocode программированию. Но сейчас ИИ дает именно революционные изменения. "Языком программирования" становится естественный язык, коим человек владеет с детства. Прав в этом глава NVIDIA. Мое мнение: через 15 лет профессия "программист" в своем классическом понимании канет в лету.
Языком программирования" становится естественный язык, коим человек владеет с детства.
Ахаха. Естественный язык слишком неоднозначен Люди сами не понимают друг друга. Надеяться , что волшебный ии магическим образом поймет, что значит "сделать хорошо", это верх оптимизма
Если сделает плохо - требование уточнят и попросят ещё раз. Это и с белковыми нейросетями нет-нет, да и приходится делать. Но у электронных эти циклы проб и ошибок можно проворачивать гораздо быстрее.
У белковых есть понимание, хорошо или плохо. И есть наказание за плохие решения и поощрения за хорошие. А чем вы поощрите нейросеть?
требование уточнят и попросят ещё раз
...а потом ещё раз, а потом ещё и ещё, а потом кончатся деньги.
Как, в конце концов, появляются работающие и приемлемые при качеству программные продукты?
Заказчик что-то говорит разработчикам, пишется некое ТЗ, затем рождается первая версия.
Заказчик говорит: нет, здесь не так, это не то... А в ТЗ мои слова значили иное. ТЗ корректируют, систему переписывают. И т.п. Итеративно.
Почему вы думаете, что ИИ не сможет аналогично? Общаться с заказчиком, и по шагам?
Почему вы думаете, что ИИ не сможет аналогично?
Это, кстати, хорошее замечание: я пока ещё не видел ни одного ИИ, который бы сказал «я не буду сортировать этот массив пузырьком, потому что это неэффективно» — они пытаются выполнить все требования «заказчика». А вот кожаный мешок вполне может послать заказчика лесом и сделать как правильно.
«Естественный язык» человека слишком неоднозначный, чтобы делать из него программы. Программисты не вымрут хотя бы в том смысле, что им всё ещё придётся как-то расшифровывать «естественный язык» заказчика и требовать от него нормального ТЗ вместо «естественного языка».
Что программисты трансформируются и будут использовать нейронки в том или ином виде — согласен. Что «естественный язык, которым владеет человек с детства» как-то с этим поможет — нет, скорее неестественный язык промпт-инжиниринга будет помогать, да и выход нейронки проверять всё равно придётся.
Ну возможно программисты вымрут, а текущих аналитиков назовут программистами. Но вымершим от этого теплее не станет. Хотя при удешевлении программиста с тысяч долларов в месяц до 20$ подписки должно кратно увеличиться число вакансий для аналитиков, так как больше проектов начнут окупаться.
Увольнения программистов уже начались.
Судя по layoffs fyi, пока вполне очевидный тренд на снижение числа сокращений (как в общем объёме, так и в количестве компаний, которые прибегают к такой политике.

А так, увольнения и не заканчивались, они всегда были. Но тут важно ещё понимать, что происходит постоянное ускорение, новые технологии дают конкурентное преимущество, трансформирующее рынок. Цикл производства сокращается, ранее сложные продукты становятся простыми, но одновременно появляется возможность делать то, что раньше было совсем невозможно.
Отчасти соглашусь, что "профессия в классическом понимании канет в лету", тут только стоит помнить, что текущее классическое понимание сильно отличается от классического понимания лет 20 назад.
"Языком программирования" становится естественный язык, коим человек владеет с детства.
"Проекты, предлагающие программирование на естественном языке, гибельны по своей сути."
Эдсгер Дейкстра
И его же: О глупости «программирования на естественном языке»
Можно напечатать и повесить на стенку:
The virtue of formal texts is that their manipulations, in order to be legitimate, need to satisfy only a few simple rules; they are, when you come to think of it, an amazingly effective tool for ruling out all sorts of nonsense that, when we use our native tongues, are almost impossible to avoid.
Edsger W. Dijkstra
Ребят, да. Естественный язык не обладает строгостью, имеет многозначность, и пр.
Но! Ещё при создании компилятора Фортрана при генерации машинного кода что-то приходилось доопределять.
Сложности и необходимость постепенного уточнения запроса к ИИ, будут. Но в целом процесс коренным образом изменится.
"Языком программирования" становится естественный язык, коим человек владеет с детства.
-- Сходи в магазин, купи батон. Если будут яйца, то возьми десяток.
...
-- Ты зачем десять батонов купил?
-- Так ведь яйца были.
Потом еще через 15 вот точно-точно!
Написано ИИ для успокоения программистов :)
Переход от ручного труда к автоматизированным заводам убил тысячи рабочих мест. Другое дело, что раз мы живём лучше условных собирателей хлопка, то всё было не зря.
"Равнины Индии белеют костями ткачей" (даже если это миф) А оставшиеся расплодились и в целом стали жить лучше.
https://habr.com/ru/articles/877852/comments/#comment_27864198
тысячи убил, десятки тысяч создал, качество изменилось, дышать стало труднее.
Переход от ручного труда к автоматизированным заводам убил тысячи рабочих мест.
А породил десятки (может и больше) тысяч.
Не знаю как в ваших компаниях, но в двух компаниях, где я работала разработчиком, четко в договоре написано, что нельзя скармливать ИИ кусочки программного кода, который принадлежит компании. Также нельзя выдавать решения ИИ за свое, так как эти решения низкокачественные и тд. Что-то реальность не соответствует кучи хайпанутых статей про замену программистов. Ещё в одних статьях пишут, что программисты будут в топ развивающихся профессиях, а в других, что скоро мы все умрем. Кто-то просто хайпит... и пытается получить деньги с инвесторов на развитие очередных ИИ систем.
Точно такие же пункты могут быть про стек оверфлоу, это же не значит что им не пользуются.
Да, распространенная практика, интересно как в этих двух компаниях маркировались фрагменты собственного кода?
В очередной раз повторюсь:
Все программисты в мире делятся на две категории:
— Те, кто считает, что ChatGPT кодит на порядок лучше их;
— Те, кто считает, что ChatGPT кодит на порядок хуже их.
И первые, и вторые абсолютно правы.
Кто-то просто хайпит... и пытается получить деньги с инвесторов на развитие очередных ИИ систем.
И заодно отвлечь внимание от текущих проблем. Ведь GPT-5 все никак выпустить не могут, и возможно не выпустят, так как во всем мире не хватает данных для его обучения, а денег при этом вложено столько, что текущие достигнутые результаты их даже и близко не окупают. Вот и цепляются за любую соломинку в надежде оттянуть разочарование инвесторов
Если внедрить условный ChatGPT в Minecraft, то приведет ли это к тому, что игроки перестанут строить сами и будут всегда пользоваться ИИ? Что-то мне подсказывает, что если и будут, то точно не всегда, и часто все равно будут обходится без него. Другое дело что программирование пока что нельзя сравнить с Minecraft. Но можно было бы, если каждый блок ставился бы не кликом мыши, а командой в консоли. Только тогда бы в эту игру играли бы не школьники, а заядлые айтишники. А потом с внедрением искусственного интеллекта были бы те же самые разговоры о том, что ChatGPT заменит игроков в майнкрафт
Только тогда бы в эту игру играли бы не школьники, а заядлые айтишники.
Ахаха. Вы правда считаете, что если айтишнику показать консоль - то он от такой прикормки дуреет? :)
Да, такой модуль для питона уже существует. Только в Майнкрафт играют а не работу работают.
Ахаха. Вы правда считаете, что если айтишнику показать консоль - то он от такой прикормки дуреет?
Нет, просто порог вхождения был бы выше, и по зубам он был бы как раз только айтишникам в основном
В игры с текстовым вводом (рпг, к примеру) играли примерно все, у кого было на чем, когда других не было.
Это во времена когда и графического интерфейса не было? Тогда "играли примерно все" среди тех, кто пользовался ПК в то время. Вот только до появления графического интерфейса самих пользователей ПК было гораздо меньше
Еще раз - играли все, у кого был доступ, скажем, студенты в компьютерных классах. Играли по локалке, потом по сети и так далее. И никакие интерфейсы не мешали :)
Были игры вполне графические, в которых команды отдавались текстом (если не путаю, первый Ларри и первый Спейсквест).
Были шуттеры (тот же Quake, насколько я помню), в которых можно было открыть текстовую консоль и ввести команды, управляющие игрой (настройка и читкоды).
все эти темы рождаются потомучто в основе лежит математика, мне так кажется
Суть всего процесса в том, что в очередной раз начальники из мема 'Вася и начальники' пытаются уволить Васю. Если же попытаться уволить начальника соседнего отдела - он может и в нос дать. А Вася - он же тюлень, его можно попробовать уволить, авось ничего не случится...
Но ведь никакой революции в способах взаимодействия с пк не произошло. Да, мы общаемся с нейросетью на человеческом языке, но на выходе получаем все тот же код на нужном ЯП. Ты его видишь и можешь подкорректировать. А вот когда ты пишешь на условном c#, ты не можешь знать наверняка как твой код будет выглядеть на уровне ассемблера. Опуститься на этот уровень возможно, но доступно далеко не каждому человеку. Так что революции прошлого посильнее были. Реальная революция пока происходит только в способе обучения, процесс программирования становится нагляднее и быстрее, ибо тебе больше не нужно лазать по форумам и докам в попытке найти ответ на тот или иной вопрос.
Революция в том, что условный java-сеньор Александр перестал понимать не только логику кода 1С-сеньора Бориса, Mojo-сеньора Витторио и еще около 300 сеньоров, но и llm-код написанный по промтам пользователя Петра
Внезапно оказалось, что непрограммист может просто поговорить с LLM или специализированным программным агентом на простом английском языке (или на человеческом языке по вашему выбору) и получить в ответ полезный прототип на Python (или на языке программирования по вашему выбору)
И этот прототип будет иметь абсолютно больную логику работы потому что для нейросетки лампочки с апельсинами сложить фигня вопрос. Получить неправильный совет намного хуже чем не получить никакого
старый навык отладки с помощью осциллографа.
ужас какой, ну теперь фсё , пора на свалку ... истории
Я кодить стал по другому. И знаете, это сложно. Но зато получаются такие вещи, что это даже представить сложно. В плане поддержки эту жуть удобно поддерживать нейросетям, но не человеку. Т.е. появилась кнопка "засингулировать".
появилась кнопка "засингулировать".
Кнопки "сделать хорошо" всё ещё нет? жаль.
Но зато получаются такие вещи, что это даже представить сложно.
Интересно было бы взглянуть на ссылочку или сниппет этих сверхчеловеческих вещей.
Я в своей работе ИИ не пользую - задолбаюсь сильнее. Один раз использовала для конвертации скрипта на JS в Perl, на этом всё.
Никто еще не написал книжку "Программируем с ЧатЖПТ"?
Замечательная статья!
Сам постоянно использую ИИ в работе. И тут самое основное, что использование ИИ в совокупности с твоими профессиональными навыками даёт бешеный рост производительности и скорости. Это можно представить, будто человек одевает суперсовременный экзоскелет: сила, мощь, выносливость и т.д. (короче все характеристики взлетают ввысь), НО при этом итоговое решение и все действия идут именно от человека.
использование ИИ в совокупности с твоими профессиональными навыками даёт бешеный рост производительности и скорости.
Но есть нюанс...

Да ладно вам, давайте не будем приземлять человека с "бешеной производительностью и взлетевшими ввысь характеристиками" - вдруг он сейчас лекарство от рака напромтит.
Не, ну у перекладывателя json-ов, производительность, канешна, взлетела..
Ну да, конечно, зачем использовать передовые технологии в работе? У посредственного кодера что с ИИ, что без ИИ результат всегда будет один и тот же.
Само собой, не нужно использовать новые возможности, надо продолжать писать код на листочке бумаги.
надо продолжать писать код на листочке бумаги.
Код надо писать в голове. На носитель (бумажный или цифровой — не так уж и важно) переносится готовое решение.
Ага, и калькулятором тоже пользоваться не надо, всё можно в уме и в голове посчитать)
зачем эти новые веяния?) всё нужно держать в голове)
"Отличный план, надёжный как ..."
В голове нужно "написать" последовательность операций, выполняемых на калькуляторе. А потом "перенести готовое решение" - то бишь, выполнить эти операции.
У посредственного кодера что с ИИ, что без ИИ результат всегда будет один и тот же.
Мозговые нейронные связи без тренировки тупеют. Впрочем, это ваш выбор...
Тот неловкий момент, когда хотел съязвить, и подшутить над кем то, но в итоге сам стал посмешищем)))
https://www.computerra.ru/293566/razrabotana-pervaya-nejroset-generiruyushhaya-dnk-rnk-i-belki/
Тот неловкий момент, когда не дочитал статью:
может быть применена к реальным проблемам
Хотя результаты демонстрируют многообещающие вычислительные возможности, для сгенерированных последовательностей требуется дальнейшая экспериментальная проверка.
Когда будут решения реальных проблем, а не маркетинговое ссаньё про "многообещающие возможности", маякните. Порадуюсь вместе с вами.
Не знаю насчёт маркетингового, но вот, как вы говорите "ссаньё" - этот термин лучше всего описывает все ваши комментарии.
А насчёт реальных результатов, то боюсь снова вас огорчить - вы опять плохо следите за трендом.
https://corp.cnews.ru/news/top/2023-07-03_vpervye_v_istorii_na_lyudyah
Не понятно правда почему я должен вам что-то приводить в пример... Пользоваться поисковиками не пробовали - Google, Яндекс? Или вы о них не слышали?)
О поисковиках я отлично слышала - они, в отличие от "ИИ", не галлюцинируют.
Почему вы так страстно защищаете "ИИ"? Мешаю вам хайпить на этой теме? У ИИ есть как плюсы, так и минусы, и неизвестно, что перевесит.
вы опять плохо следите за трендом.
Да, у меня нет столько лишнего времени "следить за трендами". ИИ-тема для меня на данный момент не имеет первостепенной важности, т.к. ни в моей повседневной жизни, ни в моей работе текущие боты мне не пригождаются, а только мешают. 10 раз заставлять бота генерить код и перечитывать его, пытаясь разжевать естественным языком, что тебе нужно - нет, играть роль репетитора, который пытается навести подопечного на правильное решение, не для меня. А кнопок "Сделать хорошо" типа "исправь этот issue", "перепиши проект на другой язык" пока что нет. Может, и появятся.
В хобби-сообществах плюются от наплыва автосгенеренных нереалистичных картинок несуществующих вещей. Исторические фото, "улучшенные" ИИ, выкладываются на тематических подсайтах без какого-либо указания, что изображение было изменено (смотрим на надпись на двери).
Вообще, мой коммент был о другом: если бы ИИ очень сильно увеличил мою производительность - я бы так не радовалась.
Если кому-то ИИ реально помогает в работе и улучшает качество (а таких специалистов очевидно много) мягко говоря странно пытаться злословить и с недовольством на это реагировать. Если лично вы бы так не радовались, то почему другие не могут порадоваться?
А всё это исходит из вашей банальной токсичности и глубокого невежества.
мягко говоря странно пытаться злословить и с недовольством на это реагировать.
Имею право, представьте себе.
А всё это исходит из вашей банальной токсичности и глубокого невежества.
Диагностика от ИИ?
Скорее не диагностика, а очевидный факт. Естественно , который вы не поймете в силу ограниченности.
Ну а если, как вы говорите, имеете право, то уж не обижайтесь, что над вами так же смеются, потому что вы показываете свою полную некомпетентность.
«Что посеешь, то и пожнешь»
Я не обижаюсь ни на какой "смех", не проецируйте себя.
Я вижу странного чудика, который пыжится доказать мне, что ИИ-фанатиков без собственного интеллекта высмеивать и критиковать нельзя.
Ну а ваш собеседник, вполне возможно, видит странного чудика, который всех, кто пользуется нейросетями, записывает в "фанатики без собственного интеллекта". И что, хотя бы один из вас в своей оценке прав?
Не знаю, где вы нашли фанатиков и чудиков, но про ваш уровень интеллекта я уже подробно расписал выше. Не вижу смысла повторяться.
Ой, да ладно вам, что вы пристали к бедной девочке. Ну пишет она свой вшивенький JS и CSS, возомнила себя великим кодером и экспертом. Пусть думает, что она великая, днем работая на вискас для своих кошатин, а ночью стуча по клавишам в комментах...
"Грешно смеяться над ущербными людьми..." Пожалейте её.
А вот в вас легко можно увидеть странного чудика, который пытается делать заведомо неточную оценку чужого интеллекта (подчеркну, не неверную, а неточную - она может случайно оказаться верной, но только случайно) и на её основе высказывать эмоционально окрашенные заявления. И это "увидеть" тоже неверно, но оно вам надо, чтобы оно вообще было?
А может случиться как со стереокино, VR, автопилотом и рейтрейсингом - т.е. не взлетит, если не смогут придумать, как избавить нейросети от бреда.
так и не собрался учить язык, а теперь видимо уже поздно)
Наконец-то кто-то написал очевидное. Но я думаю хотя бы базовые навыки программирования (питон, SQL) будет полезно иметь даже в эпоху сильных LLM.
Конец программирования в том виде, в котором мы его знаем