Как стать автором
Обновить

Я тебя с вертухи сломаю, если ещё раз заговоришь об ИИ

Уровень сложностиПростой
Время на прочтение15 мин
Количество просмотров46K
Всего голосов 203: ↑185 и ↓18+202
Комментарии210

Комментарии 210

Наконец-то кто-то про это сказал. Напоминает одержимостью блокчейном лет 5 назад.

Просто в блокчейне на.баловоёмкос™ь ниже. ;)

И, чтобы два раза не… это никакой блин не AI. Это можно было бы точнее называть QI (quasi-), но хайп снимать было бы сложнее.

В русском языке проще: современный нейросетевой ИИ - это Имитационный Интеллект :)

Разумеется, в нём нет никакого сознания, даже узкоспециализированного, это перевёрнутый перцептрон на стероидах в виде больших данных.

Спасибо за термин, я для себя буду его использовать так: перевёрнутый перцептрон от статистики близости слов на стероидах в виде больших данных.

Так вроде сознание и не обещают, только интеллект. Фантастика нам рассказывала что одно следует из другого, но это художественное предположение.

Тут основной вопрос - предполагает ли интеллект наличие сознания или нет? :)

IMHO, интеллект - это некоторый аппарат вывода решения с помощью логических суждений. Суждения в цепочке можно проверить как по отдельности, так и в целом. Нейросетка порождает решение на основе весовых коэффициентов, выработанных при обучении, но объяснить, как эти коэффициенты влияют на итог, толком нельзя. Поэтому тупой пошаговый алгоритм в некотором смысле интеллектуальнее нейросети :-P

Поэтому тупой пошаговый алгоритм в некотором смысле интеллектуальнее нейросети :-P

Почему такой вывод? Пошаговый алгоритм выдаёт просто более предсказуемые и проверяемые результаты. Но это не делает их более интеллектуальными ведь.

Ну, по Бострому, интеллект - это реализуемый на физическом объекте алгоритм. Интеллект человеческого уровня - интеллект, способный решать задачи, доступные человечеству, он обладает умом, разумом, интуицией, пониманием, способен к познанию, мышлению, воображению.

Нейросети, как распознающие. так и генерирующие, в эту концепцию не вписываются.

В других интерпретациях интеллект предполагает "разумность", которая связана с целеполаганием и построением стратегии достижения цели. Современные же нейросетки работают иначе, фактически, выдавая готовое решение сразу, как "божественное откровение". Люди так тоже иногда могут, отсюда вся путаница.

Нанотехнологии, цифровизация экономики - что там ещё из модных попильных тем было?

Насчет нанотехнологий не скажу, но что именно вам смущает в цифровизации экономики?

Я лично вижу повальное внедрение ЭДО (бухгалтерия, кадры, управление предприятиями), вижу развитие ИС для общества (Госуслуги, Электронные медкарты, Электронные дневники).

Хайповые ли это темы? Возможно. Может ли в них быть место неправомерному использованию средств? Может, как и в любой другой сфере. Везде где есть люди есть место мошенничеству и воровству.

Industy 4.0 и Industy 5.0 дикий хайп, учитывает что на многих заводох еще только где-то Industy 2.5

что там ещё из модных попильных тем было?

Неуловимый Web 3.0 и метавселенные.

Ожидал увидеть в постскриптуме: Пост написан с использованием ChatGPT.

Я начал работать дата-саентистом в 2019 году, а к 2021 году осознал, что, несмотря на огромный размер этой сферы, в ней в то же время ужасно много мошенничества.

Автору понадобилось 3 года, чтобы понять очевидное.

Наверное постигал "Путь самурая" на русском языке.

на русском языке.

Статья - перевод

Видимо поэтому и понадобилось 3 года, если бы постигал на английском - уложился бы в год:)

Похоже реальная причина столь сильных эмоций автора гдето здесь:

В моей консультационной фирме есть три достаточно неплохих дата-саентиста — на самом деле, двоих из них можно со всеми основаниями назвать одними из лучших в стране, если не считать группы, проводящие экспериментальные исследования, хотя эти двое и слишком скромны, чтобы говорить о себе так. Несмотря на это, мы не продаём никакие сервисы ИИ.

Сделал ставку на то, чтоб быть не такие как все и везде подчеркивать, что у них нет ИИ и внезапно осознал, что услуги его консультационной фирмы никому не нужны.

Фишка в том, что чтоб использовать генеративные сети, не надо быть датасайнтистом, это совершенно разные сферы, разные навыки и разный опыт. Поэтому его отсылка к собственному крутому опыту датасайнтиста ничего не значит. Автор не нашел для себя способов, где он может применять эти сети и ему завидно, когда он видит, как другие применяют:

Нет, ненавижу я людей, которые ухватились за них, как множество пиявок, разбухли от крови и хаотично извиваются.

Я тоже очень мало пользуюсь генеративными сетями, но при этом вижу людей вокруг меня, которые стали применять их часто и стали более эффективными уже здесь и сейчас, и закрывать глаза на это, и тем более злиться от этого просто глупо.

Я тоже очень мало пользуюсь генеративными сетями, но при этом вижу людей вокруг меня, которые стали применять их часто и стали более эффективными уже здесь и сейчас, и закрывать глаза на это, и тем более злиться от этого просто глупо.

Так про то и речь. Это же классическая формула хайпа: я сам нет, но у меня есть знакомые, которые таки (а) часто применяют; (б) заметно повысили эффективность. Часто применяют для чего? Повысили эффективность в чем и насколько? Если в каждом конкретном случае детально разобраться, то, возможно, иногда так оно и есть. Но мы же нормальные люди, мы всем верим на слово.

Ну допустим я участвую в разработке системы которая активно использует генеративные модели для серьезных задач. У нас есть измеримые метрики и результаты, полученные реальными клиентами на реальных задачах. Повышение эффективности заметное, хотя и не всегда революционное, в зависимости от задачи. Но я вам про них не расскажу, потому что NDA. Так что остается только верить на слово или не верить.

Например, я не пишу больше простой и рутинный код, ИИ в IDE мне сам его пишет. Сам понимает, какая мне нужна рекурсия, как собрать строку и так далее - не всегда точно, иногда нужно править, но продуктивность выросла 100%. Еще мне очень нравится возможности вроде создания массива дней недели, где пишешь ['пн', , а сетка сама дописывает массив. Или когда исправил одну строчку в мок-данных, ИИ сразу предложил вариант исправления остальных строк по образцу (например, массив -> объект). И это я еще далеко не все перечислил.
Друг иллюстратор, например, говорит, что сейчас никто арты с нуля уже не рисует, это долго. Берут MJ/SD, и дорисовывают за ним, исправляя косяки и меняя детали на нужные.
Еще, например, с выходом GPT-4o я начал при необходимости загружать в него договора (например, на аренду машины), и он отлично находит там нестыковки/ловушки. Я использую GPT-4o\Codeseeker для написания простых функций на языках, которые я плохо знаю - например, преобразования dataframe в pandas по нужным мне условиям.
С udio и suno я даже несколько песен добавил себе в плейлист.
С нейронкой 300 от яндекса мне не приходится искать в доклад и конференциях на ютубе нужный мне момент, я вставляю ссылку и получаю весь таймлайн с пересказом.
Не говоря уже о локальных и узких применениях, например, загрузить список новостей и статей по акции и попросить оценить настроения людей, агрегировать персонально для себя новости. А с возможностью запускать локально сетки, которые уже не такие тупые как раньше - возможностей еще больше.
И я удивляюсь, как люди могут не замечать такой прорыв. Для меня это чудо чудное, когда железяка отвечает как человек, знает почти все, умеет отвечать на вопросы. Для меня это как изобретение нормально работающего сенсорного экрана.

Вот только все перечисленное не имеет отношения к искусственному интеллекту. Можно называть это комбинаторикой слов, звуков и изображений, но не интеллектом. И основаны нейросетевые методы на огромном массиве уже существующих данных, а не на создании нового. Интеллект - это разработать физическую теорию всего, которую не смог создать Эйнштейн, а не слова рифмовать или список дней недели подсказывать. Калейдоскоп делает аналогичную операцию для изображений без всяких компьютеров (и все еще не захватил мир). И хотя большинство людей всю жизнь делают работу ничуть не сложнее, чем могут современные нейросети, это абсолютно не означает, что нейросети хоть в чем-то достигли уровня человеческого интеллекта (если робот и Эйнштейн оба умеют ковыряться в носу, этот общий признак не делает их равными по интеллекту).

Интеллект - это разработать физическую теорию всего, которую не смог создать Эйнштейн

Интеллект это тратить время на Хабре, обсуждая недостатки ИИ. А разработка теории всего это чушь собачья - ни кто не хочет этим заниматься.

Это называется бегство от ИИ. Когда ИИ в очередной раз громит очередные красные линии разумности, на которых прочно стояли люди ещё недавно. Линии срочно перерисовываются и возводятся бастионы дальше. Каждый раз когда ИИ решает какую то задачу которая 1000% требует разума, это задача исчезает из списка требующих разумности. Помню в одном споре, человек перенёс за один разговор в течении нескольких часов, эти красные линии раз 30. Я ему просто ссылки кидал, что очередная его красная линия уже пройдена.

Вы написали много слов, которые не имеют смысла - подражаете нейросети? Хоть один результат покажите, где нейросеть превзошла достижения человечества.
И демагогия про вашего знакомого, кто пал ниц от ваших познаний, как-то не к месту. Очевидно, на людей, далеких от технологий и науки, ориентироваться нет смысла, им и калейдоскоп магия. К примеру, если сейчас с помощью нейросетей лекарства разрабатывают - так этим занимались еще десятилетия назад (более того, давно существуют университетские курсы на эту тему для студентов, то есть это и тогда был вовсе не топ технологий) , по сути, с помощью динамического программирования и алгоритма Дейкстры, а сейчас просто данных больше стало. Обработка текста - если вы посмотрите реализацию полнотекстового поиска в СУБД SQLite3, то найдете там те же принципы для нечеткого поиска разреженных лексем (только ресурсы ограничены, потому поиск в пространстве малой размерности выполняется). И так далее. Общее у всех этих нейросетевых методов то, что все они просто рекомбинируют входные данные, в отличие от научных теорий и моделей, которые создают новое знание (например, теория относительности помогла запустить спутники на орбиту, которых не было даже в проекте во время создания теории).

Совсем недавно красная линия была на способностях обычного человека, а теперь на том что превзойти достижения человечества. Насколько сдвинется линия дальше?

Вы написали много слов, которые не имеют смысла - подражаете нейросети?

Вы, кстати, тоже.

давно существуют университетские курсы на эту тему для студентов, то есть это и тогда был вовсе не топ технологий

Вы путаете лабораторные работы и технологии. Доступные технологии в промышленных масштабах появились совсем недавно. И кстати, доступны они сейчас далеко не всем.

если вы посмотрите реализацию полнотекстового поиска в СУБД SQLite3, то найдете там те же принципы для нечеткого поиска разреженных лексем

Нет, на движке SQLite вы при всем усердии не сможете реализовать GenAI. Разница как между совой и глобусом: их обоих можно отправить в полет, но ловить мышей могу только первые.

Вы даже содержание относительно несложного комметария не поняли. Не удивительно, что Вы восхищаетесь "умностью" ИИ

Не удивительно, что Вы восхищаетесь "умностью" ИИ

Меня восхищает движуха, которая сейчас происходит в этой области, и темпы мобилизации ресурсов по всему миру, в частности. Когда одини компании начинают выпускать аппаратные решения, которые раньше не выпускали, другие строят на этой базе целые дата центры, а третьи - раз в полгода делают релизы моделей с сумасшедшими по меркам простого обывателя характеристиками и требованиями... Ну а потом оно помогает выполнить ужасно сложную и ответственную задачу, например написать эксклюзивное поздравление девушкам с 8 марта, спасая весь мужской отдел и галактику.

И раньше так было. Сеть размером с планету, миллионы чипов где миллиарды транзисторов сделанных с нанометровой точностью отправляют открытку через весь мир.

Вы можете называть его как вам угодно. Неугодно ИИ - называйте его нейросеткой. Не нравится нейросетка - называйте по-другому, это не отменяет того факта, что речь шла о том, улучшил ли ИИ мне работу и повысил ли продуктивность? Я ответил что да, привел конкретные примеры.
А дальше вы вообще ушли сильно в сторону - да, ChatGPT новых теорем не изобретет (хотя под вопросом, слышал, что ИИ используется для белковых соединений, но точно не могу сказать), но я от него это и не требую.
Так, например, моя машина имеет адаптивный умный круиз-контроль с удержанием в полосе - что мне иногда облегчает жизнь, особенно в пробках. Было бы странно контраргументом приводить то, что этот круиз-контроль не сможет проехать гоночный трек быстрее профессионального водителя, не так ли?

Насчёт того, что ChatGPT не изобретёт новых теорем, можно поспорить.

Проблема с генерирующими нейросетками в том, что они сдвигают интеллектуальную деятельность человека из области создания контента в область его верификации.

Я в этом году достаточно много времени потратил на изучение "программирующих" моделей и могу уверенно сказать, что генерируемый код далеко не всегда соответствует поставленой задаче, хотя и выглядит правдоподобно. Генерация чего-то чуть более сложного, чем Hello World, требует от автора промпта, по сути, того же программирования, но на естественном, плохо приспособленом для этого языке. Именно поэтому я пока спокоен за своё место в индустрии :)))

Понятен хайп вокруг "гуманитарных" нейросетей - живопись и музыка требуют сложного образования и большого опыта, а творить хочется всем. Поэтому проще поправить косяки на сгенерированной методом проб и ошибок картинке, чем рисовать её с нуля.

Но этот путь, к сожалению, ведёт к технической деградации, т.к., с одной стороны, уравнивает умельца и "неумельца". Зачем пять лет учиться рисовать кубики-тени-фигурки, если нейросетка нарисует за 10 секунд Мону Лизу по твоей просьбе? А с другой стороны, превращает цепочку "визуальный образ в голове - рука - картинка" в более длинную "визуальный образ в голове - цикл из ста вариантов словесных описаний и генераций - картинка".

... т.к., с одной стороны, уравнивает умельца и "неумельца". Зачем пять лет учиться рисовать кубики-тени-фигурки ...

...и мы вернулись к теме "художники против фотографов". А перед ней ещё была тема "академическая живопись против импрессионистов/модернистов/итд".

А ещё вся промышленная революция.

А еще *очень задолго* перед этим благородные рыцари требовали запретить арбалеты на войне, т.к. профессиональных солдат, проводивших бОльшую часть жизни в тренировках и превративших сражение в искусство (не говоря о стоимости доспеха) мог убить немытый необразованный рагуль, второй раз в жизни держащий в руках эту "технологию".

Да и перед этим, наверняка, что-то такое было.

Жизнь меняется, люди остаются те же :)

..и мы вернулись к теме "художники против фотографов"


Ну, нет же :)

Художник отличается от фотографа тем, что создаёт изображенире не из реальности, а из воображения. Генерирующие ИИ не могут извлечь картинку из головы и требуют километровых описаний и множества попыток для достижения приемлемого результата. ИИ-художник хорош, когда вам не нужно ничего конкретного и хочется просто красивой картинки "Какая-то сосна над морем". Сделать иллюстрацию к конкретному тексту или оригинальный логотип с помощью нейросетки в современном состоянии будет очень непросто. Да даже нарисовать 5 картинок с разным сюжетом в одном стиле проблематично.

А ещё вся промышленная революция.


Промышленная революция смела не профессии, а жизненные уклады, упадок связанных с ними профессий - процесс вторичный. Для смены жизненного уклада общества современному нейросетевому ИИ не хватает именно что разумности, которой у него нет просто в силы внутреннего устройства.

Ну да же. :)

Художник отличается от фотографа тем, что создаёт изображенире не из реальности, а из воображения.

Это после появления фотографии так стало. А до этого за вполне реальными портретами и пейзажами куда ходили? Жанровая живопись? И упомянутые мною разборки академистов (=фотореалистичные картины) против импрессионистов и всех остальных "я так вижу"?

Здесь недавно пробегала статья как люди с помощью ИИ себе за пару часов сварганили упаковку продукта такую, как им нравится, сэкономив кучу времени, денег и нервов. Это как раз из категории "обычных людей с мыльницей", которым художник, честно говоря никогда не нужен был, но выбора не было. А теперь он есть - и у художников-ремесленников резко падают заработки, и многие из них кричат что "ИИ - это не то". Но народ голосует кошельком и ногами :)

В любой профессии есть, условно, "ремесленники" и "маэстро". Промышленная революция вынесла ремесленников из многих сфер физического труда (из некоторых - практически начисто, и теперь "крафтовое" - это что-то с налетом необычности и артистизма). ИИ делает то же самое со сферой умственного труда: все эти горе-писаки, лого-рисоваки и быдлокодеры таки могут волноваться. Маэстро и люди реально умеющие думать и создавать новое - пока вне опасности.

Промышленная революция смела не профессии, а жизненные уклады, упадок связанных с ними профессий - процесс вторичный.

Плз источники. Я с вами не согласен, но это может быть чисто субъективно. Мне кажется этот процесс не вторичный, а как минимум параллельный / равно важный.

Вот вам пример: Новый уклад жизни как раз повысил спрос на их продукты, но они не могли конкурировать с машинами. Спрос на металлопродукцию повысился или понизился? А куда делись кузнецы? Спрос на книги после появления печати повысился или понизился? А что случилось с переписчиками (а позже и с секретаршами-машинистками)? Спрос на одежду? И т.д.

ИИ не хватает именно что разумности, которой у него нет просто в силы внутреннего устройства.

С этим я на 100% согласен, но это несущественно. У Интернета, электричества, смартфонов и ютубов с тиктоками "разумности" ещё меньше (а тут ещё хомяк!) - но можем ли мы отрицать их влияние на уклад жизни? Уклад жизни меняют сами люди, технологии/инструменты только открывают для этого новые пути.

Интеллект - это разработать физическую теорию всего, которую не смог создать Эйнштейн

Так что же, раз этой теории у нас нет, то интеллект у людей отсутствует?

большинство людей всю жизнь делают работу ничуть не сложнее, чем могут современные нейросети

Как минимум, это означает, что современные нейросети уже могут заменить большинство людей. Немалое достижение, не так ли?

не означает, что нейросети хоть в чем-то достигли уровня человеческого интеллекта

Так а где критерий-то этого человеческого интеллекта? Теории всего у нас нет ни от ИИ, ни от людей.

Колесо изобрести - тоже интеллект нужен, но для перестановки слов, описывающих разнообразные колеса, никакого интеллекта не требуется.

Большинство людей во многих странах можно заменить пустым местом - и такие идеи есть давно. Гуглите про всеобщий базовый доход.

Выше я уже предложил вариант - получить от нейросети совершенно новое знание, к примеру, физическую теорию, которую люди пытались, но не смогли создать. Пока и в обозримом будущем никаких результатов в теоретической физике и математике нейросети создавать не в состоянии, в отличие от людей. Заметим, что даже и базовая логика у нейросетей не реализована - ответы формально не валидируются никак, а просто являются вероятностно сгенерированной последовательностью слов. Другими словами, пока нейросеть не способна реализовывать логически корректные рассуждения, пользуясь заданным набором нужных аксиом (которые сама формулирует на основании известных фактов или выбирает из созданных людьми), это просто вариант калейдоскопа. А ваши рассуждения о наличии интеллекта у системы, по дизайну не способной быть логичной, лишены смысла.

Выше я уже предложил вариант - получить от нейросети совершенно новое знание, к примеру, физическую теорию, которую люди пытались, но не смогли создать. Пока и в обозримом будущем никаких результатов в теоретической физике и математике нейросети создавать не в состоянии, в отличие от людей.

Вы пытаетесь, условно говоря, заставить гуманитариев родить естественнонаучную теорию, а когда они не справляются - делаете далеко идущий вывод о том, что гуманитарии не обладают интеллектом и абсолютно бесполезны.

Чтобы родить физическую теорию, нужна нейросеть-физик, которую не на форумных текстах обучали, а на наборах экспериментальных данных, чтобы она училась видеть физические закономерности. Сделать это не так уж сложно, было бы желание.

Берём, к примеру, полный набор данных, собранных к настоящему моменту на Большом Адронном Коллайдере (а там многие петабайты), обучаем на нём нейронку. В итоге получаем сеть, которая без проблем предскажет вам, какие частицы будут рождаться в тех или иных столкновениях, их свойства, их поведение. И сделает это ничуть не хуже любой современной физической теории.

Идея хорошая но к сожалению, в лоб, пока финансово не подъемная, детекторы БАК генерирует петабайты в секунду, а общее количество сохраняемой информации дошло до экзабайта... собственно ученые со всего мира решают эту головоломку о том как из этих данных извлекать пользу и не погрязнуть в мусорных данных, не сомневаюсь, нейронки там тоже используются.

Теория относительности создана без всех этих данных, и подтверждена значительно позднее, когда данные были получены. Так что создать математическую теорию можно без каких-либо данных, а подтвердить небольшой выборкой для начала.

Да, тут основная проблема - в обучении, точнее, в отсутствии хороших обучающих выборок для фундаментальных физических проблем. Слишком велика неопределённость и слишком мало готовых заведомо правильных примеров экспериментальных данных. А объяснить нейросетке ЛОГИКУ принятия решений физиками не получится в силу отсутствия у нейросетевых ИИ процесса мышления.

Кстати, было когда-то давно в айти другое модное направление - экспертные системы (и сопутствующий им knowledge engineering), где основной задачей было как раз моделирование процесса принятия решений на основе логики и вероятностей.

Художник - гуманитарий или физик, по вашему мнению? Означает ли это, что художник не способен к логике, в том числе, не понимает причинно-следственных связей между использованием разных красок и результатами, светотенью, перспективой и так далее? Разумеется, понимает - а вы, похоже, пытаетесь назвать всех, кроме себя, идиотами! Нейросеть же оперирует вероятностями, так что любая комбинация абсурда возможна.

Неспособность к логике и, в частности, к пониманию причинно-следственных связей - это в принципе неотъемлемая черта человеческого мышления, независимо от профессии.

Означает ли это, что художник не способен к логике, в том числе, не понимает причинно-следственных связей между использованием разных красок и результатами, светотенью, перспективой и так далее?

Понимает. И? Какое отношение это имеет к моему комментарию? Я утверждал, что глупо просить у художника/поэта/писателя создать физическую теорию уровня Эйнштейна. И то, что он на это не способен, вовсе не означает, что он тупее Эйнштейна.

Разумеется, понимает - а вы, похоже, пытаетесь назвать всех, кроме себя, идиотами!

Что-то мне ваша манера ведения дискуссии напоминает... А, точно:

Тов. проф. Выбегалло А.А., перелогиньтесь

 — Как-то странно вы рассуждаете, товарищ Киврин, странные у вас аналогии, чужие! Модель идеального человека и какой-то внеклассовый огнедышащий дракон!..
— Г-голубчик, да дело же не в том, ч-что он внеклассовый, а в том, что он п-пожар может устроить…
— Вот, опять! Идеальный человек может устроить пожар! Не подумали вы, товарищ Федор Симеонович!
— Я г-говорю о д-драконе…
— А я говорю о вашей неправильной установке!

Самая известная картина в мире - Мона Лиза, авторства Леонардо да Винчи. Известный художник, не так ли, даже не считая сотен его других картин. Давайте поищем у этого художника что-нибудь уровня Эйнштейна в физике - и находим сопромат, интерференцию, рэлеевское рассеяние и еще много всего. Притом заметим, что теория относительности создана работами Минковского, Пуанкаре, Лапласа, Эйнштейна, причем Пуанкаре первым сформулировал принцип относительности, а весь матаппарат разработан Минковским и Лапласом. Да и фотоэффект практически открыт Герцем, красная граница описана Столетовым, поток электронов обнаружен Томсоном... а заслуга Эйнштейна в том, что он применил новую модную теорию Макса Планка к обяснению фотоэффекта. Художник же Леонардо делал открытия уровня Эйнштейна самостоятельно, не опираясь на горы работ предшественников.
Итого, все ваши высказывания про гуманитариев противоречат общеизвестным фактам. Это лично вы не способны на физику, а не гуманитарии. А раз уж вы в своей демагогии обратились к цитатам, то "поздравляю вас, товарищ, соврамши!" (с).

Итого, все ваши высказывания про гуманитариев противоречат общеизвестным
фактам. Это лично вы не способны на физику, а не гуманитарии.

А может, это физик оказался способен ещё и картины рисовать, а не наоборот? ;)

По-моему, ваш оппонент говорил о статистической закономерности - а один пример одного великого художника её не опровергает, подчёркивая, наоборот, её наличие.

Не претендую на истину и даже на адекватность мнения, но на мой взгляд одним из критериев интеллекта должна быть возможно справиться с такой задачей

По-моему, вы очень здорово ухватили одну из сутей. Оно не может в маловероятное творчество, потому что максимизирует вероятность.

Вообще многие профессоры в области изучения мозга, давно пришли к одной хорошей формулировке, основополагающая любого интеллекта (в т.ч. искусственного) состоит в том, что он будет определять и решать свои собственные задачи, что в корне противоречит любому так называемому ИИ существующему на сегодняшний день.

Например, я не пишу больше простой и рутинный код, ИИ в IDE мне сам его пишет. Сам понимает, какая мне нужна рекурсия, как собрать строку и так далее - не всегда точно, иногда нужно править, но продуктивность выросла 100%. Еще мне очень нравится возможности вроде создания массива дней недели, где пишешь ['пн', , а сетка сама дописывает массив. Или когда исправил одну строчку в мок-данных, ИИ сразу предложил вариант исправления остальных строк по образцу (например, массив -> объект). И это я еще далеко не все перечислил.
Друг иллюстратор, например, говорит, что сейчас никто арты с нуля уже не рисует, это долго. Берут MJ/SD, и дорисовывают за ним, исправляя косяки и меняя детали на нужные.
Еще, например, с выходом GPT-4o я начал при необходимости загружать в него договора (например, на аренду машины), и он отлично находит там нестыковки/ловушки. Я использую GPT-4o\Codeseeker для написания простых функций на языках, которые я плохо знаю - например, преобразования dataframe в pandas по нужным мне условиям.
С udio и suno я даже несколько песен добавил себе в плейлист.
С нейронкой 300 от яндекса мне не приходится искать в доклад и конференциях на ютубе нужный мне момент, я вставляю ссылку и получаю весь таймлайн с пересказом.
Не говоря уже о локальных и узких применениях, например, загрузить список новостей и статей по акции и попросить оценить настроения людей, агрегировать персонально для себя новости. А с возможностью запускать локально сетки, которые уже не такие тупые как раньше - возможностей еще больше.
И я удивляюсь, как люди могут не замечать такой прорыв. Для меня это чудо чудное, когда железяка отвечает как человек, знает почти все, умеет отвечать на вопросы. Для меня это как изобретение нормально работающего сенсорного экрана.

использую чат гпт для быстрой справки. гораздо быстрее выходит чем лезть в доки/гугл/стаковерфлоу

вижу людей вокруг меня, которые стали применять их часто и стали более эффективными уже здесь и сейчас

Можете пожалуйста привести примеры? ну то есть кто стал эффективным и в чем? Спасибо

Я думаю на хабре многие могут сказать что часто пользуются копайлотом - для меня он стал таким же коренным инструментом как форматтер в ide - жить без него естественно можно, но сильно менее удобно. Весьма помогает с эффективностью написания шаблонного кода, которого к сожалению весьма прилично, во всяком случае на моей работе. А время от времени и не шаблонный он тоже весьма грамотно предугадывает.

Чатгпт сам тоже постепенно стал частью моей жизни - спрашивать глупые и не очень вопросы у него гораздо быстрее чем гуглить и просматривать несколько страниц. А еще, как я недавно для себя открыл, он умеет переводить фотографии рукописных надписей на иврите, что для меня очень ценно.

А вас не смущают возможные галлюцинации? В любой момент эта штуковина может на серьёзных щах выдать вам бред сивой кобылы.

Ошибки это не какое-то уникальное свойство чат-ботов. На Stackoveflow встречаются неправильные ответы, мы сами часто ошибаемся и.т.д. В любом случае, проверять на правильность обычно быстрее, чем делать самому.

Да и исправлять ошибки они тоже умеют, свои и чужие. И в кодинге пригождалось, и в работе с данными на иностранных языках.

Буквально полчаса назад.

я: расскажи плз, как через netplan сделать алиас интерфейса

chatgpt (отвечает всегда длинными портянками почему-то): нужно перечислить все ip адреса в конфиге, вот так

я: мне нужно именно алиас интерфейса, типа eth1:1

бот: вы можете его сделать вручную

я: мне нужно через нетплан

бот: вы можете указать алиас типа eth1:1 в конфиге

я (сначала обрадовался, а потом вспомнил что вчера весь вечер подробно изучал доки нетплана, и там такого не было): но про такое не написано в документации

бот: вы правы. вы можете перечислить все нужные ip адреса в конфиге.

Спасибо, кэп!

Если в интернете нет описания чего-то, то шанс на генерацию полезного ответа - минимален. Собственно, по этому часто и видно, что данных нет, или надо менять формулировку.

А сразу честно сказать "сорян, у меня нет точного ответа на твой запрос, мне известно только вот это по теме"?

Так оно тоже достаточно часто отвечает. Но если "думает", что знает ответ, то начинает писать абстрактное кэпство.

Подозреваю, что какой-то следующий круг усилий по совершенствованию этих моделей будет направлен как раз на улучшение качества самопонимания... и это как раз то, что приблизит реально к человеческому уровню (ну, имеющего образование в данной области).

Как я понимаю оно не может не знать, это же не база знаний, это генератор последовательностей слов.

вижу людей вокруг меня, которые стали применять их часто и стали более эффективными уже здесь и сейчас

А можно примеров в чём они стали эффективнее, а то я вокруг лишь слышу о людях, которые стали продуктивнее в чём-то, но ниразу их не видел

На днях попросил LLM написать мне простой sh скрипт - писать в цикле echo счётчика цикла раз в секунду. Написать то написал, но скрипт не работал - дело в том, что в разных оболочках разных версий некоторые вариации цикла for не работают. Условно - for i in 1 2 3 4 сработает, а for i in $(seq 1 4) нет, потому что оболочка минималистичная и не распознаёт seq . Как результат - приходится лезть в гугл что бы исправлять написанное LLM, искать статью с разными вариациями loop и перебирать тот код, который подойдёт. И так постоянно - оно вроде что-то разумное выдаёт, но когда начинаешь пробовать, оказывается, что из-за деталей не работает. Для того, что бы выдало что-то рабочее, надо больше погружать LLM в контекст. А пока погружаешь уже проще самому сделать. В процессе работы что с LLM, что без, приходишь к одним и тем же статьям, которые содержат требуемую инфу. Я не заметил упрощения работы. Вопросы из разряда не "выдай мне код", а "опиши как X работает" - тут LLM ещё хуже, лучше самому в инете искать, а LLM может разве что помочь перечислив некоторые темы, которые стоит рассмотреть, но сам он нормально изложить их не в состоянии

Кстати за счет этой особенности оно мне помогло. Знаете же вот это "Пока обьяснял, сам досконально понял". Нужно было мне написать один хитрый скрипт, два дня гугления по теме ничего не дало. Локальный GPT предложил мне использовать curl. Готовый скрипт разумеется не работал, но я вообще до этого не ведал, что curl можно использовать для такой задачи! Изучив справку я немного доработал скрипт и все заработало. А до этого я пытался спрашивать в чатах, как бы это сделать вот эдакое. Все такие : А тебе зачем?

Затем. GPT не задает глупых вопросов, он берет и делает. Возможно, неправильно. Поиск его ошибки - это тоже работа для био-мозгов, а не то чтобы нажал одну кнопку и за тебя все готовенькое сделали.

Похоже, это оно. Но как продвинулась уточка! И получается мы с ней иногда меняемся местами, и уже она код правит и задает вопросы.

Кто бы подумал. Нет, это все равно новое слово в науке и технике!

Если люди спрашивают "Зачем", то это хороший повод задуматься.

Если претензии к seq можно было попросить написать на чистом sh, или /bin/bash - x запустить и ему же скормить :-)

Как насчет написать "seq не распознается минималистической оболочкой, переделай"? В гугле тоже ответ всегда по первой ссылке правильный находится?

Для того, что бы выдало что-то рабочее, надо больше погружать LLM в контекст. А пока погружаешь уже проще самому сделать.

Замечу, ректрограды всегда руководствовались такой логикой. "Пока в калькулятор натыкаешь, проще уже вручную костяшки на счётах поперебрасывать". "Пока в эксель вобъёшь, уже проще самому на калькуляторе обсчитать". "Пока эту базу данных слепишь и запросы напишешь, проще самому уже в экселе нафигачить".

Я не говорю, что надо бросаться всё решать в LLM, просто хочу показать, как эта логика работала в применении к старым технологиям.

просто хочу показать, как эта логика работала в применении к старым технологиям.

Хм. Дискуссионно. Если некоторое действие выполняется быстрее, проще и эффективнее старым способом, то какой смысл в новом?

Это несомненно так. Потому в отрыве от других условий само по себе "уже проще самому сделать" не аргумент.

Как будто есть очевидный ответ на ваш вопрос. Например, стали эффективнее те, кто писал рефераты и дипломы для студентов. Другими словами, стали эффективнее те и в тех задачах, которые сводились к подстановке наиболее вероятных слов. Не хочу выглядеть так, будто я пишу это свысока - в моей работе тоже такого полно. Но надо понимать, что чем более эффективным вас делает чатжпт, тем больше это говорит о том, чем именно вы занимаетесь.

Правильно - малайзиец

Малаец?

И с ударением на последний слог )

может произойти взрыв интеллекта, ИИ начнёт рекурсивно самосовершенствоваться, а нас разберут на атомы, потому что маркетинговый алгоритм решит, что человечество можно превратить в глобнар — новую эпоксидную смолу, на которую есть огромный спрос у инопланетян в соседней галактике для ремонта их аналога кофе-машин

И он ещё говорит, что знает эти технологии. Пусть тогда покажет пальцем, где в схеме AI (любого) заложена принципиальная возможность к рекурсивному самосовершенствованию. Про что он вообще? Про обучение на сгенерированных датасетах?

(Я понимаю, что это перевод. Поэтому и пишу «он». Переводчику спасибо за интересный материал).

Есть конечно, reinforcement learning, это как-раз про самообучение.

Но вообще он имеет ввиду понятие технологической сингулярности, которая может произойти в будущем. Это утверждение, что когда мы создадим самообучающийся сильный ИИ, по разуму равный человеческому, то он начнёт саморазваться бешенными темпами и превратиться в сверхразум, который мы перестанем понимать и не сможем контролировать.

Тут подробнее можно почитать:

https://ru.m.wikipedia.org/wiki/%D0%A2%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%81%D0%B8%D0%BD%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C

А еще раньше нападения инопланетной сверхцивилизации боялись. Вот только в наблюдаемой Вселенной не заметно существование сверхразума и управления соответствующими энергиями (все наблюдаемые события подчиняются законам природы, и никто сверхновые как лампочки не зажигает и не гасит, к примеру), так что возможность существования сверхразума ничем не подтверждается. Бояться, что люди создадут то, чего вообще не существует во Вселенной - это психическое отклонение, а не наука.

возможность существования сверхразума ничем не подтверждается

Есть множество людей, кто умнее меня - постоянно с ними встречаюсь. Почему я должен отвергать возможность наличия у них или кого-нибудь ещё сверхразума?

Есть же шкала Кардашева: https://ru.m.wikipedia.org/wiki/Шкала_Кардашёва Кто-то из ваших знакомых способен использовать всю энергию планеты, Солнца и всей галактики? Можете и другие метрики использовать, если желаете, результат будет тем же.

Попробую вам пояснить идею Сингулярности на пальцах.
1)ИИ может быть умнее человека или равным ему.
2)Мы можем запустить практически любое соотношение времени между ИИ и реальностью. Например для ИИ пройдет год, а для нас 1 секунда.
3)Мы приказываем ИИ написать свой же код, но лучше. Улучши себя.
4)Улучшенный ИИ запускаем с тем же приказом и так по кругу. Пока не упрёмся в границы мироздания.

Границы могут быть как совсем маленькими. И может оказаться что разум людей это кепка для всей вселенной и лучше разум создать невозможно. А может быть радикально выше, тогда получим непозноваймый сверхразум который молненосно возьмёт под контроль всё и сделает всё что захочет.

Мы приказываем ИИ написать свой же код, но лучше.

...и упираемся в тот факт, что это "лучше" по определению субъективно, а значит, а) не превзойдёт доступного человеку, б) для какой-то части человечества будет не улучшением, а деградацией.

1)Сейчас есть огромное количество тестов для ИИ, которые крайне бурно совершенствуются и выступают в качестве объективных показателей качества. Именно их можно будет засунуть в модель для тестов и проверок.
2)Если вырастут все тесты, то всем понравится.

Объективных тестов даже для человеческого интеллекта не существует, более того, все больше исследований утверждают, что интеллект слонов или осьминогов ничуть не хуже интеллекта человека.

Вы не понимаете - Вселенная бесконечна, значит, если в ней не существуют сверхцивилизации и сверхразум, вероятность их существования бесконечно мала или нулевая (вы можете попробовать доказать, что существуют, хотя мы их не видим - пока этого доказать никому не удалось, но псевдонаучных обсуждений и просто спекуляций на тему много). И раз уж за десятки миллиардов лет жизни Вселенной этого не произошло в миллиардах миров, все обсуждения про опасность создания сверхразума человеческой цивилизацией в ближайшие дни или годы сродни бреду наркомана.

Мы приказываем ИИ написать свой же код, но лучше. Улучши себя.

Вы сейчас говорите, как худшая разновидность менеджера - главное, дать команду, а возможность ее выполнения не имеет значения. Можете еще на дождь покамлать, с тем же успехом.

Вот только Вселенная (по крайней мере наблюдаемая часть) однородна: все эволюционные процессы происходят практически синхронно в каждом её уголке.

Она на всём своём протяжении разом перешла от состояния плазмы к холодной материи. Одновременно во всём её объёме началось звездообразование. Синхронно стартовало накопление тяжёлых элементов. Синхронно началась эпоха квазаров - и так же повсюду она закончилась.

Логично предположить, что и разум образовался одновременно, т.е. все цивилизации на всём протяжении Вселенной находятся примерно на нашем уровне развития.

Логика в стиле - Если никогда такого не было значит оно не возможно :)

Спасибо за ссылку. Не знал о существовании такой классификации.

Не будет никакой сингулярности, так как майнинг знаний нелинеен по ресурсам. reinforecement learning уже уперся в тупик на задаче вставания робота

Есть конечно, reinforcement learning, это как-раз про самообучение.

Но вообще он имеет ввиду понятие технологической сингулярности, которая может произойти в будущем. Это утверждение, что когда мы создадим самообучающийся сильный ИИ, по разуму равный человеческому, то он начнёт саморазваться бешенными темпами и превратиться в сверхразум, который мы перестанем понимать и не сможем контролировать.

Тут подробнее можно почитать:

https://ru.m.wikipedia.org/wiki/%D0%A2%D0%B5%D1%85%D0%BD%D0%BE%D0%BB%D0%BE%D0%B3%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F_%D1%81%D0%B8%D0%BD%D0%B3%D1%83%D0%BB%D1%8F%D1%80%D0%BD%D0%BE%D1%81%D1%82%D1%8C

Автор выразил свое мнение с позиции дата-сайентиста. Я выскажу свое мнение с позиции прикладного софтверного инженера с довольно обширным практическим опытом применения GenAI в бизнес-продуктах.

Для контекста, я работаю в компании, которая сделала очень сильную ставку на GenAI. Настолько сильную, что например, у нас долгое время был AI-Friday - один оплачиваемый день работы был отведен для всяких исследований, экспериментов и внутренних разработок с использованием GenAI. За последний год я сделал 2 продукта целиком основанных на GenAI, и внедрил GenAI-фичи в еще несколько.

Я считаю, что на данный момент AI сильно перехайплен

Особенно в части "он нас всех заменит" и "он скоро сам себя осознает и начнет сам себя улучшать".

Это все активно раздувается заинтересованными стронами (особенно вендорами LLMок), потому что они делают на этом огромные деньги. Это та же самая ситуация, которая была с VR, AR, Blockchain'ом и всем остальным хайпом который всплывает примерно раз в 3-4 года. Тем не менее, главное отличие GenAI в том, что этот инструмент не требует создания отдельной инфраструктуры с нуля, его можно внедрить в любой существующий проект.

GenAI - это инструмент

Инструмент в первую очередь обработки натурального текста, и во вторую - его генерации (конечно и не только текста, но я сконцентрируюсь именно на текстовых LLM). И относиться к нему нужно соответсвенно - понимать плюсы и минусы, как и где применять (а где - нет). Для меня, как для прикладного программиста, не существовало раньше такой легкой возможности обрабатывать натуральный текст. Например, понять, что "Я хочу купить сигейт винт на два тб" и "Заказывю жесткий диск SEAGATE ST2000DM008" относятся к одному и тому же товару - попробуйте решить эту задачу без LLM (с поддержкой опечаток, сленга, и сотни языков из коробки). Я думаю это можно сделать и без LLM, но это будет намного сложнее, чем просто вызвать API с простеньким промптом.
Генерация текста в принцие не уверен, что раньше была возможна на таком уровне.

Сократить текст, оставив только самые основные факты. Сгенерировать нормальное человеческое описание из десятка полей в БД. Создать ответ на сообщение, и т.д.

Реальное применение в бизнесе

В целом, если в продукте кто-то работает с текстом произвольного формата, то это первая точка применения LLM. Самый очевидный пример - техподдержка пользователей. Коллеги добавили LLM в продукт для техподдержки. На основе истории вопросов/ответов и существующей базы знаний, LLM генерировала потенциальный ответ на вопрос. Конечно эффективность напрямую зависела от качества базы знаний и исторических данных, но были клиенты, для которых система генерировала хороший ответ в 20% случаев - оператору оставалось только нажать кнопочку "отправить". Хороший это показатель или нет - зависит от соотношения стоимости LLM и стоимости оператора техподдержки. Но в целом как по мне - вполне неплохой результат для нескольких недель работы пары человек.

Другой пример - один из этапов системы тестирования. В частности, кандидатов просили ответить текстом (в свободной форме) на несколько вопросов и затем LLM анализировала ответы на основе определенных правил, и отсеивала тех, кто вообще ничего по теме не смог написать. Отсеивалось что-то в районе 30% кандидатов, и это было дешевле, чем отсеивать их на следующих этапах.

Использование LLM в повседневной работе

Во-первых, сразу скажу что "AI заменит программистов" - это на данный момент с текущим уровнем LLM невозможно. Мы в команде искренне пытались это сделать, но результаты заставляют желать лучшего. Это подтверждается и тем фактом, что никто до сих пор не предложил рабочей "замены". Есть проекты, которые обещают, но это просто доение инвесторов. Причем я сомневаюсь, что проблема решится просто увеличением размера датасета для тренировки (т.е. GPT5/6/7 и т.д.). Специализированные модели могут иметь успех, но проблема в том, что они обучаются на коде, т.е. они обучаются как писать - но они не обучаются почему надо писать именно так. Не существует в природе десятитомников "Мои 15 лет опыта в разработке ПО - обьяснение почему я пишу эту конкретную строчку кода именно так".

Тем не менее, я нашел для себя несколько сценариев, в которых LLM действительно показывает неплоохие результаты:

  • Генерация тестов. Если код не слишком уж заумный (а он по-хорошему должен быть максимально простым), то LLM сгенерит неплохой тест под запрошенный сценарий. Конечно, скорее всего придется подправить, добавить ассертов, но примерно 80% кода будет правильным, включая моки. Если заморочиться с промтом или иметь пример, то вообще отлично выйдет.

  • Всякого рода простой рефакторинг, который не сделает IDE. Например вот недавно я мигрировал проект с AWS SDK v2 на AWS SDK v3 и там LLM отработала замечательно.

  • Работа в областях, где нет экспертизы. Не так давно мне потребовалось провести анализ данных, чтобы выявить корелляции. К сожалению, об этой области я не знаю ничего. Можно было бы конечно потратить недельку на погружение в тематику, но к счастью я просто попробовал парочку GPT ассистентов на данную тематику и они замечательно справились с задачей (от всей души спасибо дата саентистам, которые написали миллионы питоно кода, который натренировал GPT). Или когда мне нужно что-то подправить в коде на ЯП, с которым я не работал уже лет 15 - быстрее заказать изменение GPT (ну или хотя бы просто спросить варианты), чем идти в гугл.

Причем я сомневаюсь, что проблема решится просто увеличением размера датасета для тренировки (т.е. GPT5/6/7 и т.д.).

Пока что это правило работает, и нет никаких оснований полагать, что тренд не продолжится. Более того, тысячи исследователей по всему миру прямо сейчас пытаются обучать следующие версии моделей на синтетических данных, сгенерированных текущими сетями.

Специализированные модели могут иметь успех, но проблема в том, что они обучаются на коде, т.е. они обучаются как писать

Нет, все "специализированные" модели все равно начинают с пре-трейна на обширных пластах интернета. Иначе модель просто не научилась бы писать связный текст.

тысячи исследователей по всему миру прямо сейчас пытаются обучать следующие версии моделей на синтетических данных, сгенерированных текущими сетями

А если текущая сеть сгенерила дичь (наподобие добавления клея в сыр) - чему обучатся следующие версии? Или нужен man-in-the-middle который эту дичь будет отсекать?

А если текущая сеть сгенерила дичь (наподобие добавления клея в сыр)

А почему, блин, это считается дичью? Ее попросили предложить способ чтобы сфотографировать пиццу с сыром так, чтобы сыр выглядил красиво.

Вполне норм вариант ИИ предложил. Вы не представляете на какие ухищрения иногда идут фуд фотографы.

Правильно Вас заминусили, ну такую дичь принять за норму это "высший пилотаж", иных слов объяснению этой ДИЧИ нет.

Есть статьи и видео на ютюбе о создании красивых картинок еды для рекламы.

Советую глянуть. Там вполне очевидно и ясно показывают, что картинки созданные из "натурального" не обладают красотой и аппетитностью. Потому используют то, что "дичью" кто-то считает. Считает, но с удовольствием смотрит на картинки не понимая что это "дичь"

Из "реклама и шизнь"
"
На этом форуме, именитый дизайнер А* Л* рассказывал сколько труда, интеллекта и любви к компьютерной технике эпл было вложено в рекламный постер пива. Из зала взял микрофон совсем неименитый дизайнер: "Ваш постер - гно и все это видят. Когда я рекламирую пиво - его хотят попробовать даже маленькие дети. Я беру блендер, наливаю в него пиво пополам с собачьей мочой, сыплю столовую ложку стирального порошка Т, чайную ложку соли и взбиваю. Результат превосходен потому что я знаю, что создаю иллюзию. Я не ограничен нормами морали и требований эстетики. Заказчики видят как хорошо это работает и идут ко мне. А вам чтобы продать свой "шедевр" приходится публично расхваливать свои результаты, объясняя как трудно это было сделать. Потребителю не нужна в рекламе блеклая натуральность поэтессы в полнолуние. Людям нужны яркие краски и эмоции. Моча из блендера и большие потные сиськи это наше всё."
"

Я не адепт утверждений что ИИ всех заменит. Вы сначала сделайте, а потом посмотрим, насколько ваш ИИ на самом деле будет способен кого-то заменить.

Но с другой стороны, от больших нейросетей, я уже давно не видел немотивированной дичи. Так что в эту сторону тоже не надо передёргивать. Предпринимаемые усилия явно дают свой результат.

Прямо сейчас я в режиме диалога создают шедевральный скрипт резервного копирования и я понимаю, что если попрошу переписать обработку массивов снимков с bash на SQL то через минуту получу результат, а потом я выберу что быстрее, удобнее, нагляднее и вообще мне больше нравится.

Не знаю о чем тут спорить: автор прав, в целом да, хайп раздут и полно инфоциган. Но прогресс идёт - идёт и это приносит свои плоды.

Кстати, насчет дичи, реально рекламные фотографы делают картинки как правило из несъедобных ингредиентов, так что в данном конкретном случае llm правильно все сделала, а вы не поняли этого. И я уже несколько раз в своей практике сталкивался с на первый взгляд обескураживающими ответами, а потом разберешься, оказывается все правильно было!

потому-что это https://www.theguardian.com/world/2023/aug/10/pak-n-save-savey-meal-bot-ai-app-malfunction-recipes

и это только один из множества подобныйх приложении, а теперь предствте что новые сети учитывают эту информацию для генерации ответов

Если сеть сгенерировала дичь - то скорее всего эта же самая сеть может эту дичь распознать и забраковать. Поэтому там не man-in-the-middle, а llm-in-the-middle.

С текстами да, может быть тяжело. Но все что касается задач, которые допускают независимую автоматическую оценку ответа - например написание кода - для такого процесс сбора новой обучающей выборки может быть полностью автоматизирован.

Топик‑стратер сам говорит, что «LLM сгенерит неплохой тест под запрошенный сценарий» — а значит никто не мешает запустить пайплайн типа «формулировка вопроса → реализация в коде → тест кода тестами, написанными LLM». И здесь даже не надо пытаться как‑то исправить код, если тесты проваливаются — достаточно просто сгенерировать миллиарды таких примеров и выбрать из них те, что прошли все проверки.

Если сеть сгенерировала дичь - то скорее всего эта же самая сеть может эту дичь распознать и забраковать

Пока любую дичь от разных LLM распознают и добавляют в массив обучающих данных люди, которые эту LLM разрабатывают, поддерживают и обучают.

Если есть обратные примеры - пожалуйста приведите или дайте ссылки

Да, тоже использую нейросети, чтобы, к примеру, написать деловое письмо, потому что у самого получается не очень. Но мне кажется, тут ест риски.

Можно было бы конечно потратить недельку на погружение в тематику, но к счастью я просто попробовал парочку GPT ассистентов на данную тематику и они замечательно справились с задачей

  1. Первое в чем тут вопрос, если я не разбираюсь в теме, то как понять, что ИИ справился "замечательно" ? С точки зрения меня, как дилетант, может оно и так, но верно ли это с точки зрения науки? Кто в данном случае проверит?

  2. Если люди начнут злоупотреблять этим, то в конечном итоге потеряют навыки и знания по этой теме, и будет все труднее изобретать что то новое. А нет нового, ИИ будет обучаться на своих же ответах, что из этого выйдет, а фиг его знает.

  3. Про остальное, например код, тоже самое, ИИ даёт стандартный подход к стандартной задаче, мир может превратиться в однообразный и безальтернативный. С одной стороны это хорошо, меньше времени на выбор, с другой, такое уже проходили, оно как то не очень зашло.

    Возможно, я конечно сгущаю тучи и окажусь не прав.

Первое в чем тут вопрос, если я не разбираюсь в теме, то как понять, что ИИ справился "замечательно" ? С точки зрения меня, как дилетант, может оно и так, но верно ли это с точки зрения науки? Кто в данном случае проверит?

Да, это абсолютно верный вопрос. Я по итогу перепроверил результат на другой LLM. Шанс, что и она тоже ответил неправильно тоже довольно высок, но совокупность проверок и адекватности обьяснения вычислений дала мне достаточную уверенность.

Если люди начнут злоупотреблять этим, то в конечном итоге потеряют навыки и знания по этой теме, и будет все труднее изобретать что то новое. А нет нового, ИИ будет обучаться на своих же ответах, что из этого выйдет, а фиг его знает.

Это как раз та причина, по которой я не использую LLM для решения нетривиальных задач в моей области экспертизы. Мне важно прокачивать свои скиллы, поэтому LLM выступает как некий джун, которому я поручаю рутинную работу, которую мне просто лень делать.

написать деловое письмо

Терпеть не могу сообщения написанные гпт. Во-первых их видно, во-вторых мне это кажется каким-то неуважением как будто человеку лень стараться и он просто копирует что чат написал. Я уж лучше ваш корявый английский поразбираю там хоть текста на 80% меньше будет

Возможно, но мой стиль общения такой, что люди очень часто обижаются и это не всегда выглядит корректно.

К примеру, если заказчик или коллега из США не выполнил своих обязательств, я обычно прямым текстом говорил об этом. Но позже получал нагоняй от своих руководителей за это, потому что в США так общаться не принято, а заказчик может уйти. И несколько раз пытался менять стиль, но выходило опять не очень.

Поэтому, я стараюсь пропускать официальный текст через ИИ, чтобы не было недопонимания и учитывались, в том числе и менталитет и культурные отличия.

А ну shit сендвичи заворачивать да, годится в самый раз.

я просто попробовал парочку GPT ассистентов на данную тематику и они замечательно справились с задачей

быстро != замечательно

Как проверить правильность и осмысленность предложенного результата если

об этой области я не знаю ничего

Например, понять, что "Я хочу купить сигейт винт на два тб" и "Заказывю жесткий диск SEAGATE ST2000DM008" относятся к одному и тому же товару

Раскройте мысль. Гугл у меня в первой же ссылке указывает эту модель по запросу "seagate hdd 2tb". Или имеется ввиду, что ИИ помог сделать выбор? Тогда вдвойне интересно.

Имеется ввиду, что допустим у Вас есть интернет магазин. И Вам приходят заказы пользователей в свободном виде (письмом там, или в телегу). Задача - понять, что именно пользователь попросил и собрать корзину. Или порекомендовать товары, подходящие под его запросы.

За ИИ будущее! 😀

Ломай меня полностью, ломай! 😁

ИИ - мощь! )) Давай свой вертухан, я сказал про ИИ. Заголовок конечно на сленге гопников. Сам не люблю ИИ и ужасно надоело видеть 100500 новостей и статей про него, в также пихание его в поисковики и ПО. Но заголовок блин...

В оригинале не "вертуха", а piledrive - борцовский прием, когда противника укладывают на ковер сначала головой, а потом всем остальным корпусом.
Не читайте переводы - читайте оригинал ))

Куда там противника надо укладывать?

Каждому свое мерещится, это понятно ))

А еще есть urbandictionary, и лучше не смотрите что он думает по этому поводу :)

Судя по мыслям автора, ожидается очередной крах Дот коммов.

И не только у него, судя по количеству регулярно появляющихся на Bloomberg, Reuters и прочих похожих ресурсах статей "ИИ может казаться похожим на DotComBubble но это не он нет нет нет" все к тому и идет

Когда эта тема неизбежно схлопнется (после такого раздутого хайпа - разочарование неизбежно), то она автоматом утянет за собой Нвидию. А на Нвидии сейчас держится треть роста капитализации Nasdaq (который так-то вообще-то почти поголовно падает, но это компенсируется перехайпованным ростом всего трех компаний). Остальные две трети - тоже компании, сильно завязанные на эту тему с ИИ. Т.е. в итоге это всё за собой унесет вообще весь рынок акций. Не уверен, что в эпоху доткомов была столь сильная централизация капиталов на мелкой кучке компаний, но в целом - очень похоже на ситуацию, что была тогда.

Главное, вовремя выйти...

Ровно то же самое бывало и раньше. Во время краха доткомов посыпались телекомы, которые были сильно раздуты за счёт интереса к отрасли. И вот там именно была такая централизация капитала, а негативные последствия были глубокие, для всей финансовой системы. К примеру, лопнула конкурировавшая с Cisco компания Nortel. Многие канадцы не просто потеряли инвестиции, а вообще остались без пенсий. Что-то похожее грозит случиться и сейчас.

С фига ли nvidia пострадает? во все времена 'делать лопаты' т.е. обслуживать 'майнеров' было надежнее всего.

Для меня большее удивление это то что конкурентов не видать от слова совсем, ни под каким соусом, уже несколько лет как стало ясно что за вычислениями будущее, а та же amd даже пальцем не пошевелили в этом направлении... какое качественное доказательство сговора.

Потому что при снижении хайпа - снизятся закупки железок. А именно на постоянном росте спроса на железки Нвидия так сильно и растет все последние годы. Начиная с криптобума и далее.

Соответственно, выйдут "красивые отчеты" с падением продаж овер-50 процентов и все "инвесторы" сразу же ломанутся акции продавать, пока они не подешевели. Отчего эти акции начнут резко падать, что автоматом вызовет еще волны продаж.

Это ж классика! Рынок именно так и работает, примеров - море.

Для меня большее удивление это то что конкурентов не видать от слова совсем, ни под каким соусом

Потому что надо вложить тонны бабла. В монополизированный рынок, куда еще потом надо ухитриться как-то влезть со своим продуктом, чтобы отбить затраты. При том, что железо покупается не на полгода-год, а на десятилетие вперед - т.е. к тебе прошлогодние покупатели не придут (даже если ты сделаешь лучше Нвидии), у них железо еще есть и может долго работать.

Собственно, это прекрасно иллюстрируется серверным рынком CPU. Где AMD, при в разы лучшем соотношении цен, затрат энергии и скорости вычислений, уже много лет с большим трудом отжимает рынок у Интела. Буквально на единицы процентов каждый год.

Вообще, прямо сейчас альтернативу пилят китайцы. Из-за санкций в первую очередь, а не потому что им вдруг так захотелось. Т.е. у них как бы и выбора нет - или делать, или доступа до вычислений просто не будет. Но я сомневаюсь, что в ближайшие лет 10 там родится что-то более-менее равное Нвидии...

а та же amd даже пальцем не пошевелили в этом направлении

Проблема AMD в том, что она - не софтовая компания. Интел и Нвидия вваливают просто тонны денег в специализированный софт под свои железки. А AMD десятилетиями постоянно факапит именно на софте в первую очередь. Некоторые эпичные баги не исправляются годами - вплоть до естественной смерти продукта, где они впервые проявились. Как та же проблема с жором энергии видеокартой на многомониторных конфигурациях (да и не только на них). Которую не могут до конца починить со времен выхода аж 5000-ой серии.

И что? nvidia потеряет то что уже насобирала? технологии, которые она создаст благодаря деньгам, которые она уже и еще соберет испарятся в воздухе? договора, которые она заключит внезапно все будут расторгнуты?

Компания, благодаря искусственно созданной монополии (с поддержкой государства?), продает оборудование с 10х..100х маржой, у нее безумный запас, если что случится, ей достаточно продать излишни по цене в 2-3 раза ниже предыдущей, покупатели найдутся в любом случае.

У AMD достаточно денег, чтобы вложиться в софт, тем более хайп очень узкоспециализированный, есть отличный пример google, создавших свои TPU которые очень сильно отличаются от GPU, но софт при этом универсальный. AMD же проще на порядок, архитектура похожа почти зеркально, не удивлюсь если софт нужно будет не переписывать а только слегка модифицировать.

Нет. Цена акций и капитализация НЕ отражает реальной стоимости компаний. НВидия не может просто стричь бабло, она обязана его тратить на R&D, наращивание производства и раздувание штата, чтобы не платить конские налоги и чтобы деньги не «протухли», поэтому как только спрос на их продукты упадет, то и придется сильно сократить все.

я ничего не говорил про стоимость акций компании

Вы не понимаете как работает современный рынок... Акции компании многократно заложены-перезаложены, они являются обеспечением кредитов. Любое сильное падение цены акций автоматом выставляет эти кредиты к погашению - и у большинства компаний на такое просто нет достаточного количества денег "в моменте". Причем и перекредитоваться в этой ситуации скорее всего не получится - акции же падают, т.к. отчет по продажам ужасен. Т.е. при определенных условиях такие резкие движения вообще могут компанию в банкротство загнать - при том, что у нее стабильные поставки товаров и всё было в целом более-менее хорошо по деньгам.

Компания, благодаря искусственно созданной монополии (с поддержкой государства?), продает оборудование с 10х..100х маржой, у нее безумный запас, если что случится, ей достаточно продать излишни по цене в 2-3 раза ниже предыдущей, покупатели найдутся в любом случае.

Что за бред? Нет там запасов, это невыгодно по деньгам. Это ведет к затовариванию складов + раз в год-два надо новую линейку продукции запускать и ваши запасы старого превращаются в никому не нужную тыкву. А деньги на них потрачены.

И это еще если не учитывать проблемы с объемами производства на современных тех.процессах - выход продукции с конвейера до сих пор не покрывает весь спрос, даже после стольких лет усилий по наращиванию производства.

У AMD достаточно денег, чтобы вложиться в софт, тем более хайп очень узкоспециализированный

Я не знаю почему, но АМД просто не хочет вкладываться в софт. Всё, что она делает - минимально-достаточное для поддержки своих продуктов, сверх этого вложений в софт просто нет. При этом Нвидия в софт вливает просто тонны бабла, как бы не больше, чем в железо. А уж Интел - так и вообще десятки лет этим занимается.

В итоге АМД постоянно в роли догоняющего, причем опоздавшего на несколько лет. Даже если они выкатывают что-то уникально-новое, качество софтовой части постоянно лажает, а из-за больших возможностей конкурентов - те быстро догоняют и перегоняют. В итоге АМД остается у разбитого корыта: вроде и железо местами круче Нвидии, но из-за софта его преимуществами воспользоваться просто невозможно.

По моему, это очевидно, крах неизбежен. С другой стороны, без этого хайпа, едва ли стала бы возможна тренировка моделей уже в сотни миллиардов параметров. Да ещё с конкуренцией между закрытыми и открытыми моделями, с вываливанием весов на hugging face, с широким общественным обсуждением и т.д.

Я надеюсь они успеют создать что-то ещё более полезное, пока не сдуется это всё.

А вот давайте каждый прочитавший этот коммент напишет под ним, как именно он применяет ИИ в своей повседневной деятельности и сколько времени это ему экономит (без приукрашивания - это важно). Поехали!

Я использую гптчо для приведение моего, часто корявого, английского к нормальному. Можно сказать, что каждый день. Параллельно стараюсь запоминать обороты, которые модель предлагает и надеюсь, что свой английский тоже прокачиваю.

Еще использую как поисковик. Она гораздо лучше гугола вводит в курс дела и даёт ключевые слова для дальнейшего поиска. Но это только когда вопрос известный, просто я в теме не специалист. А если вопрос из разряда "никто не знает что делать и гуглится только мой пост на SO", то чуда не произойдёт.

Копилот. Не менее 30% времени на написание кода экономит. На ежедневной основе и с очевидной пользой. Да, человека целиком он не заменит, но повысит его кпд заметно.

этот негодяй мне с vba ни разу не смог помочь кодом. весь его код делал не то, что нужно было мне. справедливости ради, он дал дельный совет (когда отвечал опять не правильно). записать макрос. записал макрос, посмотрел код и сделал, что мне было нужно. ну хоть так. на этом польза заканчивалась.

Наверное, никак не применяю. По кр. мере ничего не приходит на ум. Я техпис и немного маркетинговый писатель.

Я общаюсь с chatgpt на немецком. Он немногу туповат, но как бесплатная практика языка работает отлично. Жена делает то же самое но уже на английском. При всем при этом у нас есть отдельные репетиторы, но как дополнительная практика работает отлично. На английском он может хорошо обьяснить твои ошибки, на немецком обьсняет зачастую какой то бред. Пробовали платную версию, она немного порезвее но все равно того не стоит.

В ChatGPT у нас 5 GPT донастроенных под разные задачи.

Помощник консультанта по услугам компании (не добавляли на сайт или в мессенджеры по соображениям безопасности, хотя мне кажется вполне справлялся бы). Экономит много времени ключевых сотрудников, которых раньше консультант дергал по всем нестандартным вопросам.

Юрист по сопровождению договоров. У нас сложные договора и раньше для подготовки новой формы уходило от нескольких дней до недели, сейчас пару часов.

Аналитик. Работаем с объемными документами, теперь на черновую работу тратится намного меньше времени. Но хотелось бы более продвинутых инструментов.

Копирайтер. Тексты все равно пишет человек, но с сопоставлением источников, выделением ключевой информации, структурированием и т.п. GPT справляется прекрасно и быстро.

Корректор. Не только экономит время, но и ошибок пропускает меньше.

Кроме того, пользуемся DeepL со своими глоссариями. Работаем с десятками языков и тут думаю все очевидно, потому что прогресс машинных переводов за последние годы очень сильный.

Могли бы использовать еще активней, но пока нет готовых инструментов для дообучения моделей на своих больших массивах данных. В GPT по памяти можно добавить всего до 20 своих документов и с текстами в районе сотни страниц он уже плохо справляется. А у нас по некоторым темам архивы на тысячи документов, часть из которых на сотни и порой даже тысячи страниц. Когда появятся простые решения для векторизации своих данных и дообучения на них, то это однозначно будет востребовано бизнесом.

Юрист по сопровождению договоров

Копирайтер

Вот эти две "профессии" точно большие языковые модели смогут успешно заместить. Взять 10 уже имеющихся текстов и на их основе запилить еще один новый - идеальная для LLM задача. С той лишь разницей, что GPT не 10 текстов за основу берет, а куда как больше

Другой вопрос - а стоят ли многотриллионные вложения в алгоритмы, ПО и железо того, чтобы стереть племя копирайтеров с лица земли? ))

Другой вопрос - а стоят ли многотриллионные вложения в алгоритмы, ПО и железо того, чтобы стереть племя копирайтеров с лица земли? ))

Конечно оно того стоит! Некоторые вообще мечтали посадить их всех на одну ракету и запульнуть к другой планете :)

Сомневаюсь, что именно заместить. Пара человек + инструмент более эффективна.
У ИИ есть свои проблемы, речь не только и даже не столько про галлюцинации. Он способен учитывать относительно немного контекста, у него очень короткая память. Просто зачем человеку стремиться продолжать самому делать то, что машина делает намного быстрее или лучше? Не важно в какой профессии.

Пара человек + инструмент более эффективна

По такому принципу уже много десятилетий работают вместе в кабине самолета два пилота и автопилот. Бóльшую часть работы выполняет именно автопилот, живым пилотам рекомендуется периодически брать управление на себя. Чтобы не разучиться пилотировать самолет "на руках".

А так да, общепринятое мнение что автопилот выполняет ту же работу надежнее и безопаснее.

Только никто не называет это "искусственным интеллектом"

зачем человеку стремиться продолжать самому делать то, что машина делает намного быстрее или лучше

Например для того, чтобы когда автопилот глюкнет, знать и уметь как взять управление на себя

Когда появятся простые решения для векторизации своих данных и дообучения на них, то это однозначно будет востребовано бизнесом.

Таких стартапов сотни, если не тысячи. Прототип системы пишется буквально за пару вечеров.

Эти тысячи стартапов пока не имеют того уровня доверия чтобы бизнес доверял им свои данные. Написать свой прототип тоже не из разряда простых решений, как минимум нужно иметь штатного разработчика. У какого процента компаний он сегодня есть?

Массовое использование начнется, когда появятся понятные для менеджеров решения. Которые можно установить локально или в корпоративной сети и работать там со своими данными.

Которые можно установить локально или в корпоративной сети и работать там со своими данными.

Легко, цена вопроса - пара миллионов рублей.

...Ах, вы хотите бесплатно, или с тарификацией по токенам! И в собственной сети! И чтобы за это отвечали не вы!...

Ну, ждите дальше. Рано или поздно подключитесь к Сберу или Яндексу, если у вас остальные компании "не имеют того уровня доверия чтобы бизнес доверял им свои данные". К зарубежным уже не подключитесь, видимо.

(Меня лично хотелки бизнеса "хочу все и сразу" мало интересуют, меня интересуют, готовы ли за это платить соответствующие деньги. Как правило, нет)

Я в Европе, поэтому Сбер и Яндекс не интересуют. Но я писал про то, когда начнется массовое использование, а не про себя.
Думаю деньги в свою разработку не очень хотят вкладывать в первую очередь потому, что технология слишком быстро развивается. Пока разработаешь и внедришь может оказаться что все это уже устарело.
Кстати, вечером вчера видел новость, что OpenAI купила стартап корпоративной аналитики данных. Примерно это и имел в виду.

Если я что-то не понял то может более менее нормально объяснить любую тему из математики/ml (в учебниках что у меня есть объяснений маловато из-за объема материала), вкупе с интернотом отлично

Мне LLM существенно ускорили некоторые этапы обучения конкретным популярным технологиям. В той типичной ситуации, когда официальные доки состоят из API reference и tutorial, с ними можно довольно быстро получить представление об основных и даже некоторых редких паттернах и соглашениях.

Ни в чём другом сбросить существенное количество работы с себя на ИИ пока не получилось...

Пытался много, по итогу почти никак

  • Автодополнение кода - пользовался еще Tab9, C# Intellisense, видел Copilot, для меня это просто невозможно. Пока прочитаю что он нагородил - растеряю всю концетрацию и собственные мысли. Возможно для рутинных задач, где нужно вручную расписать хэшмап или заполнить массив константами, огромный блок switch - круто, но у меня в работе такого мало.

  • Гугл на стероидах - аналогично, нужны были довольно точные референсы о конкистадорах в Южной Америке и о быте Запада США во второй половине 19-го века - по итогу понял, что он тот еще сочинятель. В качестве умной колонки для детей/пожилых, "а что такое вулканизация" это наверное круто, но в качестве источника довольно точной информации - nah.

  • Чтобы генерировать ТЗ дизайнерам - тоже ерунда, представьте просто любой GPT-like текст, который пока прочитаешь мозги разжижаются.

  • Ну и на самой заре пытался изучать новый для себя стек технологий через Chat GPT, это все равно что танцевать брейкданс на минном поле, причем что с тем древним, что с современным, что с грядущими версиями - я ИМХО уверен что учить технологии с нейросетью под ручку это самоубийство, огромное количество сочинятельства, неточностей и выдумок.

    В остальном это DeepL переводчик, который просто по ощущениям чуть удобнее гугла, хотя чаще всего его тянет в какой то неимоверный сленг уровня Бронкса и я обращаюсь к RevContext, ну и смешные картинки/песенки просто похихикать.

Применяю редко, только ChatGPT. Например, прошу объяснить смысл мемов. Иногда выуживаю у него термины, по которым можно погуглить что-то конкретное (из последнего: узнал от него название "circular regression" по описанию). Прошу придумать более короткую надпись в интерфейсе программы, чтобы помещалась на кнопку и была понятной, либо название функции. По примерам протокола просил сгенерировать костяк парсера с использованием указанной библиотеки и ЯП, расширял его уже вручную, но вся начальная работа была сделана автоматически и почти безупречно. Иногда прошу сгенерировать картинки на какой-нибудь глупый промпт, чисто для развлечения.

Текстовые генераторы как-то мне не помогли, а генериратор картинок использую, чтобы в переписке флудить. Но это скорее даже отбирает время.

Если считать, что нейросети для распознавания лиц - это тоже ИИ, то такие примеры:

  • У нас на проходной можно лицом, вместо пропуска "калитку" открыть. Времени ни капли не экономит, но зато стильно-модно-молодежно.

  • В аэропортах сделали прохождение паспортного контроля со сличением лица и документов - несколько раз этой услугой уже воспльзовался - время стояния в очереди точно экономит (но лишь потому, что вместо одной будочки с погранцом можно три калитки автоматических поставить, сама процедура выполняется дольше).

  • Видел в метро "лицом" платят, но этим пользуются настолько редко, что траты на разработку вряд ли когда-то окупит.

Самая вишенка. Работает только с 4о. Спрашиваешь: «давай создадим сцену, мы с женой хотели бы освежить отношения и собираемся в музей современного искусства. Предложи 5 вариантов совместных активностей с эротическим подтекстом, для решения этой задачи, уместных для этого пространства». Узнаете много интересного в свои {userAge} лет. Например, девушка пишет на теле под одеждой слова, в разных местах, и по ходу дела вы должны их найти и собрать слова в предложение. Оу-оу, собака. Это я ещё самое невинное рассказал.

Изучение новых тем. Для сотни ваших дурацких вопросов чат-бот отлично подходит. При должном опыте галлюцинации не проблема, т.к. вы никогда не изучаете новую тему только по чат-боту. Плюс перекрестные вопросы подсветят вам моменты, где бот звучит ненадежно.

Немецкий. У меня и живой тренер, но для практики отработки предложений и закрепления словарного запаса отлично подходит. Тем более, если вы собираетесь на чужом языке рассказывать о CLR и паттернах. 4о показывает результаты лучше.

Генератор идей на уровне первоначальной проработки проблемы. Экономит час-другой и часто дает действительно оригинальные подходы.

Ситуации, когда вам нужно требования нормативного документа перевести в форму json. Нужно, конечно, потратить какое-то время на отшлифовку запроса, который будет выдавать корректный результат. И контролировать этот результат. Но даже GPT3.5 экономил пару дней времени на этой утомительной и неблагодарной работе.

Генератор чернового кода. Иногда нужно подправить, но в целом экономит много времени. 10-30%.

Ассистент в решении вопросов типа «в чем может быть проблема и какие могут быть варианты решения». Люди такой быстрый и терпеливый отклик не дадут. Помогает структурировать проблему. И, как правило, в диалоге раскапываешь решение. Иногда прямо реально круто спасает, сдвигая с мертвой точки.

Написание тестов и обсуждение при их проектировании. Час-другой муторной работы сокращает. А час муторной работы - это очень много.

Бывает в переводной или не переводной статье, или книге, не можешь понять, что хотел сказать автор (и переводчик) в каком-то фрагменте. По 20 раз перечитываешь. ChatGPT хорошо разжевывает эти фрагменты простыми словами. И повышает эффективность усвоения материала.

Короче. Имеющаяся технология уже экономит время и мыслетопливо, работая как хороший ассистент. Брюзжание по поводу использования chatGPT мне живо напоминает уже всеми забытое брюзжание, по поводу может ли настоящий специалист гуглить или нет. Помните, было такое? Даже доводы похожи.

Работаю в R&D отделе занимающемся ИИ. Инвесторы готовы вливать бесконечно много денег в это говно которое никогда не взлетит по моему мнению. Так как как все мечтают уволить работников заменив ИИ и грести бабло лопатой.

А я хочу новый дом и хорошее образование для детей оплатить. Так что ИИ точно делает мою жизнь лучше)

Пишу регулярки!

Ещё bash скрипты время от времени и SQL.

Изучаю новые приемы программирвоания, т.к. llm может использовать указанные приемы а потом пояснить в деталях как тот или иной участок кода работает, если сразу не понятно.

Иногда man к некоторым утилитам написан неконкретно и не имеет примеров, llm очень помогают, т.к. знают примеры и могут их привести и прокомментировать.

Я использую только локальные модели, например deep-seek-coder-v2:236b

Для меня llm бесполезны. Вот прям вообще: для изучения яп и фреймворков есть нормальные документации, автодополнение кода сомнительно, т. к. лишает меня шанса получить опыт, а я ещё даже не мидл. Как поисковик не использую - мне вручную быстрее и не приходится проверять каждое слово нейронки.

Из повседневности, ИИ я пытаюсь в виде ансамблей прикручивать к играм, надеясь создать сильных ботов. И даже в этом случае, это обычные деревья, я честно не понимаю, зачем в разработку игр пихать многослойные перцептроны, без rl с хитрой метрикой они не являются чем-то по настоящему крутым.

Практика показывает, что "Мы внедрили ИИ для решения задачи" в подавляющем большинстве случаев равносильно "Наши программисты настолько тупы, что не смогли реализовать даже классический алгоритм, описанный в учебниках".

В целом, можно было бы кое-как использовать этот современный "ИИ", но его галлюцинации и вранье просто-напросто хоронят всю идею. И если для какого-нибудь StableDiffusion такие глюки наоборот - благо и позволяют творить удивительное, то для тех же ботов техподдержки - это безумие. Особенно, когда кроме этих ботов живых людей просто не оставляют.

Все диалоги с ChatGPT (не требующие однозначного краткого ответа) - это какие-то тонны воды, которые просто больно читать. По сути, к таким ответам нужен второй ИИ, который их еще сильнее ужмет до чего-то вменяемого.

Генерация кода опять-таки вызывает много вопросов. Все, кто хвалится успешным применением, в итоге только доказывают, что технология не нужна специалистам. А не-специалисты просто-напросто не способны осознать, где именно в сгенерированном ошибки и когда (при каких условиях) они выстрелят. Поэтому для них эти "ИИ" - удобный инструмент. Ну, примерно, как гранатой гвозди забивать...

По сути, к таким ответам нужен второй ИИ, который их еще сильнее ужмет до чего-то вменяемого.

Не нужен, достаточно добавить в промпт (конкретного вопроса, в начале диалога, или вообще в настройках общие пожелания для всех чатов) указание отвечать сжато.

Сжатая "вода" всё ещё "вода". Очень часто чтобы получить от этих ИИ какой-нибудь полезный ответ, нужно дать им 80% этого ответа в контексте/запросе. И пока такой запрос составляешь, уже сам разберёшься.

"нужно дать им 80% этого ответа в контексте/запросе. И пока такой запрос составляешь, уже сам разберёшься"

На ровном месте экономить 20% времени на рутинной задаче (а примерно тское ощущение от прочтения комментариев специалистов)? Зачем отказываться? Способ, конечно, немного непривычный, да.

Все диалоги с ChatGPT (не требующие однозначного краткого ответа) - это какие-то тонны воды, которые просто больно читать. По сути, к таким ответам нужен второй ИИ, который их еще сильнее ужмет до чего-то вменяемого.

Это от неумения использовать. Выше вам ответили как от этого избавится. А я лишь добавлю, что проблема с языковыми моделями возникают тогда, когда пользователь забывает о том что по-сути модель не понимает "контекст". Не контекст диалога, а вообще в глобальном смысле "контекст"

Вот отличное объяснение от @APXEOLOG чуть выше в комментарии

Не существует в природе десятитомников "Мои 15 лет опыта в разработке ПО - обьяснение почему я пишу эту конкретную строчку кода именно так".

И когда это осознаешь, ChatGPT становится очень удобным инструментом и ты получаешь в 90% то что именно просишь от него. И видишь в том числе ответы, которые требуют проверки.

Техподдержка - вопрос любопытный. Да, сложные задачи нейросеть не решит, но на нижнем уровне огромная часть проблем решается перезапуском и правкой конфига, с чем нейросет вполне справляется.

Работал в техподдержке в компании несколько лет назад которая занимается шерингом павербанков, я сомневаюсь что LLM смогла бы отвечать на те агрессивнейшие(маты с угрозами написать в суд, прокуратуру и т.п) сообщения пользователей и их невнятные объяснения в чём заключается проблема и требования решить их проблему максимально быстро и без их участия.
Это моё личное мнение, но пока не вижу и не видел замены целого тех.отдела на генеративный AI и думаю не будет, люди понимают +- друг друга по контексту и также немаловажно играет эмпатия и индивидуальное решение проблем конкректно у некоторой группы пользователей с нестандартными проблемами, если людям будет отвечать бот с "мёртвыми" ответами то компания может попрощаться со своими клиентами и обанкротиться под хохот конкурентов которые всю их аудиторию себе забрали.

Во - первых, качество техподдержки первой линии влияет на конкурентоспособность только в b2b. Массовому потребителю плевать т.к. он с ней вероятней всего вообще не столкнётся. И да, нейронка вполне может понимать смысл матерных тирад, притворяться понимающим человеком и т.д. Это вот с логикой и решением прикладных задач у них сложности. Так что нужно просто взять нейронку вроде Claude 3.5 с огромным окном контекста, написать ей подробнейшую инструкцию, запретить придумавать технические решения (если нет способа решить задачу в книге - перекидай на человека).

Во - вторых, зачем заменять весь отдел тп на нейронку? Всегда будут нестандартные ситуации, которые не запрограмируешь. А вот бОльшую часть отдела заменить можно.

я сомневаюсь что LLM смогла бы отвечать на те агрессивнейшие(маты с угрозами написать в суд, прокуратуру и т.п) сообщения пользователей

А вот тут вы ошибаетесь. Ради эксперимента попробуйте взять любой текст и попросите добавить толковую llm туда по очереди: сарказм, пассивую агрессию, маниакальную настойчивость, нежность и теплоту, печаль, маланхолию и т.д. а поптом попросите их оттуда убрать. Вы удивитесь насколько хорошо модель может просто взять и вычесть, например агрессию из текста не затронув его смысловой части.

Может быть на такие запросы и должна отвечать llm или хотя бы обрабатывать их не пропуская негативные эмоции к человеку.

Видимо, себя вы считаете умнее тех «тупых» программистов, которые «не смогли реализовать даже классический алгоритм, описанный в учебниках»? Будьте любезны реализовать, скажем, процессор спутниковой интерферометрии для обработки радарных снимков - все описано в учебниках (с разнообразными ошибками, и на практике, зачастую, не применимо, но ведь описано же). Или же вы даже не способны понять, что делают те «тупые» программисты? Тогда вам, увы, нейросети не помогут.

Ну я же не говорю, что всё надо писать исключительно на классических алгоритмах. Но когда компания радостно объявляет, что она внедрила ИИ в датчик температуры процессора - это что? Это ж обман, тут даже специалистом по процессорам быть не надо, чтобы это понять. И таких историй сейчас - воз и маленькая тележка.

При этом есть огромный воз задач, для которых текущие нейросети - must have, но ими вообще никто публично не занимается (а если что-то и есть - то только правительствам за отдельные бабки).

Например, поиск по локальным фото по запросу - чтобы найти человека нужного пола, стоящего в определенной позе и/или одетого в определенную одежду в заданное время года. И речь не об одной фоточке, а когда у вас их уже накопилось, буквально, миллионы.

Например, у меня есть куча видео с известными мне актерами/актриссами/певцами. В смысле - по некоторым я знаю точно, по другим - я знаю, что они там есть, но в какой именно части видео - не знаю, а по некоторым я у меня есть варианты, но окончательно определиться я не могу. Потому что мейкап очень сильно меняет лица. И хотелось бы иметь инструмент для поиска во всех моих локальных видео заданного актера ХХХ. Или автопометку всех моментов смены сцен любого видео в видеоплеере. Чтобы не листать вручную, а сразу видеть где сцена резко изменилась. А еще идеально к автопомеченным сценам и аннотации прикрутить: список актеров, краткое описание того, что там происходит...

Да куча еще всякого. Но ничего же нет! Есть бесконечные бредо-водо-генераторы на основе ChatGPT и всё.

Надеюсь эта статья написана ChatGPT

А может, вы просто обеспечите конкурентоспособность, вычистив весь навоз?

Это должно быть написано на мотивационных постерах в кабинетах Си-грейдов вместо булшита про успешный успех.

Написано эмоционально, но в целом критика объективная. Не рассмотрен другой важный момент. Который, собственно, и создаёт предпосылки для появления очередных технологических хайпов.

Почему ситуация с новыми идеями всё чаще превращается в рынок с соотношением "трудяги" vs "мошенники" примерно 1% к 99%?

Как мне кажется, причина в явно нездоровом перекосе рынка в сторону венчурного капитала. Когда в любую новую идею сначала толпой с огромными средствами идут проходимцы, уже успевшие создать себе реноме "уважаемых инноваторов", а именно венчурные махинаторы. Именно их рекламными усилиями тема и её "модность" сначала раздуваются до неприличного размера, подтасовывается значимость на самом раннем этапе с помощью фиктивных результатов, нанимаются через конкурс (!) тысячи не сильно принципиальных "фаундеров", с любой околохайповой фигнёй в портфеле, а потом умело создается конвейер "успешного успеха" с этой новой темой. В то время, как реально работающие в этой теме специалисты остаются в тени и без денег. И действительные достижения могут остаться незамеченными и не профинансированными. Второй побочный эффект: бизнес тоже хочет быть "в тренде" и начинает нанимать людей, усилия которых дадут вероятнее всего никакой выхлоп, из-за чего возможно и неплохая технология получает клеймо "пустышки".

Как результат, тема не получает реального финансирования и вырождается в очередной "блокчейн для всего". Ну или всё же с большой задержкой начинает приносить именно ту небольшую пользу, которую от неё и ждали.

Проблема не в ИИ, проблема в сложившейся порочной модели финансирования.

Очень жаль, что для переводов нет обязательства указывать ссылку на источник.

Тем не менее, здесь она указана.
Тем не менее, здесь она указана.

34% компаний сообщают, что генеративный ИИ помогал им конкретно в принятии стратегических решений? Да что вы такое несёте?

Автор перегнул палку.

Просто в 34% компаний руководство смогло найти среди нагенерированных решений действительно хорошие.

Т.е. генеративный ИИ конкретно помогал с генерацией, а дальше руководство смогло отфильтровать хорошие решения.

генеративный ИИ конкретно помогал с генерацией, а дальше руководство смогло отфильтровать хорошие решения.

Вы не поняли шутки. Сейчас многие организации ввели дополнительные поощрения за использование ИИ. Наполняя отчеты ремарками, дескать все успешные успехи благодаря ИИ, руководители рассчитывают получить доступ к новым бюджетам. Пока это были лишь единичные случаи, то они воспринимались как диковинные инновации. Но теперь все это приобрело массовый характер и смотреть на такие показатели без сарказма уже невозможно.

У автора не шутка, а искажение.

я вполне могу представить ситуацию, что бОльшую часть решений руководство принимает самостоятельно. А в трудных случаях прибегает к помощи ИИ. Допустим, что нагенерированные с помощью ИИ стратегии в 9 случаях из 10 являются бредом или ничего нового не привносят. И только в одном случае из 10 ИИ порождает полезную стратегию.

Для меня это вполне укладывается в рамки помощи при принятии стратегических решений.

Вот если бы 34% компаний заявили, что они успешны, т.к. полностью следуют рекомендациям ИИ - вот на это я бы смотрел скептически. А так (для меня) картина вполне реальна. Она не бредовая. Бредовое восприятие у автора.

Для меня это показатель того, что автор не пытается разобраться как на самом деле, а занимается тем, что фильтрует картину мира. Что укладывается в его точку зрения - то принимает. Остальное эмоционально отвергает: "Да что вы несёте? Это же бред!"

Потому, что будь это правдой, то рост в более чем трети рынка нельзя было бы не заметить. Это будет сразу видно на макро показателях, таких как ВВП.

Права в том, что большим корпорациям нужны данные. Весь доступный интернет уже давно спаршен, а чтобы двигаться дальше нужна свежая кровь. Мифы про успешные успехи конкурентов в использовании ИИ, активно выбрасываемые в сеть, подстегивают весь остальной бизнес подключаться к мутным сервисам и сливать под разными предлогами то, что у них лежит в закромах. Пока это работает как самоисполняющееся пророчество, поэтому деваться им в принципе не куда. Ситуация сильно напоминает тапание хомяка, в надежде что из этого что-то вдруг выпадет. Только на уровне бизнесов.

Потому, что будь это правдой, то рост в более чем трети рынка нельзя было бы не заметить.

Вы правда не видите разницы между: "ИИ нам помогает принимать стратегические решения" и "помощь ИИ в принятии стратегических решений должна обеспечивать заметный рост компании"?

Выбор верной стратегии - это залог (взрывного?) роста?

Правда. Если снаружи нет видимого эффекта, то это ни чем не лучше использования в стратегическом планировании жёлтых утят, стеклянных шаров или гомеопатии. Обычный корпоративный bullshit для демонстрации бурной деятельности с целью выпрашивания у инвесторов больше денег (полезное занятие).

Давайте отделим мух от котлет.

Результат опроса про 34% компаний, которым ИИ помог при принятии решений - это вполне реальная картина.

Восприятие инвесторов, что эти 34% компаний в недавнее время бурно росли по озвученной причине - это бред. Если автор воспринимает мир как инвесторы, то что является бредом: восприятие автора статьи или результат опроса?

Возвращаюсь к изначальному тезису: (с моей точки зрения) автор перегнул палку, когда объявил результаты опроса бредом.

Современный текстовый ИИ работает по принципу преподавателя с военной кафедры: "...запишите: вода в двигателе закипает при 90 градусах цельсия // При ста градусах, т-щ подполковник! // А, ч-черт, опять с прямым углом перепутал...". Практические примеры:

Просим LLM показать кусок кода который оценивает что приложение на Java испытывает чрезмерную нагрузку на память. В целом решение верное - посмотреть сколько памяти из доступной JVM мы уже заняли, а также на то, сколько времени мы тратим на GC - однако понеже сумнясь, AI складывает байты памяти и миллисекунды GC. Ну а чо ? Они же оба long...

Просим LLM составить план диагностики некой несложной схемы. Один из пунктов предполагает проверку исправности конденсатора: конденсатор должен проводить ток в одном направлении, и не должен в обратном (для тех кто забыл школьный курс - напомню что так ведет себя диод, а не емкость).

Почему при этом считается что дать ИИ сгененировать код, а потом его вычитывать - проще чем изначально писать - не знаю. Обычно живые программисты говорят наоборот: тут проще все выкинуть и заново написать, чем разбираться...

В сухом итоге, на текущий момент ИИ пригоден для трех вещей:

  • Как продвинутый поисковик с пониманием контекста. Особенно с учетом того, что традиционные поисковики обильно загажены платной и seo-рекламой в выдаче.

  • Как средство работы с текстом (уже упомянутые - сжать/разжать, определить/сменить стиль, и т.д.)

  • Как средство автоматизировать некий идиотизм, который при здоровом состоянии человека и общества вообще не должен существовать. Так, например, если Вася мудак, и его надо послать в жопу - но в силу абсурдных корпоративных правил именно так ему сказать нельзя - то ИИ отлично справится с ритуальным действием перевода короткой но емкой фразы на обтекаемый язык корпоративных формул. Или - по SLA вы обязаны ответить клиенту в течение 5 минут, даже если понятия не имеете что ответить. ИИ отлично генерирует бессмысленные вопросы и уточнения, которые создают у второй стороны видимость диалога и выполнения SLA... В общем, если некая деятельность не имеет для вас реального смысла, и вы не хотите ей заниматься, и вас в целом не волнует результат - LLM отлично подходит чтобы заменить ей живого человека.

Просим LLM составить план диагностики некой несложной схемы. Один из пунктов предполагает проверку исправности конденсатора: конденсатор должен проводить ток в одном направлении, и не должен в обратном (для тех кто забыл школьный курс - напомню что так ведет себя диод, а не емкость

А конденсатор какой был? Если электролит то таки можно таким образом проверить,они только в одном направлении пропускают ток

Если мы сейчас не будем углубляться в дебри токов утечки, то конденсатор не проводит постоянный ток ни в одном из направлений. То что у электролитических конденсаторов есть полярность - означает что при противоположном включении они работают плохо и недолго. Если мне не изменяет память, при неправильном включении - лавинообразно увеличивается ток утечки, поднимается температура внутри (что еще увеличивает ток утечки), электролит кипит/возгоняется - раздается громкий хлопок, после чего все вокруг покрывается остатками электролита/станиоли/стекловолокна/бумаги - уж чего там в нем внутри было... Примерно аналогичный эффект дает и превышение напряжения на выводах. С некоторой натяжкой можно сказать что в обратном направлении он не проводит ток - но это какая-то очень одноразовая функция... :-)

В нашем случае, конденсатор был пленочный высоковольтный, неполярный.

если некая деятельность не имеет для вас реального смысла, и вы не
хотите ей заниматься, и вас в целом не волнует результат - LLM отлично
подходит чтобы заменить ей живого человека.

И это отлично видно по широкому применению LLM в первой линии служб поддержки популярных сервисов :)

И даже там его функция заключается в том, чтобы максимально отдалить момент, когда для решения вопроса придется подключать живого оператора ))

В первую очередь - отсеять тех, кто не готов ждать человека :)

Почему при этом считается что дать ИИ сгененировать код, а потом его вычитывать - проще чем изначально писать - не знаю. Обычно живые программисты говорят наоборот: тут проще все выкинуть и заново написать, чем разбираться...

LLM - идеальный инструмент для гугл-разработчиков, скопипастил предложенный код, не разбираясь в нем, и побежал дальше. Плюс избавляет от необходимости анализировать и оценивать несколько предлагаемых традиционным поисковым движком вариантов, выбирая наилучший.
Совсем кратко говоря - LLM для тех кому некогда думать ))

Это прямой путь к нерабочему результату, в котором разбираться будет сложнее чем переписать

Пока качество генерации кода на столько низкое, что использовать его лучше чтобы делать то что ты сам прекрасно понимаешь как, так проще составить запрос, используя принцип - 'вопрос должен содержать половину ответа', и главное тебе проще это будет валидировать. Времени на это будет потрачено в результате значительно меньше, чем на самостоятельную работу.

Помимо генерации есть более интересное использование, чем я периодически пользуюсь, нейронке можно дать готовый код, и задавать по нему вопросы, начиная от комментирования его до есть ли в данном коде такой функционал или где и как нужно что изменить. Сhatgpt/claude часто получается исправлять ошибки, которые качественно описаны, и тут времени тратится значительно меньше (да не всегда оно может найти ошибку, но когда находит, очень часто в точку)

Из текста видно, что автор имеет глубокое недовольство и критикует несколько аспектов связанных с использованием искусственного интеллекта (ИИ):

  1. Хайп и мошенничество: Автор начал свою карьеру в области данных и ИИ, но быстро столкнулся с распространенным мошенничеством и хайпом. Он утверждает, что многие руководители и компании не глубоко разбираются в ИИ, но активно обсуждают его внедрение без реального понимания или подготовки.

  2. Отсутствие реального применения: Большинство проектов ИИ, по мнению автора, лишены практической ценности и созданы для личного обогащения и продвижения карьеры тех, кто вовлечен в них.

  3. Культурные и организационные аспекты: Автор выражает сомнения в способности компаний успешно внедрять сложные технологии ИИ из-за отсутствия соответствующей культуры и квалификации сотрудников. Он подчеркивает риск потери денег и нарушения законодательства при неправильном внедрении ИИ.

  4. Разочарование в современном обществе: Автор также выражает разочарование в широком использовании технологий ИИ без должного понимания и контроля над их применением, что может привести к серьезным последствиям для общества и личной приватности.

Итак, автор стремится к реалистичному подходу к использованию ИИ, подчеркивает важность этического взаимодействия и осуждает недостаток профессионализма и ответственности среди тех, кто вовлечен в сферу ИИ.

Простите, а какая именно версия GPT написала этот комментарий?

молодой протагонист Вульфгар

Безотносительно содержимого статьи - Вульфгар не протагонист. :) Бессменным главным героем в этой книжной серии является тёмный эльф Дзирт До'Урден. Вульфгар один из его спутников.

Ну так естественные нейронные сети умеют галлюцинировать ничуть не хуже искусственных. При этом искусственной сети хотя бы можно указать на ошибку, и она примет её к сведению, попытавшись исправиться.

Тогда как с естественными межушными нейронками это срабатывает далеко не всегда. Они бывают настолько уверены в собственных галлюцинациях, что их никаким объёмом фактического материала не переубедить - так и будут стоять на своём вопреки любой логике и здравому смыслу.

Тогда как с естественными межушными нейронками это срабатывает далеко не всегда. Они бывают настолько уверены в собственных галлюцинациях, что их никаким объёмом фактического материала не переубедить - так и будут стоять на своём вопреки любой логике и здравому смыслу.

Зато искусственные сети нельзя заподозрить в наличии принципов, что нередко спасает сети естественные :)

Ну так естественные нейронные сети умеют галлюцинировать ничуть не хуже искусственных.

Не смотря на то, что эти явления называют одним словом, это сильно разные явления. У человека в нормальном состоянии они не возникают. Для ГПТ я даже не понимаю как можно применить этот термин. Чем они отличаются от не галлюцинаций?

При этом искусственной сети хотя бы можно указать на ошибку, и она примет её к сведению, попытавшись исправиться.

Она с таким же успехом и правильный результат будет пытаться исправлять. Она ведь не может самостоятельно проверить правильность своего ответа.

У человека в нормальном состоянии они не возникают.

Это вы про студентов на экзамене, которые не выучили тему билета? Ну да, вряд-ли такое состояние можно назвать нормальным, но сочиняют они как нейронки.

Вот именно, что сочиняют, а не галлюцинируют. Это разные вещи. Собственно, в этом и зключается функция ГПТ - сочинять.

Ну а так у студентов на экзамене состояние действительно не всегда нормальное. Особенно после жёсткого недосыпа и непрерывной зубрёжки.

LLM играют в ассоциации, формируя ответ из близких в чем-то вещей. Они могут как концентрироваться на одной теме, так и растекаться мыслями по воде - количество бреда регулируется промптами и параметром "температура". В результате получаются некие понятийные химеры. Называть таких химер знаниями, галлюцинациями или искусством - зависит от интерпретации.

Люди, в отличие от нейронок, обычно фильтруют свои мысли в соответствии с принятыми в обществе социальными и культурными установками, не произнося в слух всего того, что приходит на ум - мы это называем нормальным.

LLM честно выкладывают все как надуху, напоминая в этом плане сумасшедших или пьяных, у которых "что на уме то и на языке". В конце концов это технология, а не специализированный продукт под конкретную аудиторию. Хотя продукты, теперь тоже появились.

Шумиха про ИИ, конечно надоела, но сама технология уже много лет приносит пользу и я рад что она развивается такими темпами, хоть и дудят со всех щелей.

Я бы сказал, основная проблема в том, что любая IT технология в период бурного развития даёт 99% шума-хайпа и только 1% того, что станет полезным. Это касается не только IT, а значительной части прогресса в целом, но в IT за счёт общих темпов это выражено значительно острее. Автор вспоминает ML/DS, но ML/DS десять лет назад были примерно таким же по шуму, а до этого были другие, включая компьютеры в целом.

Так что ещё 10 лет и мы сможем понять, что же реально выжило и стало полезным, а рядом будет что-то ещё хайповать.

"господа гусары МОЛЧАТЬ" (c)

Skill issue, как и у большинства комментаторов тут. Учитесь работать с нейронками.

Если бы автор не матерился, я бы подумал, что это James Mickens. Но хорошо, что остались ещё авторы хороших сатирических проездов. Они пользительны и прельстивы.

Любопытно, что автор статьи упоминает блокчейн, но не упоминает 3д-печать, как ещё один пример хайпа. Вообще-то это просто 3д-принтер, чтобы по-быстрому сломанную пластиковую штуку наладить, которую отдельно не продают. Но назови это - аддитивные технологии, и можно стричь бабло и сидеть в анатомическом кресле, рисуя презентации. Правда, при этом в 5 метрах от твоего кабинета будет течь слив в унитазе, но напечатать заменить сломанную пластиковую деталь из него на своих принтерах ты не сможешь - это стейкхолдерам не продать...

У себя на работе я их называю "Секта AI". Угадайте кто возглавляет секту? Правильно Сам Главный Босс! И в секту набежало сразу всё менедж.. ...но которое до этого было в секте блокчейна. А теперь ещё и принудительно втягивают "Ты не с нами???!!!". Присматриваю новую работу - мочить нельзя - полиция заругает.

Смысл статьи в том, что не стоит заниматься разработкой ИИ если это не ваш профиль? Так большинству компаний в принципе не стоит заниматься самостоятельной разработкой ПО, если это не какие-нибудь гиганты.

Ну ушел придурок из ИИ и теперь бесится. Сейчас мог бы на расхват быть но нахер никому не нужен и кидается гавном на хабре пытаясь отрицать очевидное.

А потом все умерли...

«Возможно, нам следует отнять у команды разработчиков привилегию удалённой рабо... ой, а куда это разбежались лучшие инженеры?»

Справедливости ради, во многих областях удаленка откровенно вредна

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории