Комментарии 78
Надо использовать с головой ИИ и все будет ок.
Давайте уж ещё раньше отмотаем: на момент появления письменности. Она тоже существует чисто на доверии: что каждый человек будет её символы интерпретировать одинаково, что "написано пером - не вырубишь топором" и т.д.
И тут вы правы.
До сих пор такой и остаеться, ничего новго не придумали))))
Письменность существует на том что в школе говорят что человеку нужна письменность, чтобы встроится в систему и быть её эффективным винтиком. Но на самом деле письменность внедрялась в интересах правителей, чтобы записать правила, указы, долги и заставить всех жить по этим писулькам.
С другими технологиями так же. Интернет вообще создавался для вояк, потом был период романтического анархизма, а теперь всем понятно что АйТи опять помогает осуществлять контроль и надзор и жизнь не стала "легче и счастливее" от внедрения всех этих онлайн маркетплейсов.
и жизнь не стала "легче и счастливее" от внедрения всех этих онлайн маркетплейсов.
Не соглашусь, очень даже стала легче и счастливее. Я уже забыл когда в последний раз в хозмаг ходил. И в канцтовары. И шмотки всякие проходные, типа носков и трусов. И в автомагазины за запчастями. И за подарками на новый год для близких. Даже еду (не всякую) там можно купить. И все это умещается в паре комнат, где одна из них склад, вторая - зона выдачи товара. При этом ассортимент такой, что АШАНы со всякими Мётрами и их магазинами в квадратные километры просто курят в сторонке. При этом нет 10 касс и одного кассира, толп очередей. МП об этом прекрасно осведомлены и получают очень нехилую прибыль со всего этого, но мне то что, пусть получают.
А инет создавался для вояк попросту потому, что воякам нужна была эта сеть. И ученым во вторую очередь. И у них была куча денег. Без вояк он бы тоже рано или поздно возник, но как получилось так получилось. Не будь там вояк и ученых, мы бы сейчас возможно бы в каждой стране ковырялись в собственной песочнице а-ля Minitel
очень даже стала легче и счастливее.
Это на первый взгляд. А так у человека, к сожалению, безграничные потребности и способности к привыканию. Получив что-то хорошее -- это считается уже серой нормой и нужно что-то ещё и ещё. От изучения Мир не стал понятнее, он стал сложнее и запутаннее.
В первую очередь письменность ( и счёт)появились для фискальных целей.
Слова и буквы это инструмент фиксации информации, а не генерации. Так что увы, доверие к ней абсолютно другое
Сократ кстати был против письменности) Он считал, что она убивает память и создает иллюзию знания
И в чем-то он был прав: мы теперь гуглим, а не запоминаем. LLM - следующий виток: мы теперь и не пишем, и не читаем, а генерируем и сумаризируем..
Просто людям не говорят, что текст это всего лишь интерпретация знания или переживания человека который когда-то жил, а потом умер. Знание лишь подражает опыту.
Т.е вроде бы понятно, что истинный и "первоначальный" опыт - останется его опытом сотканный из его переживаний который перешёл в "знание" и сохранился по счастливому стечению обстоятельств.
Затем из этого знания следует твой опыт, но он не такой как у него, мало чем будет похож, потому что ты современный человек, да и вообще просто не он. Большинство даже не знают, что опыт можно осозновать и контролировать, осмысливать его по разному. Все стараются быть стандартизированной функцией в угоду продуктивности, и это особенно про ИИ.
Т.е. когда я вычисляю 2х2 на калькуляторе, то ответ на самом деле не 4, а страх и симпатия? Я вас правильно понял?
Скорее: "я верю в то, что вычисления, которые проводит калькулятор всегда верные", но они касаются арифметики
А что если калькулятор предложит что-то поинтереснее?
при программировании под ios/macos синусы и косинусы могут вылазить за пределы допустимого интервала. Вот только причем здесь философия?
А если калькулятор инженерный (с синвсами, косинусами и вещественными числами) или, не дай бог, вообще прогиаммируемый? Там же гарантированно будет неточный результат в некоторых случаях (например, поделить 1 на 3, погрешность не обязательно велика, но все же ответ будет заметно отличаться от точного).
Именно, всегда должно быть понимание, что даже калькулятор, даже при расчете 2+2, может ошибиться.
О, новая религия подъехала)
А ведь к тому и придёт!
Аргументы в статье интересные и верные, но вывод про "аферу на триллион" абсолютно некорректный. Вас кинуло в другую крайность.
Да, маркетологи и СЕО от ИИ распространяют много мифов, да wow-эффект создал завышенные ожидания. Но, тем не менее это достаточно мощный инструмент, который позволяет значительно упрощать многие процессы, если его грамотно использовать.
И это вообще никаким боком не афера, а нормальный процесс развития технологии со своими взлётами и падениями.
В целом согласен, но наличие прорывной технологии, еще не исключает факт аферы и надвигающегося кризиса, про .com надеюсь еще никто не забыл.
Кризис - это нормальный этап развития. Вся экономика идёт циклами. И рынок доткомов также отыграл своё падение в полной мере. Объем рынка полностью возобновился и продолжил свой рост. Просто ушли слабые.
С ИИ, в отличие от доткомов, ситуация более оптимистична. Так как их оценка построена не только на ожиданиях. У них уже есть реальные доходы.
Падение наверное всё-таки будет, но предположу, что гораздо мягче, чем с доткомами.
Всё же у LLM, помимо реальных доходов, есть абсолютно нереальные убытки. Если брать именно производителей самих моделей, а не тех, кто ими пользуется.
А я предположу, что гораздо жестче. Фактически индустрия сейчас построена на том, чтобы купить побольше H200, собрать побольше данных и обучить модель помощнее. И все из-за механизма внимания в трансформерных нейросетях.
Но что, если не будет внимания? Допустим, изобретут какую-нибудь новую по-настоящему эффективную архитектуру, которая превратит эти инвестиции в пыль?
Тогда на это железо переведут пользовательский компьют (облачный гейминг, облачный рендеринг, облачные расчеты). Они и так одной ногой там - останется только либо убрать соответствующие фичи из десктопного софта, либо ограничить наличие этого железа у пользователей. Учитывая, что NVIDIA бесконечно выгоднее продавать железо b2b, а не юзерам - тех тоже долго раскручивать не надо будет.
изобретут какую-нибудь новую по-настоящему эффективную архитектуру
Надо посмотреть под ковриками и в дальних ящиках, может, она уже изобретена.
Да, риски колоссальные. Эта гонка - достаточно захватывающее зрелище. )))
И какие-то компании рискуют зафиксировать большые убытки. Но, рынок будет двигаться дальше. )
Доходы всех ИИ компаний капля в море по сравнению с расходами - они жгут деньги инвесторов как инквизиция ведьм.
Как будто бы страх вокруг ллм нагнетают журналисты и прочие блогеры, а не корпорации.
Из текста не очевидно, афера длится или доверие длится 300 лет.
В любом случае утверждение байтящее и сомнительное - и арифмометрам и компьютерам ещё как не доверяли, а llm довольно быстро показала, что относится к нечетким методам.
Что касается страхов и надежд - то тут сошлось много факторов.
Во первых есть ИИ а есть - ИИ.
То есть есть то, что сейчас называют ИИ - llm, распознавание и генерация голоса и изображений, специализированные автоматические системы и прочие чудеса машинного обучения. С ними связаны одна группа рисков и много хайпа.
А есть потенциальный ИИ. Это может быть сильный ИИ, это может быть просто достаточно мощный AGI. И его возможности потенциально могут быть непропорционально велики.
Соответственно его использование может принести как невиданные блага так и неопределенные, но глобальные риски.
Для символистов нет разделения на ИИ, AGI или ASI - есть просто термин ИИ, который по определению подразумевает систему, обладающую субъектностью, логическим выводом и способностью оперировать смыслами.
Все эти "новые" термины (вроде AGI) возникли только потому, что современные методы (LLM) на самом деле ИИ не являются. Это статистические калькуляторы, которые имитируют результат интеллектуальной деятельности, не обладая самим механизмом мышления
Ну, к сожалению термины не так просто работают, они же не вещь в себе.
У символистов нет на них монополии.
Если их активно используют в других значениях (а их используют для любой интеллектуальной деятельности под руководством компьютера со времен компьютерных игр), то неопределенность возникает независимо от того, хотим ли мы это или нет.
Поэтому стоит уточнять.
Понятно что отдельная шутка в том, что они General просто потому, что довольно много специализированных задач решается современными ИИ очень хорошо.
Безусловно текущие LLM - это статистические попугаи, но вопрос в том, знаем ли мы, из чего состоит "полноценный" ИИ и являются ли LLM путем к нему. Ну или другие варианты, например мультимодульные, LLM попрекают работой только в текстовом пространстве.
Сделать их агентными можно и сейчас, над памятью, контекстом и дообучением уже работают.
Это может быть просто вопросом архитектуры.
Мы тоже может статистические попугаи
Вечный холивар - коннекционисты vs символисты - чьи термины "правильней" и лучше отражают реальность
Вы не можете сделать LLM агентными, так как ядро не является агентом. А у КСС ядро само по себе агент. Я даже уже для себя такое придумал: в КСС - "король выбирает себе свиту", а у LLM - "свита делает короля"
Всмвсле может?)
"новые" термины (вроде AGI) возникли только потому, что современные методы (LLM) на самом деле ИИ не являются
Ну или наоборот, LLM настолько убедительно закрыли все определения AI, существовашие на тот момент, что пришлось придумать новый термин - AGI.
Кстати, не знаком с символистами. Можете привести ссылку на определение "термин ИИ, который по определению подразумевает систему, обладающую субъектностью, логическим выводом и способностью оперировать смыслами" не новее 2022 года?
Читаем официальную документацию таких систем как Soar, ACT-R и т.д.
А так, я сегодня потрудился и посмотрел в исторические документы и... в период 1956–1990 годов терминология была несравнимо более строгой и единой, чем в 2026 году. Путаницы в базовых понятиях, что такое "агент", "знания", "вывод", практически не существовало, так как оба лагеря (коннеционисты и симолисты) опирались на общую математическую и философскую базу.
Красиво ушли от ответа. То есть я правильно понял, что "термин ИИ, который по определению подразумевает систему, обладающую субъектностью, логическим выводом и способностью оперировать смыслами" вы сами же и придумали
Коллега, чтобы Вы не думали, что я фантазирую, вот Вам матчасть. Понятие субъектности и оперирования смыслами - это не мои мысли, это Тьюринговская лекция Ньюэлла и Саймона (1976), PRS-архитектура Джорджеффа (1987) и другие работы (отсортировал по годам):
"Programs with Common Sense" (McCarthy, J., 1959);
"Computer Science as Empirical Inquiry: Symbols and Search" (Newell, A., & Simon, H. A., 1976);
"Reactive Reasoning and Planning" (Georgeff, M. P., & Lansky, A. L., 1987);
"Intelligent Agents: Theory and Practice" (Wooldridge, M., & Jennings, N. R., 1994-1995)
Лично для меня, произошла дикая, почти тотальная подмена понятий: мы называем интеллектом "статистическое эхо", а "агентами" - простые программные циклы, напрочь забыв о том, что эти термины имели под собой строгую инженерную и философскую базу.
статистические калькуляторы, которые имитируют результат интеллектуальной деятельности, не обладая самим механизмом мышления
Привет от китайской комнаты. Парадокс, который решается тремя способами: либо мы признаём существование души, дающей Истинный Разум (с придыханием); либо отказываем в интеллекте собственно человекам, поскольку в каждой конкретной башке сидят нейроны, имитирующие результат интеллектуальной деятельности - и у некоторых вполне убедительно; либо мы признаём, что LLM принципиально не отличается.
либо мы признаём, что LLM принципиально не отличается.
Какчественно — не отличается, а вот количественно...
либо мы признаём существование души, дающей Истинный Разум (с придыханием);
А зачем сразу так серьезно? Можно же допустить, что мы не знаем что-то существенное в физике и поэтому пока не понимаем, как работает человеческий интеллект. Или такая точка зрения - сразу мракобесие?
Допустить можем, но это не конструктивная позиция.
Если оно выглядит, как утка, плавает, как утка и крякает, как утка, оно может быть утковидным пришельцем с другого плана бытия. Но, намного вероятнее, оно - утка.
Психологи (научные) и нейрофизиологи давно выдёргивают кусочки мозаики, из которых более-менее уверенно картинка устройства мышления складывается. ИИ-фобы и некоторые философы отчего-то эти кусочки игнорируют, опираясь исключительно на личные плохо вербализуемые ощущения. Так тоже можно, но ценность этих мнений для других - нулевая.
Блез Паскаль разработал машину улучшенной конструкции, чтобы помочь справляться с огромным количеством утомительных арифметических расчётов, необходимых в его работе сборщика налогов.
Небольшая поправочка: сборщиком налогов Блез Паскаль не был. Был его отец, Этьен Паскаль, и не простым сборщиком налогов, а целым главой налоговой управы (но считать ему приходилось много, факт). Собственно, наблюдения за монотонной работой отца и сподвигли Блеза на создание устройства для механизации примитивных расчётов.
Да, потом по тексту всё верно, но в начале статьи некорректная информация.
Да и дальше неверно. Человек вообще ничего не понимает в механических калькуляторах. Калькулятор Паскаля был довольно ненадёжен, и можно было его заставить выдать неверный результат едва ли не топая рядом ногами. Шикард сделал свою машину "по фану", о чём писал другу Кеплеру. А самое главное -- это были штучные изделия, которые никого не заинтересовали, а ведь Паскаль, на минуточку, демонстрировал своё изобретение Людовику XIV, но дальше восхищений дело не пошло. И машина Лейбница, куда более интересная, тоже оказалась изолированным проектом. И после Паскаля прошло более 200 лет, прежде чем появились первые коммерчески успешные калькуляторы. И с надёжностью у них было далеко не так гладко: посчитал, получил ответ, а теперь пересчитай ещё раз. Но это всё равно было ускорение ручного труда, которое и сделало их востребованными, но только после того, как удалось ускорить ввод и ещё внедрить самые разные улучшения. А без них проще считать на конторских счётах, что в России делали повсеместно чуть ли не до конца 80-х годов двадцатого века.
Раньше бабушка говорила что я умный и красивый, теперь LLM. Они все меня обманывали что-ли?
На самом деле, с момента появления механического калькулятора человечество четыреста лет вдалбливало себе одну мысль: ответ машины — это золотой стандарт точности. Если твой ответ не совпадает с калькулятором — переделывай.
Калькулятор выполняет понятные действия заложенным в него разработчиком и тоже понятным образом.
В отличие от...
Калькулятор выполняет понятные действия заложенным в него разработчиком и тоже понятным образом.
Ну, это как посмотреть...
Доверять нейросетям не надо, надо перепроверять. И дело даже не в галлюцинациях, а в том, что в обучающем материале полно ошибок, сделанных ранее людьми.
В 2026 году технология станет ещё лучше и сможет «заменить многие другие профессии». Революция стартапов здесь — адаптируйтесь к ИИ или отстанете и ИИ превзойдёт человеческий интеллект к 2030 году. Нам снова и снова повторяют: если не оседлаешь волну — тебя раздавит
Кому-то хочется быстро заработать, кто-то боится потерять уже нажитое. Это обычное дело в рыночной экономике. В IT c эпохи DOS люди грезят большими заработками и ищут способы заработать на чем-то новом, в то же время полно историй, когда компании разоряются, следовательно многие действительно могут потерять работу и доход. Поэтому нельзя сказать, что страхи не обоснованы, а проблема надумана.
Стоит отметить, что "вот это вот все" относится и к самой статье. (Может такое и называется рекурсией?)
На мой взгляд, все объясняется достаточно просто, причина деньги и еще раз деньги. Чем круче опишешь LLM, тем больше получишь капусты. Вот мысль, связанную со страхом нужно было подробнее описать. Некоторые в эту гонку включились исключительно не потому что, им действительно необходим ИИ, а потому что не хотят быть аутсайдерами.
Ну надо ж того слона продавать!
Очередной кликбейт собравший все мифы и легенды последних трех лет про ущербность ллм
Ллм це калькулятор + галлюцинации и человека с его творчествой жилкой и волею к правде никогда не заменит
LLM — это афера на доверии, которая длится 400 лет
Колесо в таком случае афера на 5000 лет, призванная отучить нас ходить пешком) Прогресс всегда строится на делегировании рутины механизмам. То что LLM иногда галлюцинируют, не делает их бесполезными, просто инструкцию читать надо: не использовать для критически важных задач без верификации
ну давайте так: "тут всю систему менять надо".
что толку что вы придумали новый тул, если использовать вы его будете для войны и наживы? по крайне мере сначала...
Ну хороший он или это просто реклама или плохой - сначала будет Хирошима а потом уже дешевое электричество.
так что ждемс...
вероятности, что технология каким-то образом восстанет и уничтожит нас. Разумеется, этого так и не произошло
Пример "ошибки выжившего". Такие статьи возможны только потому, что описанного не произошло. Ничто не свидетельствует о невозможности данного события. И даже так: с каждым "разумеется" вероятность растёт.
Недавно ит-аналитику в разговоре сказал "машина Тьюринга". В ответ "что это?" :) Не понимание основ рождает романтические заблуждения.
ML это программирование машины на примерах. Есть императивный метод, есть декларативный метод и вот еще есть метод на примерах.
Чтобы что-то хорошее получить, надо оценивать применимость метода, подбирать переменные, формулировать формально цель обучения, собирать презентативную сбалансированную базу более менее независимых и актуальных примеров. Годная база примеров вещь дорогая, поэтому надо тонко настраивать архитектуру модели, чтобы из минимума степеней свободы выжать максимум точности, подтвержденной на тестовых примерах (ошибка обобщения - слыхали о такой?). А потом еще модель надо мониторить и при необходимости переобучать. Вот это ML.

LLM — это афера на доверии, которая длится 400 лет