Как стать автором
Обновить

Комментарии 120

Современные модели ИИ ошибаются иначе. Их ошибки происходят, казалось бы, случайным образом, без какой-либо группировки вокруг определённой темы, они более равномерно распределены по разным областям знаний.

На прошлой неделе имел печальный опыт общения с ИИ. Сдал в одно из издательств уже готовую вёрстку книги. Но меня предупредили, что текст будет проверен ИИ. Мне стало интересно, тем более что текст проверялся и перепроверялся, а сам я программист и понимаю цену ИИ. Вот далеко неполный перечень присланных мне ошибок:

Я просто опешил, но присмотревшись понял что так называемый ИИ не понимает русской буквы ё/Ё, переносы воспринимает как ошибку в слове, а словарный запас беден. ИИ не знает слов импортозамещение, спецпроверки и много ещё другого. Человек, конечно, бы не допустил таких ошибок.

C издательством мы в итоге разобрались. Я думаю всё будет нормально и книга будет выпущена.

Так это пропущенная буква и есть буква ё/Ё. Так называемый ИИ её просто игнорирует и печатает слова без неё. Вот видите и вы попали в заблуждение. Вставьте вместо пропущенный буквы ё и все становится нормально.

Как и писал автор - там еще и переносы ИИ не понимает, т.е. это просто окончание какого-то слова.

Нет, текст я писал и набирал ручками, а вот его проверяли в издательстве с помощью ИИ...

То есть получается, сотрудники издательства после полученного ИИ-отчёта сами не присмотрелись к ошибкам? Вот это печально

Ну знаю, учитывают ли современные словари контекст. Я далек от этой темы. Предполагаю, что из-за адаптивность к контексту. Нейросети учитывают контекст предложения, что позволяет делать более точные исправления в зависимости от смысла.
К примеру: как правильно ничем или ни чем?

Простейший пример: "всЕ выпили" - "всЁ выпили"
И так, и так "по словарю" верно. А по смыслу?
Я уже молчу про варианты "налицо" / "на лицо", правописание "не" с любыми частями речи, кроме глаголов, пресловутые "-тся" и "ться" и прочее.

Поверьте, ИИ нужно очень серьёзно обучать, чтобы фразы вида "В небо поднялись три эсминца" он отсекал "по логике", а не "по грамматике"

Читал, что издательства (и учёные в научных трудах) почему-то не любят букву Ё и не принимают текст где он есть, или сами исправляют. В итоге ваша книга будет выпущена с ней или без неё?

НЛО прилетело и опубликовало эту надпись здесь

На линотипах буква ё отсутствовала, для экономии. Отсюда нелюбовь типографий тех лет к этой букве. Сейчас с технической точки зрения пофиг, проблема в головах.

Не очень то и пофиг, эта буква по традиции находится в самом идиотском месте на клавиатуре до нее тянутся - лень. А на телефоне ее вообще нет. Да и зачем нужна эта буква? Совсем недавно ее вообще не было, и ничего, все друг друга понимали. По контексту ты и так понимаешь "Е" это или "Ё". Вот я и не вижу смысла заниматься растяжкой мизинеца, мне проще е жмакнуть которая в легком доступе, от этого вообще ничего не поменяется.

На всех телефонах, что я видел, она есть. Скорее всего вы просто ее не видите, попробуйте удерживать клавишу с буквой "е".

По контексту "понятно"?! *фейспалм*

А как как вы прочитаете "Есицуне" без Ё и Э?

  • как Иэсицуньэ?

  • как Эсицунэ,

  • как Ёсицунё?

  • ваш вариант?

Совсем недавно ее вообще не было, и ничего, все друг друга понимали

Но, только вот в оригинале чЁрчиль, а не чЕрчиль, рЁнтген, а не рЕнтген, и рЁм, а не рЕм.

Но, только вот в оригинале чЁрчиль, а не чЕрчиль, рЁнтген, а не рЕнтген, и рЁм, а не рЕм.

А ещё в оригинале Watson, а получились доктор Ватсон и Эмма Уотсон.

Тогда уж tʃəːtʃɪl, да и немецкое ö, насколько я помню, далеко не идентично русскому ё. Говорим и пишем по-русски мы не в соответствии с оригиналом, которому всё равно, в силу лексических и фонетических отличий, не можем соответствовать, а в соотсветствии с исторически сложившимися языковыми традициями, как бы прихотливо они порой ни сложились. Так что Черчилль и Рентген. С японизмами, конечно, нехорошо получается (слушал недавно на ютубе историческую лекцию и каждый раз вздрагивал на слове "даймэ", а ещё, помню, игра "Сёгун" превращалась в устной речи в "Сигу́н" - наверное, с прыжками что-то, типа "Марио"). Но это месть японцам за Россию, которую они пишут как "Росиа", хотя им даже буков на оригинальный вариант хватает.

Но это месть японцам за Россию, которую они пишут как "Росиа", хотя им даже буков на оригинальный вариант хватает.

Ну мы тоже пишем "Япония", а не "Нихон", хотя буковок хватает :)

А как как вы прочитаете "Есицуне" без Ё и Э?

"Токио" и "Киото" же как-то прочитали. :D

Ъ на телефонах тоже "нет" - тоже не набираете?

Совсем недавно ее вообще не было

Она была даже больше времени, чем официально присутствует в алфавите, насколько я знаю. В СССР не было не только секса, но и этой буквы, хотя уже присутствовала в алфавите. После развала СССР эта буква теперь очень популярна, я её везде больше вижу, чем не вижу.

Её проблема всего лишь в том, что у нас стали популярны компьютеры Микрософт с нестандартной раскладкой, где Ё закинули так далеко. До этого у нас десятилетиями был стандарт такой раскладки:

Когда что-то случится, и правительство сделает наш стандарт обязательным и принудит производителей вернуть её, тогда проблема с Ё пропадёт.

По контексту ты и так понимаешь "Е" это или "Ё".

Карова. Ну ведь и так понятно, что имелось в виду, где ошибка-то?

Конечно, с буквой Ё. Любые сдачи позиций начинаются с небольших отступлений, сначало ё, потом й, а ...

Бред какой-то. Я согласен - в подавляющем большинстве случаев "ё" может быть заменена на "е". Но как быть со словами "нЕбо" и "нЁбо"? Или "всЕ" и " всЁ"? Да, конечно, при известном усилии и внимании это решаемо, но зачем перегружать мозг совершенно не нужными ему экзерцисами? Хотя бы в учебной и детской литературе букву "ё" убирать не надо. Испортить правописание легче лёгкого, а вот обратный процесс, увы, куда сложнее.

Вот классический пример: "Пьют все, абсолютно все". Сколько смыслов при использовании "е" и "ё" :)

Устная речь всегда отличается от письменной. Никого же не смущает то, что многие слова пишутся через О, а читаются как А. Давайте все словари перепечатаем с О на А. Ё еще не так давно была тоже всего лишь подобным отличием в устной и письменной речи, все друг друга понимали без нее.

Все или всё определяется по контексту, как и все подобные слова, у меня это на подкорке уже, я на эти 2 точки при чтении даже внимание не обращаю. Я думаю подобную "неоднозначность" могут только юристы абузить, в остальных случаях всем все понятно.

Или непонятно и ты в предыдущем предложении вместо всЁ всЕ прочитал?

Мое мнение, буква исключительно опциональная. Вот пусть себе в детских книжках, юр текстах и учебниках по русскому живет, в остальных случаях абсолютно бесполезная буква и нечего обвинять людей в неграмотности из-за такой мелочи.

У меня иное мнение. Со школы использую «Ё», набираю её без проблем. Кстати, до «+» или («=») тянуться ровно столько же, сколько до «Ё». А уж до Backspace вообще как до луны.

Все или всё определяется по контексту

Вам ведь привели пример:

Пьют все, абсолютно все

Давайте, определите по контексту.

Й или И ведь тоже можно определить по контексту, нет?

https://www.change.org/p/требуем-от-минпросвещения-рф-сделать-факультативным-употребление-дужки-над-й

А ещё, о ужас, одинаково пишутся слова замок и замок. И сколько же смыслов в фразе "Я купил замок".

Спасибо за интересный пример.

У меня получается 3 вида:
все, абсолютно все - утверждение о том, что все участники некой группы пьют;
всё, абсолютно всё - утверждение об употреблении всех возможных напитков;
все, абсолютно всё - ужас, Содом и Гоморра;
всё, абсолютно все - по смыслу идентично предыдущему.

Неожиданно припомнилось красивое старинное слово "окоём" (горизонт), которое без буквы "ё" теряет смысл.
Хорошая буква, давайте её беречь :)

Цель продать побольше микроскопов, и продажников забивание гвоздей устроит.

Если не секрет, можно узнать что за книга?) Мной движет только банальное любопытство, так что заранее извините)

НЛО прилетело и опубликовало эту надпись здесь

К ANI можно приравнять

Искусственный узкий интеллект (ANI), или узкий интеллект, - это название слабого ИИ. Узкий искусственный интеллект - это тип искусственного интеллекта, в котором алгоритм обучения создается для выполнения единственной функции. Любые знания, полученные в ходе этой деятельности, не будут применяться в других видах деятельности. Машины ANI настроены на работу в рамках определенного набора инструкций или области. Они могут выполнять только те функции и инструкции, которые им заранее запрограммированы. ANI не обладают интеллектом, способным мыслить нестандартно, как это сделал бы человек.
Artificial General Intelligence (AGI)
Искусственный интеллект общего назначения (AGI) - это гипотетический интеллектуальный агент, который может понять или научиться любой интеллектуальной задаче, которую может решить человек или другие животные. AGI также определяется как автономные системы, которые превосходят человеческие возможности при выполнении большинства экономически ценных работ. Целью системы AGI является выполнение любой задачи, на которую способен человек. AGI - это, по сути, гипотетический интеллект машин. ...

А ещё более того - появились уже рассуждающие нейросети, и все эти исследования уже устарели.

Или же кто-то уже встречал случаи, когда рассуждающая нейросеть допускает ошибки? Я не про компьютерный код.

Если вы под рассуждающей нейросетью понимаете DeepSeek, то - она способна рассуждать только в математических и подобных задачах. Стоит скормить ей что-то не то (например, попросить проанализировать спортивный матч) - и она начинает завираться в формулах не хуже гугловского калькулятора.

Я верю, что мне достаточно видеть на Хабре. И тут в комментах уже несколько раз было, что кто-то ругает нейросети, но его задачу решала "рассуждающая".

Я сам, мучая такую, пока ошибок не нашёл. Встречал, что есть проблемы с компьютерным кодом.

появились уже рассуждающие нейросети

Жду не дождусь, когда же наконец появятся рассуждающие комментаторы.

Почему нельзя? Можно. Всё зависит от определения, которого, внезапно, НЕТ.
Это как с богом. Кто-то утверждает что бог есть, кто-то, что бога нет, но при этом ни те ни те, не хотят дать четкого определения что такое бог.
Вот когда мы формализуем определение ИИ, тогда и можно говорить что там к чему можно приравнивать.
А вообще, текущий консенсус что то что сейчас есть это - AI, но не AGI.

Вообще говоря, сначала стоило-бы обговорить сам предмет спора (что есть бог), а затем уже обсуждать его наличие.

Ну как бы, бог это такая всемогущая сущность, которая дала человеку свободу выбора.

Вопрос "есть ли бог ?" не научен, так как провести эксперимент, опровергающий доказательство бога невозможно, так как любой эксперимент, опровергающий существование бога противоречит свободе выбора, и должен быть сфальсифицирован богом, который по определению всемогущ, следовательно, что в случае отсутствия, что в случае существования бога, результат всегда будет ложным.

AI это искусственный интеллект, любая более менее сложная программа, которая что либо анализирует. Stockfish это AI , chatgpt это AI , генераторы картинок это AI , распознавалка номеров на машинах в видеопотоке это AI .

Дальше есть разделение, stockfish и распознавалка номеров это ANI(Artificial Narrow Intelligence), те слабый искусственный интеллект, который способен выполнять одну задачу. Ghatgpt это уже почти AGI(Artificial General Intelligence), те интеллект общего назначения, который может в принципе всё(но пока очень плохо, поэтому и почти). Дальше есть ASI(Artificial Super Intelligence), тоже интеллект общего назначения, но уже превосходящий человека.

Я хз, где тут люди проблему находят, по моему и там и там терминология нормальная и определения вполне себе четкие

бог это такая всемогущая сущность

Что такое "всемогущая"? Может ли она создать камень, который сама поднять не сможет ? Или как вы определите бога без этого термина ?

AI это искусственный интеллект, любая более менее сложная программа, которая что либо анализирует. Stockfish это AI , chatgpt это AI , генераторы картинок это AI

Ну какой же это интеллект? Это преобразователь цифирок из одного массива в другой. Он кажется похожим на человеческие действия просто из-за своей вычислительной сложности - но если от неё отстраниться, то интеллекта в нем не больше, чем в CPU, который для многих людей тоже "думает"

Дальше есть ASI(Artificial Super Intelligence), тоже интеллект общего назначения, но уже превосходящий человека.

Что значит "превосходящий человека"? Как вы измерите это превосходство ? Нарисовать миллион голых баб в секунду человек не сможет - но зато он не нарисует им шесть пальцев на руках. Компьютер не сможет придумать мелодию, непохожую на ту, на которых его обучали - но и человек дальше семи нот не уйдет, а количество их повторов конечно.

Я хз, где тут люди проблему находят, по моему и там и там терминология нормальная и определения вполне себе четкие

Видите, даже в ваших базовых и четких, по вашему, определениях ничего не чётко и не определено и терминология у вас тоже совсем не понятная 😁

Не хотят понимать только те, кто специально ищет подковырки :)

Всемогущество > законы логики. Захочет создать, создаст, захочет поднять, поднимет. Перенесется с камнем в прошлое блин, до момента создания и поднимет, или там в альтернативной вселенной поднимет, я хз, я не всемогущ к сожалению.

Преобразователь цифирок из одного массива в другой это ANI, лол. ANI это подмножество AI, следовательно преобразователь цифирок это AI.

Превосходство измеряют очень просто, уже сейчас есть куча датасетов по различным областям. Просто со временем они перейдут с уровня олимпиадных задачек на более серьезные и комплексные задачи.

Если у формального определения можно найти подковырки - это плохое определение.

Играясь со словами натягивая сову на глобус можно спокойно вывести что угодно из чего угодно. Это не делает все существующие определения плохими.

Генератора картинок под ИИ не попадают, так как ничего не анализируют. Язаковые же модели напротив имеют некий аналог внутреннего диалога и могут выстраивать логические цепочки.

Что такое "всемогущая"?

Это значит -"устанавливающая правила". На момент создания камень был неподъёмный, если брать ваш пример. А после создания - невесомый, правила поменялись.

И неплохо-бы отделять бога(ов) от Творца.

"должен быть сфальсифицирован богом"
Даже тут у вас противоречие. Если бог всемогущ, у него по определению нет обязанностей.

Это не обязанность, это его решение. Если считать что бог есть, то мы существуем только потому, что он так захотел. И именно потому, что он захотел дать человеку свободу выбора, он и будет опровергать эти эксперименты.

Про бога, вы, что-то запутались.

Да и вполне можно допустить, что его нет и жить без религии. Ничего не изменится.

Тут даже не нужны эксперименты. Просто внимательно и вдумчиво порассуждать.

Можно, в этом и заключается эта самая свобода выбора.

Научно определить, есть ли бог - невозможно. Поэтому можно верить, можно не верить. Выбор каждого. Нет тут никакой путаницы.

Не надо путать веру и религию (религиозность). Вера - это когда человеку всё равно, есть бог или нет на самом деле. Он (человек) решил этот вопрос для себя однозначно. И ведёт себя соответствующим образом, по заветам.

Ну как бы, бог это такая всемогущая сущность, которая дала человеку свободу выбора.

Откуда такое определение?

По поводу свободы выбора: когда хочется в туалет выбор вроде и есть, но выбирают все дойти до унитаза. Когда же варианты равноценны то наступает время подбрасывать монетку. И тут мы подходим к понятию сознания и сознательной деятельности. Но это уже совсем другая история.

Кто-то утверждает что бог есть, кто-то, что бога нет,

...а кто-то — что бог — это он!

Да ничем кмк не отличаются. Просто человек не выдает первое, что ему придет на ум, а пропускает через логический блок и потом уже выдает ответ, более менее приближенный к реальности. А генеративные сети пока что, чаще всего выдают один случайный результат без перепроверки, логичный ответ или нет. Если человека попросить быстро давать ответы на вопросы, первое, что ему приходит в голову, или им нужно что то ответить, даже если не знают правильного ответа, то ответы не менее смешные выходят. Ютуб полон всяких видосиков, вот к примеру, первое попавшееся.

https://www.youtube.com/watch?v=R7ghDhpCLKM

Мне кажется, что всё же отличие есть: если человек крайне инертное существо и отрицает любое новое знание, не вписывающееся в сформировавшуюся картину мира, то для ИИ достаточно одного или несколько бредовых утверждений на вход, чтобы он на серьёзных щах стал их пропагандировать.

не знаю, имхо вы две разные вещи сопоставляете. У человека может быть картина мира неполной и он так же будет делать соответствующие выводы. Бог кидается молниями, в доме свистеть нельзя, не к добру это и прочее. Я помню в детстве думал .что ветер создают качающиеся деревья, и чем сильнее качаются, тем сильнее ветер, логично же. Так же и генеративная сеть, она "интерполирует" полученные знания. Она не знает однозначного ответа ни на один вопрос, у нее формируется ответ "с вероятностью хх%" и она его выдает. Как в анекдоте про инженера с логарифмической линейкой "дважды два приблизительно равно четырем", так и у сети, 2х2 c вероятностью 99.99% равно 4. Думаю спроси генеративную сеть, сколько будет 1233456723 умножить на 359237542783, она ответит какую ни будь ерунду, если в ней не заскриптовано обращение к калькулятору. Как и человек тоже.

Т.е. догадаться обратиться к калькулятору она не может?

А вообще - матан даётся современным нейросетям на удивление неплохо. Хотя, на примере DeepSeek, если она видит некую условно-неразрешимую задачу (типа задачи о козе в круглом загоне - строгое решение открыли 3 года назад и оно ппц сложное), то старается мягко соскочить. Мол, эту задачу трудно решить аналитически, давайте лучше посчитаем численно. -А ты реши! -Аналитическое решение существует, но оно слишком сложное, в данном случае разумнее воспользоваться численным методом... И т д. С нуля найти решение для задачи, разрешимость которой неизвестна человеку, не пытается.

 в детстве думал .что ветер создают качающиеся деревья

Хаха, точно также считал. До сих помню, как папа поставил меня в тупик вопросом: в пустыне деревьев нет, откуда же там ветер?

У человека может быть картина мира неполной

Я бы очень поостерёгся иметь дело с человеком, уверенным, что обладает полной картиной мира.

И горе, если такой человек дорвётся до власти.

Бог кидается молниями, в доме свистеть нельзя, не к добру это и прочее.

Эти утверждения созданы и закреплены ни одним поколением. Вот видите, Вы отрицаете это, но тем не менее помните. И менее критичный человек на вашем месте повёл бы себя от "ой да, надо" до "но на всякий случай надо". А приведите иное утверждение с формулами - скажут что дурачок.

А при чем тут картина мира? Тут ситуация больше похожа с ответом студентом на экзамене. И что студент не знает будет пробовать придумать на ходу, чтобы имитировать ожидаемый преподавателем ответ. И смена точки зрения будет тоже мгновенная. И заранее студент может подготовить 3 ответа, чтобы по реакции преподавателя подобрать нужный, даже по мимике лица ориентируясь.
Мимику лица даже лошадь вон считывала, выбирая нужные ответ по выражению лица экзаменаторов и создавалась иллюзия что лошадь понимает математику, а на деле подстраивала интуитивно ответ под ожидания человека
https://ru.wikipedia.org/wiki/Умный_Ганс

...Число тестов было весьма велико и позволило Пфунгсту выявить определённую статистику. Так, было совершенно точно подтверждено то, что Ганс с высокой вероятностью может правильно ответить на вопрос даже в том случае, если его задаёт не Вильгельм фон Остин (и даже если он или какой-либо другой человек, кроме самого вопрошающего, не находится рядом); таким образом, возможность какого-либо мошенничества (вроде тайных знаков и прочего) была исключена. Однако было определено также то, что Ганс практически (но не абсолютно) всегда отвечал верно лишь в том случае, если мог видеть задающего вопрос и если задающий вопрос сам знал ответ на него. Например, когда фон Остин задавал Гансу вопрос, на который сам знал ответ, то Ганс отвечал верно в 89 % случаев; когда же хозяин не знал ответа, Ганс отвечал правильно лишь на 6 % вопросов.
Впоследствии Пфунгст в своей работе стал уделять больше внимания изучению поведения человека, задающего вопрос, и пришёл к следующим выводам: во время медленного отстукивания копытом после задавания вопроса Ганс наблюдает за выражением лица и позой вопрошающего; когда число стуков, сделанное Гансом, равнялось правильному ответу на вопрос, абсолютное большинство людей так или иначе выказывало волнение и напряжение (а в момент верного ответа, возможно, — наоборот, определённое расслабление), будучи шокированными этим, или хотя бы просто пристально взглядывали на него, и такое поведение «подсказывало» Гансу, что пора прекратить стучать копытом. Возможно, способы «социальной коммуникации» у лошадей гораздо тоньше, нежели у людей, и позволяют им замечать малейшие эмоциональные реакции, ввиду чего Ганс, отлично изучивший поведение своего хозяина за годы, безошибочно угадывал даже самые незначительные изменения в его поведении при верном ответе, несмотря на то, что тот даже не догадывался о том, что даёт ему своего рода «подсказку».

что значит "даже"? вы удивитесь сколько серого вещества в вашей голове отвечает за распознавание мимики, и выражения лиц

Многим людям без картины тоже достаточно пары утверждений на вход. Синдром утёнка, секты, вера в 5g-чипирование - примеров тысячи.

У человека может быть картина мира неполной и он так же будет делать соответствующие выводы.

Вот именно. Человек делает выводы. ИИ делает выводы только на основе информации, которая у него есть, и насколько я понимаю, не скажет "извините, у меня недостаточно информации для ответа" а будет вести себя словно двоечник на экзамене.

Здесь дело не первом попавшемся ответе.

У человека есть механизм разделения на локальные и глобальные маршруты. Когда вы просите быстро ответить, то лимбическая система доминирует (сильное волнение) и выдаётся ответ локального маршрута (эмоциональная , сигнальная речь).

Для генерации глобальных маршрутов мозгу нужно больше времени и дофамин (мотивация), который усиливает переключение на глобальные маршруты. Которые как раз и связаны с глубокими знаниями человека, связью различных зон мозга.

В случае LLM, причина другая. У нее всегда глобальные маршруты. (Сейчас пробуют сделать аналог через longformer). И причина llm, в том что она случайно выбирает вариант. В то время как у человека это вариант не случайный, а зависит от влияния других зон мозга или лимбической системы. Получается такая хаотичная система, но не случайная. Хаотичная, потому что предсказать ее нельзя (мы не знаем все состояния сигналов в мозге). Но при этом, и не случайная, так как значение лежит в определенном пространстве вариантов возможных связей с другими зонами мозга.

Так что разница тут огромная , хотя результат кажется схожим.

Разница огромная и не в пользу человека. Так как мозг человека сам по себе может деградировать с возрастом или переболев короновирусом или после стресса или сорвавшись с пограничного состояния. А человек занимает высокую должность и может влиять на жизни миллионов человек. Так что хаоса в нейросети человека больше на порядок и исправить ПО нельзя или откатить до стабильной версии. И человек будет маскировать свои проблемы, даже если догадается о них. Примеры что можно точно отследить, элита своего рода пилоты самолетов, требования к ним строгие (не сравнить в водителями например), управление дублируется двумя пилотами, но "человеческий фактор" все равно сказывается катастрофически. Пример около 10 случаев когда нейросеть пилотов глючила и они решали самоубиться с самолетом и пассажирами
https://www.rbc.ru/society/26/03/2015/551406389a7947995c3855a7?ysclid=m6e62nv27f157846123

Крушение пассажирского самолета A320 во Франции произошло в результате «намеренных действий» второго пилота, сообщила в четверг ​​французская прокуратура. После того как командир воздушного судна вышел из кабины, оставив лайнер в режиме автопилота, второй пилот заблокировал дверь и сознательно активировал фатальное снижение самолета, заявил на пресс-конференции прокурор Марселя Брис Робен.
Прокурор назвал это «намеренной попыткой уничтожить самолет», но воздержался от заключения, что это было изощренное самоубийство. «Я не могу называть это суицидом, но возникает резонный вопрос», — сказал Робен.
В истории известны случаи, когда летчики намеренно уничтожали самол​​ет во время полета (не все из них были официально доказаны). Некоторые из таких случаев фактически приводили к массовому убийству. 19 декабря 1997 года в Индонезии потерпел крушение Boeing 737 авиакомпании Silk Air, в результате чего погибли 104 человека. Самолет начал резкое снижение, после чего разбился о землю. Индонезийские власти так и не смогли определить причины катастрофы. Но Национальный совет по безопасности на транспорте США (NTSB) предположил, среди прочих версий, что падение лайнера было вызвано умышленными действиями командира. Вероятно, дождавшись, пока его помощник выйдет из кабины, он отправил самолет в пике, отключив оба бортовых самописца. Перед этим у пилота отмечались сложности на работе, обострившиеся в последние месяцы перед крушением. Летчик также испытывал финансовые затруднения.

Еще прикол, примерно 25% жителей Москвы заражено токсоплазмой (и зараженность растет), микроорганизм формирует цисты в мозгу и управляет поведением носителя, делая его активным, агрессивным и рискованным (увеличивается тестостерон и дофамин). Но среди пострадавших в ДТП процент намного выше, так как они склонны к агрессивному вождению. И среди бизнесменов, депутатов, руководителей процент зараженных выше, так как микроорганизм выводит человека из зоны комфорта и провоцирует на риски. Это нельзя отнести к преимуществу человека над ИИ.
Длинная статья по управлению токсоплазмозом теплокровными, включая и человека, эдакий патч-вирус в систему:
https://naked-science.ru/article/biology/zarazhenie-parazitami

Я не говорю о том, что нейронные сети плохие. У них ест свои преимущества. И вы выделили очень важное, это возможность сохранения данных. Нет биологической деградации, так как всегда можно заменить оборудование. Это огромный плюс.

Поэтому я указал на разницу в самом механизме. Который говорит о том, что сетки еще долго будут развиваться. То что у них есть задел в итоге обойти человека по всем параметрам - это да. Вопрос в энергоэффективности только.

Например, я сейчас переношу на нейронные сети архитектуру кохлеарного ядра. Оно первично у слуха, и выделяет закономерности в интенсивности сигнала. Позволяя усиливать/ослаблять интервалы, выделять паузы. помогает дальше для определения в пространстве истопника звука (в других зонах). И вот уже буквально тут есть архаичная реализация зоны VCN и DCN. VCN - для анализа низких частот, а DCN высоких частот. DCN немного сложнее, требует больше ресурсов, так как ее задача как раз помогать определять сигнал в пространстве по интенсивности. На ней основана эхолокация. У человека DCN слабо развита, не было потребности. А VCN вообще очень простая, так как требовалось лишь быстро сделать анализ интенсивности самым простым способом. Мозг не развивал у людей, так как нет потребности и нет места для роста этого участка (не в ущерб другим зонам). У нейронных моделей таких ограничений нет, и можно сразу эту часть проектировать сложной, на уровне эхолокации. Что позволяет искусственному слуху лучше распознавать не только речь, но звуки, которые он до этого не слышал (звуки эхолокации дельфинов, летучих мышей, сов).

Так что, нейронные сети будут развиваться и вероятно в будущем обойдут людей по всем параметрам. Но, при рассмотрении механизмов работы зон мозга и LLM, последние пока реализовали лишь несколько базовых вещей. Важных, но не достаточных для возведения их пока на Олимп.

Вопрос в энергоэффективности только.

Ну можно сравнить на примере телефона, распознает лицо на 10 мс, потребляя 0.25 Вт энергии и уходит в спящий режим. Человек распознает лицо человека которого не видел год до минуты, потребляя 10Вт энергии и не уходит в спящий режим никогда.
Датацентры работающие на обучение ИИ это другой масштаб, они обрабатывает вообще все знания человечества, проходя опыт цивилизации не за 10 000 лет, а за неделю. В результате модель сносно обрабатывает все запросы любых специалистов, на любом языке с учетом контекста.

Важных, но не достаточных для возведения их пока на Олимп.

Так и человек средний далек от Олимпа. Впечатление что крутится 10-20 образов в голове, а при стрессе вообще мышление упрощается на порядок, до уровня конечного автомата.
Те люди что двигают вперед науку и культуру единицы и это обычно очень узкие специалисты. Чуть в сторону от специализации и там знаний нет особых. Пример гениальные ученые, но даже в быту весьма рассеянные.
Плюс сильный креативный ИИ непонятно как обучать. Обычную языковую модель можно натренировать на имеющихся текстах и сверять результаты с ними же. И креативный ИИ не отличить от шизофрении. С людьми такая же сложность, гениальных ученых могли вообще не признавать при жизни, так как к их идеям были не готовы.
Что-то подобное с Альфа Го было, стратегия принципиально новая и если бы ходы одобряли люди, то они скорее всего посчитали бы что нейросеть заглючила и творит дичь и так играть нельзя
https://ru.wikipedia.org/wiki/Матч_AlphaGo_—_Ли_Седоль

AlphaGo в этой партии отклонялась от общепринятых норм и продемонстрировала более широкий подход, который профессионалы го охарактеризовали как кажущиеся на первый взгляд ошибки, на самом деле осуществлявшие далеко идущую стратегию. Создатели программы пояснили, что AlphaGo пытается максимизировать не количество очков или величину выигрыша, а вероятность своей победы: Если AlphaGo должна выбирать между победой в 20 очков с 80 % вероятностью или победой в 1 очко с 99 % вероятностью, она выберет последнее, даже если ради этого придётся потерять очки. Например, кажется, что ход 167, дающий Ли Седолю шанс на борьбу, расценивался комментаторами как очевидная ошибка; Ан Ёнгиль заявил, что «когда AlphaGo делает ход, выглядящий слабым, мы можем расценить его как ошибку, но, возможно, точнее будет считать такой ход провозглашением победы?».

Так же может быть и с ответами языковых моделей, слишком "сильные" ответы давать нельзя, нужно отвечать так, как ожидает пользователь и что можно подтвердить ссылками на авторитетные источники.

на примере телефона, распознает лицо на 10 мс, потребляя 0.25 Вт

Одно конкретное лицо. И "распознает" по принципу "оно или не оно".

Человек узнает лицо знакомого и через десятки лет. (не всякий человек, справедливости ради, так и всякие faceID, как мы знаем, ошибаются - только в путь)

А платежные сервисы распознают миллиард лиц и достаточно точно. Вычислительные мощности там большие, но за 10 мс они много энергии не потребят, даже если там мегаваттное потребление. Затраты по энергии сравмимы с человеком, только вот человек сравнит 100 лиц из памяти, а там миллиард, вычислительная сложность намного больше, как по объему, так и по качеству. Вспоминается мем с разными подписями, человека лица в ступор вводят, а ИИ различает всех без проблем.
https://avatars.mds.yandex.net/i?id=9c26310b9ee468d174ebf73c2034df24_l-5986425-images-thumbs&n=13

100%, у llm нет периферийной системы на которую она может опираться. Вот человек может сказать -стол твердый, я могу на него встать. Для llm все это на уровне абстракций. У человека вся эта картина мира находится в прошивке, и поэтому его логика последовательна. У LLM это просто языковая модель, причем на данный момент очень некачественная. Концепции в ней абстрактны, часто нелогичны, и с отсутствием обратной связи для проверки своих выводов.

Но мне представляется, что это временная проблема. И если конкретные LLM модели будут строиться с учётом четкой структуры и иерархии, то мы можем увидеть прорыв уже в ближайшее время.

Суть в том, чтобы улучшать саму структуру работы с такими моделями, а сами модели должны иметь сугубо прикладной характер. Как в организме человека - запросы внутри организма к конкретному органу будут иметь смысл только для него, а не "вообще". Или это похоже на логику построения современных процессоров - где больше не делают одно ядро "для всего", но более сложную систему с разными узлами и блоками, каждый из которых решает какую-то свою задачу.

Ну так думалку прикрутили. Что ГПТ что Дипсик для своих топовых нейросетей. Главное спец.галку прожать

Думалка у нейросетей прикручивается промпт инжинирингом, сначала подумай, а потом напиши ответ.

Субъективно это не работает, какие то там цифры в бенчмарках повышаются, но по опыту использования, оно лучше не делает. Если модель не поняла, что от неё хотят, модель сначала нагенерирует кучу бессмысленного текста, а уже потом кучу бессмысленного кода. Если модель поняла, что от неё хотят, она может сразу фигачить плюс минус адекватный код

Мышление 1 в 1 как у мозга с СДВГ, выдающего мегабайт информации по приветствиям в ответ на простое "чокак?"

Пока что ошибки заложены в самой архитектуре. Та же температура или top_p это по сути рандом, призванный расшатать чёткий ответ, сделать его более "живым". Но работает этот рандом как просто рандом, в случайном направлении. Человек, например, занимаясь творчеством, тоже перебирает случайные идеи, но дальше он их отсеивает, выбирая в конце лучшую из рассмотренных. А у ИИ это просто случайное слово, даже без анализа, насколько это слово впишется в дальнейшее (да и в предыдущее) изложение.

Вот когда начнётся работа в сторону не уменьшения количества ошибок, а их исключения, тогда уже станет интереснее. Калькулятор в теории может выдать ошибку, но шанс ничтожный, обусловленный физикой, а не логикой. ИИ в этом же направлении должны развиваться. А до тех пор, даже если ошибки будут сильно реже, всё равно они будут смешные (тупые), ибо простой рандом.

А как же CoT/COCONUT? Да, есть вариант CoT делать через MCTS и закладывать reward выбора в претрейнинге через тривиальный RL, но это все таки не рандомный токен на top p.

Их ошибки происходят, казалось бы, случайным образом

Не казалось бы, а именно случайным образом они и происходят. Там же буквально рандомом выбирается каждое следующее слово. От того что вероятности хорошо подобраны, рандом не перестаёт быть рандомом.

Вы очевидно путаете нейросети и цепи маркова. Почитайте что-то по теме, пригодится в будущем.

Вы очевидно путаете нейросети и цепи маркова.

Нет, это Вы очевидно верите, что нейросети рабоют на магии, потому как не разбираетесь в матчасти.

В отличии от вас, мне не надо верить, я знаю как они работают и без статей на хабре уровня "перцептрон для чайников". Представление что QKV трансформер это "просто рандомный выбор следующего слова с подобраными вероятностями" это как раз и есть попытка представить LLM как некий pixie dust, не дающий ничего в реальном понимании их устройства, это как "я знаю как устроен МиГ-35 - он летает, потому что у него есть крылья. Кстати, вот статья про создание бумажных самолетиков, там все понятно написано".

Не объясните тогда, пожалуйста? Я не эксперт и даже не любитель, но в моем понимании нейросети это именно выбор следующего слова с подобранной вероятностью. Я понимаю, что с помощью огромного объема данных и дополнительной обработки достигается максимальная точность, но сути это не меняет. Или всё-таки меняет? То есть я тоже не знаю, как устроен МиГ-35, но очевидно, что без крыльев он летать не будет, разве что как ракета, причем не самая точная, а с крыльями принципиально иное поведение, отличное от БПЛА самолетного типа, давать не будет.

LLM не "просто выбирает следующее слово". Да, это правда, что класический forward pass заканчивается на softmax, то есть LLM делает это, как и многие другие вещи. Еще любят говорить, что LLM "просто делает matmul", и да, она действительно это делает, но это не говорит ничего интересного про выученное представление, а это самое главное ее отличие от простой цепи маркова. Можно сказать что внутри LLM находится семантическое пространство языка, модель мира в философии витгенштейна, т.е. "курица", "петух", "яйцо" - это все связанные для понятия. И это мы не касаемся CoT, хотя R1 показывает, что похоже о1 это все еще таже самая модель просто с RL и ревард функциями на претрейне - https://timkellogg.me/blog/2025/01/25/r1

Там же буквально рандомом выбирается каждое следующее слово

Вы очень-очень сильно упростили. Вместе с водой выплеснули и ребенка. Если там буквально рандом, то набуя ей гигабайты и мощные GPU?

А, так ваше знание об устройстве генеративных сетей основано на вольном переводе статей из нью-йоркера. Ну это многое объясняет.

Нет, моё знание основано на словах одного очень умного дяденьки. Но поскольку далеко не все на хабре способны осилить десяток страниц на инглише, приходится давать ссылки на вольные переводы.

Что же вы тогда ни разу за 24к комментария, включая этот пост, ниразу не продемонстрировали знания, которыми с вами поделился "умный дяденька"? Получается то ли дяденька был не такой умный, то ли вы его не поняли, то вся эта история вранье.

ниразу не продемонстрировали

Вы прямо как из того анекдота.

дяденька был не такой умный

Дяденьку зовут Стивен Вольфрам, он написал WolframAlpha. А чего добился ты, %USERNAME%?

Ну значит просто пункт про "вы его не поняли" выполнился, с учетом вашей невероятной любви к глупым совковым анекдотам, ожидаемо.

с учетом вашей невероятной любви к глупым совковым анекдотам

А я от невероятной любви ещё один подкину, очень в тему.

Что все до рандома то докапались, и T9 обзываются. Можно подумать мозг человека на какой то магии работает. Те же веса в нейронных связях и внутренний диалог.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости