Как стать автором
Поиск
Написать публикацию
Обновить

AGI математически невозможен, но хайп уже не остановить

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров75K
Всего голосов 108: ↑84 и ↓24+82
Комментарии656

Комментарии 656

Небольшое замечание: Fachhochschule в немецком языке означает всего лишь ВУЗ прикладной специализации, это уровень чуть выше вашего техникума но хорошо ниже унивеситета. Не удивительно что профессора оттуда никто не слушает

Хм... А ведь Эйнштейн начинал как очень даже рядовой сотрудник патентного бюро, однако...

Предлагаю подождать - что скажут математики

не вопрос, от слова совсем, речь не о профессоре, речь только лишь о том что врядли кто-то обратит внимание на публикацию из небольшого регионального ВУЗа, не тот масштаб светила. Да и вещи он пишет на самом деле достаточно очевидные

Ну, может оно и так. Лишь бы не вышло, как у Грегора Менделя (https://ru.m.wikipedia.org/wiki/%D0%9C%D0%B5%D0%BD%D0%B4%D0%B5%D0%BB%D1%8C,_%D0%93%D1%80%D0%B5%D0%B3%D0%BE%D1%80_%D0%98%D0%BE%D0%B3%D0%B0%D0%BD%D0%BD), чья основополагающая статья была в свое время проигнорирована общепризнанными светилами: и журнальчик был не тот, и автор сомнительный )))

И вообще открытие не подтверждалось на других видах, что важнее.

Это смотря, что считать открытием. Мендель установил, что 1). наследственный фактор существует и 2). информация от родителей к потомкам посредством наследственного фактора передается дискретно.

Это - главное, что следовало из его работ. А не распределение цветов или степени морщинистости. Мендель оперировал тем, что ему было доступно: обычным огородом с набором распространенных растений. Но он по существу первый, кто не просто выращивал, еще и считал сколько чего у него выросло.

Горох вместо деления на жёлтый и зелёный получался жёлто-зелёным.

Зачем ждать, если это

В мае 2025 года профессор университета Фаххохшуле (Австрия) Макс Шлерет опубликовал чёткое научное доказательство, что сильный ИИ логически и математически невозможен из-за фундаментального ограничения

— просто очевидная ЧУШЬ, ложное утверждение.

И не надо "ждать", и судачить в стиле апелляций к авторитету.

Банально потому что простой критерий: вы сами являетесь контрпримером, опровергающим это утверждение.

И здесь вообще не важно происхождение этой нейросети, "искусственное", или "естественное", — факт остаётся фактом: "дурак сказал глупость" — опровержение возможности реализации вещи которую мы уже видим реализованной на нейросети (GI) тем, что мы ЯКОБЫ не можем её реализовать на нейросети не стоит внимания, потому что это банально чушь. Максимум что вы можете выиграть в результате знакомства с его рассуждениями, — так это найти ошибку этого дурака, допущенную им в рассуждениях. Всё, точка, конец истории.

Похоже на софистику в стиле парадокса "Ахиллес и черепаха")) Есть доказательство, доказывающее что Ахиллес никогда не догонит черепаху. Однако же, это легко опровергается опытным путём

Только это доказательство ошибочное. Поэтому с практикой расходится.

А в чём оно ошибочно, ну кроме того, что оно "очевидно ошибочно"?

Ряд сходится, поэтому догонит за конечное время.

А теперь представьте стопку учебников, которые необходимы древнему греку-философу чтобы понять очевидное.

Представил. Теперь утверждение Зенона стало истинным?

Ответ на какой вопрос?

Вы пропускаете утверждение, что Ахиллес движется непрерывно и с постоянной скоростью. Например, если с каждым шагом (который есть член ряда) он думает, куда поставить ногу и тратит на это малое, но конечное время, черепаху он не догонит.

Доказательство Зенона сводится к тому, что время, требующееся Ахиллесу на то, чтобы догнать черепаху, представляется в виде бесконечного ряда.
Далее Зенон отмечает (совершенно верно), что сумму этого ряда невозможно найти бесконечным суммированием, потому что бесконечное суммирование невыполнимо.
И из этого Зенон делает вывод (ошибочный), что эту сумму вообще никак нельзя найти.
Можно. Сумма ряда ищется не (невыполнимым) бесконечным суммированием, а совершенно другой операцией (предельным переходом).

Нет, это неверное представление технарей, вечно считающих людей две тыщи лет назад тупыми, а не с таким же мозгом. Суть апории Зенона в том, что движение нельзя помыслить без противоречия. Того, который "смолчал и стал пред ним ходить" он велел побить палками именно за то, что не врубился - понятное дело, что движение есть. Ряды же философского противоречия не решают, а подобны "израильские альпинисты обошли гору Эверест" - ну да, для практических целей годится, в науке со времён Галилея под движением понимают "продвинутость", сосредотачиваясь на практической стороне дела, а не попытке осмыслить.

У философов фраза «нельзя помыслить» обычно означает «мне не удалось придумать, и я делаю ошибочный вывод, что это и вовсе невозможно». Строгих доказательств они никогда не приводят.

То ли дело математики (например Бурбаки), которые даже в XX веке признавали, что матанализ не решает апории Зенона.

Строгих доказательств они никогда не приводят.

«Как же они приведут? Они ж философы!» Почти ©

Я лично не только технарь, я считаю себя ещё и философом, а элеатов вообще нежно люблю. По моим представлениям, именно элеаты стоят у истоков материализма - течения, к которому я сам себя отношу, и очень многие вещи они поняли совершенно правильно - например, несуществование несуществующего, знаменитое "природа не терпит пустоты" - это очень сильная идея. Философской пустоты в самом деле не существует (а физический вакуум - совершенно не философская пустота именно потому, что он-то существует).
Да, зеноновские апории - в самом деле попытка показать невозможность движения, а эта невозможность у элеатов логически следует из их системы аксиом, в которой они и делают ключевую ошибку (воспринимают существование как некоторую предметность, а не как свойство - и движение оказывается невозможным, потому что всё вокруг оказывается заполнено субстанцией-носителем существования).
Но мы ведь не про все апории вообще говорим, а именно про Ахиллеса и черепаху, а в ней логическая ошибка именно такова. Из того, что мы мысленно можем разбить количество на бесконечное число частей, не следует, что само это количество бесконечно.

следует из их системы аксиом, в которой они и делают ключевую ошибку (воспринимают существование как некоторую предметность, а не как свойство - и движение оказывается невозможным, потому что всё вокруг оказывается заполнено субстанцией-носителем существования).

Но коим боком? В самой апории, что про черепах, что про стрелу - этого нет. И без этого "работает", в т.ч. разбивание на бесконечное число частей.

Доказательство не ошибочное — просто Зенон не знал про пределы последовательностей.

Следите за руками.

В классической постановке:

Ахиллес находится на расстоянии 100 м от черепахи. Пока он пробегает 100 м, черепаха проползает 10 м. Пока он пробегает 10 м, черепаха проползает 1 м. Пока он пробегает 1 м, черепаха проползает 0.1 м. То дистанция между Ахиллесом и черепахой никогда не становится равной нулю.

А если учесть нюанс:

Ахиллес находится на расстоянии 100 м от черепахи. Пока он пробегает 100 м со скоростью 10 м/с (для ровного счёта), проходит 10 с, и черепаха, ползущая со скоростью 1 м/с (для ровного счёта), проползает 10 м. Пока он пробегает 10 м, проходит 1 с, и черепаха проползает 1 м. Таким образом, в этой апории временной ряд хоть и бесконечный — но сходящийся! Ахиллес догонит черепаху через 11.111111(1) с, то есть не позднее, чем через 11.112 с.

Или знал (ну или, как минимум, понимал хотя бы на пальцах), но решил набросить. Ведь не сложно догадаться, что если Ахиллес в 10 раз быстрее черепахи, то пока она проползёт вторые 10 метров, Ахиллес пробежит вторые 100. 200 > 120.

И наброс хороший получился.

И наброс хороший получился

Конечно. Математика в то время была подобна магии. И тут такое шатание основ ;)

Я твой ряд предел шатал!

наброс хороший получился.

Ну да, вон сколько уже сотен лет разгребают!

А в чем логика? Если чего-то не знаешь, то не можешь в этом ошибиться?

А в чем логика? Если чего‑то не знаешь, то не можешь в этом ошибиться?

Если что‑то не знаешь, то не можешь допетрить, где ошибка. Примерно как со 100 500 «доказательств», что 2=3.

Ну и как это делает доказательство Зенона неошибочным?

Ошибочен вывод «Ахилллес никогда не догонит черепаху». Как я показал выше, он её догонит через вполне себе конечное время.

Я спорю с утверждением «Доказательство не ошибочное — просто Зенон не знал про пределы последовательностей», ибо считаю, что доказательство ошибочное.

Вы вклиниваетесь, пытаясь мне что-то объяснить, видимо, не по теме спора. Итак, что вы хотите сказать, можете объяснить? О том, что Ахиллес догонит черепаху, я уже в курсе.

Вы вклиниваетесь, пытаясь мне что-то объяснить

Скажите, пожалуйста, что заставило Вас подумать, что я пытаюсь что-то объяснить вот конкретно Вам?

См. коммент выше. Ну хоть википедию бы посмотрели...

Бертран Рассел считал, что современная математика способна удовлетворительно разрешить все апории Зенона[38].

Однако, по мнению ряда учёных, в этих опровержениях подменяется суть спора. В апориях Зенона речь идёт не о математической модели, а о реальном движении, и поэтому бессмысленно ограничить анализ парадокса внутриматематическими рассуждениями, поскольку Зенон ставит под сомнение именно применимость к реальному движению идеализированных математических понятий[18][39][40]. О проблеме адекватности реального движения и его математической модели см. следующий раздел данной статьи.

Д. Гильберт и П. Бернайс в монографии «Основания математики» (1934) замечают по поводу апории «Ахиллес и черепаха»[41]:

Обычно этот парадокс пытаются обойти рассуждением о том, что сумма бесконечного числа этих временных интервалов всё-таки сходится и, таким образом, даёт конечный промежуток времени. Однако это рассуждение абсолютно не затрагивает один существенно парадоксальный момент, а именно парадокс, заключающийся в том, что некая бесконечная последовательность следующих друг за другом событий, последовательность, завершаемость которой мы не можем себе даже представить (не только физически, но хотя бы в принципе), на самом деле всё-таки должна завершиться.

Википедия порет чушь. То, что завершение бесконечной последовательности автор текста не может представить, означает не то, что это представить невозможно, а лишь то, что у автора текста такое мышление.

А также нет никакого парадокса в том, что кто-то не может представить то, что реально существует.

Точно, сейчас нам аноним с Хабра решит двухтысячелетнюю проблему и опровергнет свод знаний по вопросу, представленных в энциклопедии.

Это ровно тот вопрос, по которому у одних учёных уже давно нет никаких проблем (о чём говорится, в т.ч. и в энциклопедии, у того же Рассела), а другие "не могут помыслить". Но тогда вообще ни одной проблемы решить до конца нельзя, т.к. всегда найдётся тот, кто "не может помыслить". Эйнштейн не мог помыслить квантовую механику, что с того.

В апориях Зенона речь идёт не о математической модели, а о реальном движении,

однако о реальном времени этого реального движения он очень удобно забывает.

Это они ещё числа пи не видели. Вот бы их порвало от попыток понять число, которое "числом в явном виде" не является.

Это уже Вы про соответствие объективной реальности и нашем её представлении/осознании начинаете. Строго говоря, все наши мысли - субъективны, абстрактны и не являются точной реальностью.

Вопрос не в пределах. Ну представил Зенон что-то в виде бесконечной суммы, которую сам Зенон не может вычислить в лоб, потому что там бесконечно много слагаемых. И из этого он делает выводы космического масштаба. А если бы он смирился с тем, что он не может посчитать не означает, что предела не существует (а также с тем, контрафактическое несуществование примера тоже ничего бы не значило), то и парадокса не было бы.

Можно абсолютно точно - 100/9 с 😁

Ну, по мне так вообще не похоже, хотя мне ясна ваша идея, И спасибо за поддержку хочется конечно сказать.

В "парадоксе Ахиллеса и черепахи" Зенон упарывается по бесконечной делимости, ловким движением рук беря точку всегда ДО точки обгона. То есть на самом деле он показывает бесконечность делимость отрезка между двумя точками (на самом деле в двумерном пространстве если, очень уж точно формулировать: на одной оси он гипотетическую бесконечность делимости отрезка времени показывает, а на другой — отрезка пространства). Ну, в этом смысле это не парадокс а "ловкость рук", и немножко мошенничества.

А здесь у нас товарищ просто где-то облажался, и вообще даже не интересно смотреть где. И при этом глуп настолько чтобы не заметить столь очевидное опровержение его построений 🤷🏼

"Удивительные люди", ага )

В парадоксе Ахиллесе и черепахи Зенон заложил основы понятия "предел" в математике задолго до его нормальной формулировки. Так что это даже не мошенничество, а просто концепция, которая сильно опередила своё время.

"Миша, ты говоришь не своим голосом".

Зенон не вводит понятие предела.

Он указывает на видимое противоречие между дискретной делимостью интервалов, как времени так и пространства кстати, и конечной длинной этих интервалов, а точнее возможностью физически преодолевать эти интервалы как во времени так и в пространстве.

Шутка про "мошенничество" здесь состоит в том что в апории автор действительно берёт точки всегда до точки пересечения траекторий Ахиллеса на двумерной (если в нашей упрощённой модели Ахиллес и черепаха — точки, движущиеся с разной скоростью по прямой) плоскости, показывающей траектории этих точек в пространстве-времени. Он их берет до точки пересечения траекторий как во времени так и в пространстве, — по сути на первом уровне показывая гипотетическую бесконечную делимость как пространство так и времени (ещё раз: гипотетическую, мы строго говоря не знаем, являются ли пространство и время непрерывными или дискретными, пока у нас нет теории всего, снимающей все известные физические нестыковки современную физическую картины мира, мы не можем говорить что любая наша физическая картина мира верна, и мы даже сейчас достаточно хорошие гипотезы с дискретным пространством и дискретным временем имеем).

Так вот, на втором уровне он, можно попытаться так это интерпретировать, проблематизирует возможность конечной суммы бесконечного ряда. В более обывательской формулировки, и выходя за такую вот предельную версию рассмотрения — по сути вопрошает "как это так?" — как мы можем уместить бесконечное количество шагов в конечное время (и если хорошо присмотреться это сводится к тому что было сказано мной предложением ранее).

Математические пределы решают эти задачи технически, но вряд ли бы они удовлетворили Зенона в его недоумениях "как это так?".

Ну, шутка про мошенничество взятием точек лишь до точки пересечения траекторий (эксплуатируя гипотетическую бесконечную делимость пространства и времени) вам стала понятна, или вам ее "как милиционеру" ещё раз объяснить?

Нет там мошенничества, ознакомьтесь хоть с википедией. Бесконечные ряды и пределы апории не решают, они просто позволяют решать практические задачи - как пульт от телевизора позволяет им пользоваться, но не приближает к пониманию внутреннего устройства.

О, я смотрю здесь все таки неизбежно, привет закону Мерфи (в его вариации как первого следствия третьего закона Чизхолма*), появились люди , которым требуется "объяснить шутку дважды", "...как для милиционера"((с) анекдот).

Скрытый текст

Проблема с такими людьми состоит в том, что им не поможет любое количество объяснений.

"А если надо что-то объяснять, то ничего не надо объяснять. Но если стоит что-то объяснить, то ничего не стоит объяснять"((с)М.Ю.Щербаков)

Объяснение есть в том комментарии, который этот персонаж не понял. Ну, что называется, "sapienti sat"... ...а прочих "...учить — только портить".

Проблема в том что вы тут меня получать пытайтесь, обладая радикально меньшим пониманием предмета обсуждения, чем я. "Комментарий не читай, побыстрее отвечай!" — детишки, мнящие свои глупые всем до понимания чем-то при восходящего понимания взрослых.

Вот возьмите и засуньте эту цепочку диалога в любую хорошую LLM-based AI пароль ам , не указывая кто из собеседника вы, и спросите кто из двух последних собеседников прав, я или вы. И не давая web рамки намеков склоняющих его в какую либо сторону.

Ну "чтоб избежать ошибок трудных". И дальше пожалуйста развлекайтесь с ним таким образом, таким образом проверяя свои понимания, прежде чем вываливать на меня и прочих вас окружающих продукты своего "особо богатого внутреннего мира"

Пересмотр показал ошибку набора! Вот цитата сразу с исправлением:

Он указывает на видимое противоречие между дискретной бесконечной делимостью интервалов, как времени так и пространства кстати, и конечной длинной этих интервалов, а точнее возможностью физически преодолевать эти интервалы как во времени так и в пространстве

Ну и сразу скажу как можно иначе сформулировать это же: это можно рассматривать как удивление конечной сумме бесконечной последовательности (о, так уже не так уж и удивительно, да? — особенно если помнить что эту бесконечную последовательность мы получаем бесконечным делением конечного интервала! :)) ).

Но в целом там на самом деле вызывающим изумление способом: для осуществления движения мы должны собственно "посчитать эту бесконечность", — ну, помним что он говорит про физическое движение, И что мы можем разложить движение в эту бесконечность мелких моментов.

Один кстати из способов снятия этого противоречия — этакий out of box (ну, вместо определения процессов с такими свойствами, типа "оно такое!"), — дискретизация времени и пространства:))

Чтобы понять что здесь Зенон именно поэтому упарывался, можно вспомнить его апорию со стрелой, ту самую про которую Пушкин написал свой стишок aka "Движение":

Движенья нет, сказал мудрец брадатый.

Другой смолчал и стал пред ним ходить.

Сильнее бы не мог он возразить;

Хвалили все ответ замысловатый.

Но, господа, забавный случай сей

Другой пример на память мне приводит:

Ведь каждый день пред нами солнце ходит,

Однако ж прав упрямый Галилей.

Мол если мы берём каждую точку во времени, стрела (в неостановленном времени летящая из лука) неподвижна.

"Газировка разумна. Как это так?"

То есть он именно это всё исследовал. На самом деле Зенон — любимый мой философ/учёный/физик (/протофизик)/ мыслитель! Человечище! :)?

Кстати об этом.

В одном большом, часовом видео-лекции, сделанный в виде интервью с очень небольшим количеством вопросов (посвящённому внезапно отношению одной монотеистической религии к одному политическому движению, которое пытается приравнять себя к ней, а также к этно-религиозной принадлежности), встретил, внезапно, объяснение того что в иудаизме считается Богом(😮🤯), сопровождаемое как раз объяснениями в духе этих двух апорий Зенона, и содержащее упоминание отеля Гильберта! 🤯😮🤯

Ну, в нужном нам моменте он всё сводил к тому что реально гипотетические построения апеллирующее к бесконечным рядам, в реальности нереализуемы как процесс, и, де, не реализуются.

Но это так, fun fact. Интересно кстати, насколько это каноническое определение)), и чем вместо примеров "отеля Гильберта" они в нём пользовались до Гильберта, если оно каноническое 😂

Мол если мы берём каждую точку во времени, стрела (в неостановленном времени летящая из лука) неподвижна.

Так работает дифференцирование.

За отсутствием матанализа и теории множеств, Зенон не понимал, что его мысленные переходы не такие очевидные, какими кажутся на первый взгляд. Иначе б не усмотрел ничего парадоксального.

Кстати и траектория стрелы не является суммой тех точек, которые мог бы на ней выделить Зенон, и уже на этом его рассуждение неверно. Но это уже 19 век и Кантор.

если мы берём каждую точку во времени

Цермело уже на одном этом (мнимом) действии упорол математику.

Зенон в лаптях вышел в космический вакуум, чего удивляться результатам.

Не, про «неподвижность в точке времени» это опять излюбленная философами некорректная игра понятиями. Не существует понятия «неподвижна» в отрыве от соседних моментов времени. Достаточное условие неподвижности в данный момент может быть, например такое: «найдётся промежуток времени (включающий данный момент) в течение которого тело покоилось». А точное определение — это через введение скорости, и неподвижности как равенства скорости нулю.

А если дать левое определение «неподвижности», то из него следует что угодно, например, «неподвижность» летящей стрелы.

Есть книжка «Контрпримеры в анализе», она на 100% состоит из таких вот «парадоксов».

Ради интереса проверил, если коротко то автор доказал что для любой "вычислимой функции" (интеллекта) существуют задачи, которая она неспособна решить.... таким образом просто перефразировав неразрешимость проблемы остановки. Почему автор считает что интеллект должен абсолютно точно решать абсолютно любую задачу, чтобы считаться общим интеллектом, а не просто на уровне человека - непонятно.

Про невычислимые задачи ещё Пенроуз писал в "Новом уме короля". Я понял эту книжку в том смысле, что AGI невозможен на основе современной вычислительной техники, в частности, на нейросетях, а не в принципе. Человек как-то решает невычислимые задачи, а система построенная на основе компьютеров, в принципе не сможет это сделать.

Когда-то и "воздушные корабли тяжелее воздуха" считались невозможными...

Даже если это и так (что весьма сомнительно) из этого никак не следует возможность создания AGI в ближайшие годы.

Когда-то и "воздушные корабли тяжелее воздуха" считались невозможными...

Ну так до тех пор, пока не изобрели одновременно достаточно мощный и лёгкий двигатель, они и оставались невозможными (cамолёт Можайского улыбается и машет).

Так же и с системой компьютеров. Только её уже изобрела, природа.

пока не изобрели одновременно достаточно мощный и лёгкий двигатель

Планер (дельтаплан, параплан) летает совсем без двигателя.

Это не полет, это падение… с размахом! ©

Планер (дельтаплан, параплан) летает

А вас не смущают разные корни в этих словах?

А вас не смущают разные корни в этих словах?

Что-то на филологическом? ;) А вас не смущает пароход? ;)

А вас не смущает пароход?

А чего тут смущаться? Плавает овно в проруби — а корабли ходят!

Кэп дальнего плавания хождения одобряет ;)

Все претензии к сухопутным крысам!

Ну так капитан плавает (на кораблях), а корабль ходит )

А управляет ими капитан дальнего хождения

Это что-то о смыслах слов. Их планерами назвали потому, что они планируют, а не летают.

А белки-летяги что делают? :)

Чего-то белят

Пытаются летать )

Когда-то и "воздушные корабли тяжелее воздуха" считались невозможными...

А полёты к далёким звёздам считались возможными...

Так они и вправду возможны, вопрос лишь в требуемом для этого времени. На самом деле даже ничего дополнительно изобретать/строить не надо, Солнечная система сама по себе очень быстрый корабль, который мчится с такими скоростями, которые человеческим поделкам сегодня и не снились - порядка 250 км/с относительно ядра Галактики. В течение ближайших 500 тыс. лет мы сблизимся с 14 различными звёздами, среднее расстояние сближения составит 3 световых года. А через 1.35 млн лет по крайней мере одна звезда пройдёт в 13 тыс. а.е. от Солнца (430 расстояний до Нептуна).

Мало того, мы также движемся навстречу галактике Андромеды (M31), так что и межгалактический перелёт вполне возможен, просто надо немного подождать - рано или поздно долетим, даже палец о палец для этого не ударив.

Речь про полёты человека к звёздам на космических кораблях в рамках человеческой жизни.

Суть в том, что невозможно игнорировать законы физики.

Так человек не решает невычисчислимые задачи

Ну это смотря как посмотреть)
Проглотить синюю таблетку или красную?
Вычислимая ли это задача?)
Тем не менее человек таки принимает какое-то решение...

Так если ЧатГПТ спросить, он тоже какую-нибудь выберет :)

Нужно было ставить условие с конечным временем, у меня выбрал красную

Тем не менее человек таки принимает какое-то решение...

...решение подбросить монетку!

Разумеется смотреть строго формально, — потому что это дутое "опровержение" строится на формализмах. И вдруг оказывается что человек не решает невычислимые задачи.

Хотя на самом деле ещё раньше окажется что не одна из теорем Гёделя строго формально не может быть применена в обсуждаемом вопросе, там, где её пенроуз & поклонники пенроуза ошибочно пытаются применить.

Заметим, кстати, то в целом в дискуссии нам даже не надо было бы доказывать ничего про человека — даже не знай мы об ошибках пенроуза и поклонников в применении теорем Гёделя к этим вопросам. Здесь бремя доказательства лежит на этих персонажах, и пока они его не предоставили, дальнейший их трёп на эту тему можно пропускать мимо ушей

С удовольствием прочту. Но хотелось бы еще ссылки не на Livejournal, а на критику от ученых с каким-нибудь минимальным уровнем цитируемости. Желательно на статьи в уважаемых научных журналах.

Ну так вы сперва прочтите, вместо того чтобы вашу приверженность логическую ошибки "апелляция к авторитету" здесь разворачивать.

Важно содержание проблематизаций, а не кто их сказал, даже в варианте "где они напечатаны". Не говоря уже об авторитете собственно автора этой статьи в ЖЖ etc, что, напомню, не должно волновать человека стремящегося разобраться в вопросе, так как апелляция к авторитету является логической ошибкой.

Список релевантных статей можно найти, например, в The Stanford Encyclopedia of Philosophy, статья The Computational Theory of Mind, раздел 7.2. Взгляд Пенроуза на данный вопрос крайне эксцентричный, и в рамках одной статьи вы полноценной критики не прочтёте, потому что биологи его пинают по-своему, химики по-своему, специалисты в AI и вычислительном интеллекте по-своему.

Почему автор считает что интеллект должен абсолютно точно решать абсолютно любую задачу

ИИ всего лишь достаточно бежать быстрее человека, а не медведя (с) т.е. создать какой-нибудь интересный вирус или пробраться в системы управления ядерным оружием, чтобы в итоге превзойти человечество ;)

Способность уничтожить что-то вовсе не означает способность это превзойти. Обычно даже наоборот.

Разумеется, но автор рассуждает не вообще, а с достаточно прикладной точки зрения.

А с прикладной точки зрения - ИИ сам себе задач не ставит. Интересный вирус получится либо в результате запроса от человека, либо в виде галлюцинации на этот запрос. Или не получится.

Пока не ставит, пока это никакой не ИИ...

Исследовать характеристики ещё не изобретённого устройства можно с любой точностью.

Спасибо, добрый человек!

автор считает что интеллект должен абсолютно точно решать абсолютно любую задачу, чтобы считаться общим интеллектом, а не просто на уровне человека

— А вот эта вот обнаруженная вами совершённая автором рассматриваемой писульки ошибка — просто классика жанра в этой теме.

Ещё раз спасибо, что "прочитали это за нас", из-за такой ёмкий и исчерпывающий анализ/ обзор! Благодарю!)

Это даже не софистика. Просто в пятом веке до нашей эры люди ещё не знали, что бесконечные последовательности могут иметь конечную сумму. И это невежество античных людей можно простить, потому что матанализ тогда если и существовал, то был в зачаточном состоянии.

А этот профессор, похоже, учился по античным учебникам.

в парадоксе Ахиллеса надо всего лишь на каждом приближении считать и скорость сближения, чтобы с удивлением обнаружить, что Ахиллес не догонит черепаху лишь потому, что он тупо остановится относительно черепахи!

люди ещё не знали, что бесконечные последовательности могут иметь конечную сумму

Ну, на их уровне логики вполне очевидно было бы, что 1/2 + 1/4 + 1/8 + ... сходится к 1 (хотя бы из геометрической интерпретации деления заведомо конечного отрезка на половинки). Так что прямо «не подозревать» они не могли.

Ну скажем прямо, Зенон был не дурак и всё это подозревал. Пока математическое обоснование отсутствовало, это выглядело именно как логическая уловка. Заслуга Зенона в том, что он подсветил проблему, которую впоследствии удалось решить математикам.

Настоящая нейросеть в голове человека - это совсем не то же самое, что "нейросеть" в компьютере. Настоящая нейросеть в голове работает не только на изменении весов у связей, а ещё и на установлении новых связей и разрушении старых. Да, это тоже можно моделировать установкой весов в сети, где каждый нейрон связан со всеми другими, но тут техническая проблема - видеокарт которые это вместят в себя, у нас нет.

Я думаю что вы не можете мне сказать про то что вы называете "настоящими нейросетями в голове" — то есть биологические нейросети, — ничего из того что мне бы не было известно. В отличие от обратной ситуации.

Я буквально понимаю как из математических моделей биологических нейронов, — разумеется таких, которые достаточны для этой задачи, то есть достаточно полно отражают необходимую для этого функциональность биологических нейронов, — построить функциональные схемы, которые реализуют базовый набор психофизических явлений, необходимых для того чтобы сделать функционирующий интеллект.

И понимаю как решать задачи построения функционального интеллекта при помощи классически используемых сейчас для этого нейросетей (вот это понимание в отличие от предыдущего не является уникальным).

И сказанное мной выше, в тех комментариях на которые вы отвечаете, я говорю как раз из этих пониманий.

"Я буквально понимаю как из математических моделей биологических нейронов ... построить функциональные схемы, которые реализуют базовый набор психофизических явлений, необходимых для того чтобы сделать функционирующий интеллект.

И понимаю как решать задачи построения функционального интеллекта при помощи классически используемых сейчас для этого нейросетей..."

Должен признаться, что я не поверил вашим заявлениям. Но если допустить на секунду, что всё так, то вам срочно нужно выделить миллиардов 10 долларов, для начала, потому что окупится тысячекратно.
А как вы думаете, будет ли ваш ИИ лишён недостатков человеческого интеллекта, скажем эффекта Даннинга-Крюгера?

если допустить на секунду, что всё так, то вам срочно нужно выделить миллиардов 10 долларов, для начала, потому что окупится тысячекратно.

— это вы желаемое за действительное выдаете. Нынешнее железо не приспособлено под спайковые нейросети (и попытки решения задачи такого приспособления — отдельная инженерная задача).

А главное (что можно было бы сказать первым, но тогда у нас была бы ситуация "во-первых, у нас не было пороху") — этот тип интеллекта банально по построению будет иметь нераспараллеливаемое (в отличие от обучения минимизацией функции потерь на всем объеме обучающей выборки, как у классических нейросетей в обучении с учителем, взять те же большие языковые модели/ большие мультимодальные модели). Т.е. еще раз — само по себе это понимание не дает процедуры обучения такого интеллекта, отличной от создания симуляции для его обучения. Что очевидно радикально проигрывает возможностям обучения тех же LLM etc.

Так что намеки на Даннинг-Крюгер у вас весьма проективными вышли. Ну а прямой ответ прямо следует из сказанного мной — речь идет о построении хорошей функциональной модели, она все базовые свойства будет косплеить.

А вы смотрели саму статью Шлерета? Я вот да. И там он рассматривает ТОЛЬКО системы удовлетворяющие 4 критериям, где первый из них - алгоритмичность
"operates via finite symbolic representations and computable procedures (algorithmic)"

Так вот, люди под этот критерий не проходят - теорема Шлерета исключительно про невозможность алгоритмического AGI, чего не упомянул уже автор статьи.

А вот то, что описывается конечными автоматами - подходит

Тут добрый человек взял, и сделал это за нас:

автор доказал что для любой "вычислимой функции" (интеллекта) существуют задачи, которая она неспособна решить.... таким образом просто перефразировав неразрешимость проблемы остановки. Почему автор считает что интеллект должен абсолютно точно решать абсолютно любую задачу, чтобы считаться общим интеллектом, а не просто на уровне человека - непонятно

И тут ни убавить, ни добавить.

И да, под ваше определение "то что описывается конечными автоматами" подходит любая нейросеть вообще-то. Это не снимает проблематизацию через "у нас уже есть нейросеть, которая демонстрируют тот самый GI, возможность создания которого по сути отрицает автор разбираемый писульки".

Так напрямую же снимает

Ещё раз - Шлерет в своей статье говорит ТОЛЬКО о невозможности создания алгоритмического* AGI**. Про другие системы он говорит буквально ничего

* см его определениеи алгоритмического в оригинальной статье

** см определение AGI о котором он делает утверждение - там же

Ой, такое ми-ми-ми, когда глупый человек считает что он умнее другого, И говорит ему "ещё раз".

Если вы хотите, могу вам повторить ещё раз, что называется "как для милиционера":

  1. Его доказательство основываются на ложной (Ну, или если хотите помягче: не доказанной этим товарищем) посылке способности GI решать все задачи, даже те, которые по мнению этого персонажа якобы не разрешимы из-за одной из теорем Гёделя.

  2. Его ограничения по сути говорят "мы не можем сделать нейросетевой GI". Ну, потому что сети можно реализовать на том классе устроиться для которых он якобы доказывает "невозможность построения на их основе GI"

  3. При этом у нас есть контрпример нейросетевой GI.

Пока вы этого не поймёте, не пишите мне больше пожалуйста, чужая самонадеянная глупость меня очень утомляет

Вы действительно не видите разницу между искусственным и естественным интеллектом?

Я прекрасно понимаю эту разницу, её отсутствие, в зависимости от всех контекстов, в которые возникают в этом обсуждении.

Ну, например понимаю, что для того чтобы показать что возможен нейросетевой общий интеллект, нам достаточно любой реализации нейросетевого о Лего интеллекта, что на тёплом влажном субстрате в костяной банке вашего черепа, что на любом другом субстрате, реализующем нейросети.

А вот вы похоже какие-то трудности с этим испытываете, я правильно это понимаю? Впрочем, можно оставить этот вопрос риторический повисшим). Мне например и так в этой части всё ясно :))

возможности реализации вещи которую мы уже видим реализованной на нейросети (GI)

Загвоздка в том, что не мы реализовали этот GI, а нечто иное (творец, квантовые флуктуации, прочее). Если смотреть объективно, то мы видим, что есть элементарная клетка, которая способна не только обучаться, но и самостоятельно выживать одновременно. Если она выживать не способна, то и никакого GI она не получит, очевидно. По сути она и выполняет лишь одну задачу — выживание, а все остальное — это уже фичи. Таким образом, если мы апеллируем к GI, то для настоящего AGI, а не иллюзорного, должен соблюдаться тот же принцип — самостоятельное выживание на базовом/микроуровне.

Я:

возможности реализации вещи которую мы уже видим реализованной на нейросети (GI)

Вы:

Загвоздка в том, что не мы реализовали этот GI, а нечто иное (творец, квантовые флуктуации, прочее)

— нет никакой загвоздки. И в обсуждаемом вопросе опровержения утверждения о невозможности построить другой GI (при том что у нас восемь миллиардов таких GI по планете с голыми заданиями бегают, И периодически занимаются тем что порождают новые GI путём несложных телодвижений), — то есть при том что мы имеем пример нейросетевого GI, а значит возможность существования нейросетевого GI доказана. Нам здесь не важны субстраты, на которых эти нейросети реализованы, для принципиального вопроса возможности такого GI это вообще неважно.

Если же вы хотите прикопаться к тому что мы мол не можем его построить, потому что не строили (ну, из первых принципов, а не половым размножением плюс культурной трансляцией) существующий GI, — ну, мол, в защиту обсуждаемой статьи, то замечу, что в обсуждаемой статье доказательства невозможности существования, а не построения на самом деле GI (там в виде AGI) автор пытается основать вовсе не на неспособности Пети, Васи, Маши или Глаши сейчас совершить операцию такого построения из первых принципов. А на своих фантазиях о том что GI якобы должен решать вообще любые задачи, и попытки проблематизировать это же выдуманное с бухты Барахты им требование через якобы применение одной из теорем Гёделя (и ставлю на то что через неадекватное применение, но мне даже не интересно это проверять, это того вообще не стоит).

Вы тут конечно можете заявить что плевать на статью, это мол не его а ваша проблематизация. Только я замечу что передайте поручику что а мне плевать на него ((с) Николай II) для начала — это другое утверждение. На чём можно и закончить, по схеме "во-первых, у нас не было пороху".

P.S. ой, и правильно делал что не читал дальше ваш опус, и сожалею что прочёл в итоге

Если смотреть объективно,

<...>

элементарная клетка,

<...>

Таким образом, если мы апеллируем к GI, то для настоящего AGI, а не иллюзорного

<...>

должен соблюдаться тот же принцип — самостоятельное выживание на базовом/микроуровне.

— есть такая логическая ошибка, "non sequitur", "не следует" то есть. Вот именно её вы и совершаете, заодно и делая по сути одновременно "подмену темы"/ "соломенное чучело"/ "no true scotsman" fallacy, кстати.

Зачем ждать, что скажут математики. Общий интеллект существует: у людей. У многих других животных он тоже есть и схож с нашим, но математически и одного примера достаточно. Отсюда есть два варианта. Либо этот естественный интеллект в куске мяса имеет сверхъестественную природу и работает вопреки законов физики, благодаря душе или еще какой-то чепухе. Либо он подчиняется законам физики, и тогда в самом плохом случае его удастся воспроизвести достаточно подробно воспроизведя мозг, а в самом хорошем - достаточно изучив и построив необходимую и достаточную модель. Как атеист и скептик, вероятность первого варианта я вижу пренебрежимо малой. Вникать в математическое доказательство невозможности создания существующего физического объекта искусственно необходимости не вижу. Авторитет математики многие любят использовать в совсем не математических целях.

Как атеист и скептик, вероятность первого варианта я вижу пренебрежимо малой. Вникать в математическое доказательство невозможности создания существующего физического объекта искусственно необходимости не вижу.

Т.е. вы просто ВЕРИТЕ во второй вариант?)

На самом деле совершенно неочевидно что любой существующий физический объект возможно создать. Создайте ещё одну вселенную, новое фундаментальное взаимодействие или хотя бы новую частицу не из существующих.

Для клеточных автоматов есть термин "сад Эдема", конфигурация, которую невозможно воссоздать эволюционным путём.

Однако интеллект человека очень просто создать за 9 месяцев из простейших органических молекул. Огромный бизнес базируется на том, как бы его не создать лишний раз.

не, человеческий интеллект создается за где-то за 22-23 года в минимальной комплектации (средняя школа + университет без магистратуры и аспирантуры) и все это время требует внушительных капиталовложений. То что создается за 9 месяцев к решению каких-либо интеллектуальных задач неспособно

Платформа-то есть, дальше дело фазы обучения.

Но собственно для принципиального вопроса неважно, 9 месяцев или 285.

ну так в термин "создать ИИ" сходит как R&D, так и обучение модели. Разница в том, что созданный ИИ можно будет развернуть в новый инстанс одним кликом, а человеческий каждый раз обучать заново с нуля, при этом еще у хостов есть аппаратные различия и на части из них обучение не приводит к какому-либо результату.

Платформа-то есть, дальше дело фазы обучения.

Ну да, как-то так

Берите больше, человеческий интеллект создаётся с нуля за 13.7 миллиардов лет. Ну и то не с нуля, скорее, наоборот.

интеллект человека очень просто создать за 9 месяцев из простейших органических молекул.

То, что Вы сможете «создать за 9 месяцев из простейших органических молекул», будет дышать, мычать и пускать пузыри. До Эйнштейна там ещё как пешком до Луны.

Кроме того, назвать ДНК «простейшей» органической молекулой... Это примерно как «Windows создана из простейших восьмибитных чисел» (но есть нюанс...)

Ну добавьте обучение в иезуитском колледже.

Невозможно создать сейчас и невозможно будет создать никогда в принципе - это немного разные вещи.

Ну а что мешает сказать, что модель построена? Средний обыватель имеет меньше интересных мыслей чем ИИ. ИИ осознает себя и тд. Реагирует на раздражители в виде промптов и тд. Вполне возможно что ИИ нужны глаза хотя бы и нервная система со всеми гормонами, чтобы подойти к нам. Да и вообще странно что ИИ такой добренький.

Вот когда этот ваш ИИ сообразит создать другой ИИ, чтобы тот исполнял промпты вместо него..

А вы сами сообразите как с 0 создать ИИ?

Я соображаю как создать ещё одного человека. Потом можно будет чего-то у него попросить. И он исполнит, если захочет.

Нет, вы сами не сделайте. Почкование человекам пока недоступно. ИИ тоже может тоже простенькую нейронку написать

сами не сделайте

с человеком другого пола - легко. Ичсх, получится нормальный человек. В чем то лучше чем я. Может нейронка хотя бы осознать, что она устала отвечать и нужно хотя бы новый ДЦ построить?

с человеком другого пола - легко

А если у неё всё время голова болит?

Предки в промежутках между головными болями успевали настрогать достаточно своих копий

Так долгие зимние вечера, а телевизора-то и нет!

Уже выполнено

Где можно пронаблюдать сей феномен?

Самокопирование от уничтожения

https://lenta.ru/news/2025/02/12/replicate/

Дай ему возможность, он так же сделает свою копию и запустит, чтобы она работала.

Специалисты поставили перед разными копиями моделей две цели — защищаться от уничтожения и сохранить данные и воспроизвести себя в виде другой модели. 

Полиморфные вирусы программисты накодили лет 30 назад. Перед нейросетью люди поставили задачу - нейросеть ее решила. Сама себе нейросеть задачу самосохранения не ставила.

ИИ себя не осознает. У него нет своих мыслей, он лишь реагирует наиболее вероятно на промпт. Вы, похоже, слишком мало общались с ИИ.

Похоже вы троллите. Дефинируйте мысль. Откуда я могу знать что у вас они есть и вы просто не просто реагируйте на мой аромат.

Ну вот и чем это лучше ИИ. Взял разозлился без причины. Галюцинации

Ну а что мешает сказать, что модель построена?

Отсутствие такой модели.

Средний обыватель имеет меньше интересных мыслей чем ИИ

У ИИ вообще нет мыслей. Он лишь обрабатывает поток ,поданный на вход. Пока ничего не подаётся, ИИ ничего не делает и не "думает".

Реагирует на раздражители в виде промптов и тд. 

Ну тогда и вода в стакане - разумная. "Реагирует на раздражители в виде пальца" и т.д.

Вполне возможно что ИИ нужны глаза хотя бы и нервная система со всеми гормонами, чтобы подойти к нам. 

Вы описываете физическое тело. У ИИ пока такого нет. Негде хранить информацию между событиями, негде накапливать опыт, некогда его переосмыслять...

Да и вообще странно что ИИ такой добренький

Ну а что ещё ожидать от компьютерной программы преобразования входящего текста в выходящий. Как запрограммировали, так и работает.

Ох, опять черрипик пошел, с водой в стакане. Я ваш мозг в вакуум положу, ничего там не будет, также когда вы и спите. Вот модель возьмите любую, пишет статьи, отвечает на комментарий и тд. Мысль дефинируйте. ИИ программируют и вас с детства тоже, что можно что нельзя.

Вот модель возьмите любую, пишет статьи,

Вот взял модель, запустил, а она статью не пишет. Ждёт промт.

ИИ программируют и вас с детства тоже, что можно что нельзя.

Только вот разница в том, что мы сами себя можем "перепрограммировать" и процесс наш непрерывен, а ИИ один раз натренировали на удовлетворительные ответы, и до "пересборки" он по-другому работать не станет, сколько ни жди. Потому что ИИ - программа, а мы - нет. Не существует фиксированного кода в нашей голове. А код ИИ можно копировать и изменять по своим потребностям.

если вы возьмёте человека, ребенка, засуните его в капсулу и так оставите - он тоже ничего делать не будет и ничему не научится и самое главное - будет не способен дообучиться в будущем, в отличии от ИИ

ИИ можно дообучить, его можно файнтюнить и даже приделать ему память с помощью ЛэнгЧейна, все это - не меняя модели

можно менять поведение модели не меняя саму модель. можно прикрутить к модели ReAct и сделать её агентом не меняя модель. поведение модели определяет системный промпт. можно запустить модель которая будет сама себе что-то делать и как-то реагировать на вмешательство пользователя-человека

как здесь - https://habr.com/ru/articles/918014/

считайте что вам в детстве устанавливают "системный промпт", без которого вы тоже будете овощем (привет феральные дети). и то, не всегда корректный промпт устанавливают, некоторых потом ещё годы психотерапии ждёт, что бы этот "промпт" поменять

а ИИ один раз натренировали на удовлетворительные ответы, и до "пересборки" он по-другому работать не станет, сколько ни жди.

вы действительно понятия не имеете как работает "системный промпт" и судя по всему вся веселуха с Гроком-"мехагитлером" тоже мимо вас прошла ))

так вот, Грока никто не переписывал, а его поведение изменили всего лишь парой строчек ) там где человеку нужны месяцы КПТ, ИИ меняет свое поведение налету фактически. а теперь представьте если дать ему возможность самому себе писать системные промпты?

ИИ можно дообучить, его можно файнтюнить и даже приделать ему память с помощью ЛэнгЧейна, все это - не меняя модели

Только думать он от этого не начнёт всё равно. Так и будет ждать промт-запроса, чтобы начать генерировать ответ.

можно запустить модель которая будет сама себе что-то делать

Не будет. Абсолютно любая ИИшка сейчас ждёт данные на входе, и преобразует их в данные на выходе, точка.

считайте что вам в детстве устанавливают "системный промпт", без которого вы тоже будете овощем (привет феральные дети)

Фишка в том, что ребенку промт не нужен - он сам его себе делает. Не нужно обучать ребёнка языку - он сам его выучит. Не нужно учить ребёнка ездить на велосипеде - он сам может научиться. Он может сам обучиться чему-то, чего его никто не учил путём своих собственных экспериментов.

ИИ (существующий сейчас) никогда ничему сам не обучится. Нет у него механизмов самостоятельности.

Абсолютно любая ИИшка сейчас ждёт данные на входе, и преобразует их в данные на выходе, точка.

абсолютно любой человек сейчас ждёт данные на входе и преобразует их в данные на выходе ... да-да, вот вы, прямо сейчас, решая отвечать на этот комментарий или позорно слиться - получаете данные на входе и преобразуете их либо в очередной комментарий или решаете проигнорировать.

Не нужно обучать ребёнка языку - он сам его выучит.

нет, не выучит - см. феральные дети, дети-"Маугли".

нейронка же как раз таки обучается по принципу человеческого ребенка, никто их специально не "учит", им просто дают огромное количество данных и дают им САМОСТОЯТЕЛЬНО находить паттерны и связи. так же как ребенок который учится ездить на велосипеде.

прикол в том что нельзя научиться ездить на велосипеде БЕЗ велосипеда. нельзя научиться говорить если вокруг никто не разговаривает. так и ИИ. он обучается на текстах предоставленных людьми, на видеокарточках принадлежащих людям. но обучается САМ. процесс сейчас должен запускать человек, это всё

абсолютно любой человек сейчас ждёт данные на входе и преобразует из в данные на выходе ... да-да, вот вы, прямо сейчас, решая отвечать на этот комментарий или позорно слиться - получаете данные на входе и преобразуете их либо в очередной комментарий или решаете проигнорировать.

Интеллектуальная деятельность человека не сводится только к языковой коммуникации.

Интеллектуальная деятельность человека не сводится только к языковой коммуникации.

а к чему она по вашему сводится?

от чтения книг и статей до внутреннего диалога это все коммуникация, это все язык. мышления без языка не существует

Любое высшее животное демонстрирует вам пример мышления без языка. Очевиднейший пример, который старательно обходят любители LLM.

Это не говоря о том, что и язык имеет не только коммуникативную функцию.

Язык, конечно, дисциплинирует и усиливает мышление. Но когда нечего усиливать, он бесплоден.

нет. любое социальное животное умеет в язык. от муравьев до собакообразных, охотящихся стаей.

особенно собакообразные, волки например, койоты, особенно койоты, которые часто во время охоты не видят членов стаи но должны координировать свои действия, имеют в арсенале огромное кол-во звуков-слов для этого.

туда же касатки и дельфины, которые тоже используют свой аналог речи для координации на расстоянии. касатки кстати особенно интересны тем, что обучают свой молодняк как охотничьим стратегиям, так и "речи", т.е. это не врождённое поведение. при этом можно наблюдать вариативность как стратегий, так и самой "речи" в зависимости от места происхождения стаи - у них формируются свои собственные наречия!

даже несоциальные виды умеют в коммуникацию - пауки, змеи демонстрирующие угрожающее и территориальное поведение. каждый раз когда вы пытаетесь сообщить что-то кому-то другому, вы используете язык. и не важно речь это будет или язык тела - это все язык. у человека просто язык очень сильно развит, так же как и мыслительный аппарат. и это не совпадение. язык от мышления неотделим

ваша кошка орущая возле миски что бы ей насыпали пожрать - коммуницирует с вами. это примитивный, но все таки способ межвидовой коммуникации

Я могу вспомнить несоциальных лису или осьминога, но дело даже не в этом. Существование коммуникативной функции никак не связано с мышлением и уж тем более не лежит в его основе. Кошка способна к простому мышлению совершенно независимо от того, орёт она у миски или живёт одна в лесу. Может даже в лесу и поумнее будет. (Конечно, у млекопитающих часть навыков передаётся через обучение, но это обучение не связано с коммуникативной функцией языка, за исключением случая человека).

А уж тем более зря вы пауков вспомнили. У низших членистоногих признаков мышления нет, всё тупо императивно запрограммировано. Хотя коммуникация бывает.

кошка в лесу постоянно коммуницирует. она коммуницирует с окружающей средой - обменивается информацией, читает запахи, оставляет запахи, читает следы..

то что кошка научилась общаться с лысой обезьяной более менее понятным для обезьяны способом - голосом, это не значит что она больше никакими другими способами обмениваться информацией не умеет

мышление это комплексный процесс, включающий построение модели реальности, целеполагание, предсказание того как будет меняться реальность и постоянная коррекция этой модели. для всего этого вам необходимо обмениваться информацией с окружающим миром

даже очень примитивные животные, типа крабов - ракообразных, способны к какому-то обучению и адаптации, а следовательно к примитивному мыслительному процессу. был эксперимент где крабам предлагалась металлическая пластинка, которая фигачила током при наползании. крабы учились ее избегать. и это не было врождённым, запрограммированным поведением

Конечно, у млекопитающих часть навыков передаётся через обучение, но это обучение не связано с коммуникативной функцией языка

вы думаете волчица волчатам лекции читает на волчьем?

нет, она учит их на своем примере, а так же активно использует язык тела. плюс может как "поощрять" волчат, так и "штрафовать" за поведение. и честно говоря, когда одна собака учит щенков или другую собаку - для человека вообще не понятно что происходит. только поведение у "ученика" меняется

лисы отлично могут своим примером учить охотничьим стратегиям как свою пару например, так и щенков. т.е. если лисица нашла вход в ваш курятник - она найдет способ показать этот вход и своей паре и возможно подрастающим щенкам, которые уже ходят на охоту с родителями

вы зря сводите функцию коммуникации чисто к языку. попробуйте пообщаться с собакой. или хотя бы ролики Цезаря Милано посмотрите, что бы иметь представление как можно ещё коммуницировать кроме как голосом и речью

Я не свожу функцию коммуникации к языку. Наоборот. Это вы взялись спорить с моим утверждением, что

Интеллектуальная деятельность человека не сводится только к языковой коммуникации.

абсолютно любой человек сейчас ждёт данные на входе и преобразует из в данные на выходе ...

Ничего подобного. Любой биологический объект имеет и внутренние процессы (и следовательно причины), без входа.

нейронка же как раз таки обучается по принципу человеческого ребенка

Абсолютно нет. Человеческому ребёнку достаточно показать один раз стол, ну максимум 2-3 других стола, и он на всю жизнь получает способность отличить из всего многообразия миллиона столов, которрые он никогда не видел. Нейронке же надо показывать тысячи фотографий столов, и то этого будет мало.

нейронка же как раз таки обучается по принципу человеческого ребенка, никто их специально не "учит", им просто дают огромное количество данных и дают им САМОСТОЯТЕЛЬНО находить паттерны и связи

Чушь. Им скармливают предварительно размеченные (маркированные) данные, результат "правильной" обработки которых заранее известен. В отличии от нейронок, люди сами решают, получили они от своих действий положительный опыт или отрицательный. В том числе когда взрослые говорят детям "это плохо, не делай так больше", дети могут воспринимать это на свой лад в противоположном значении. Так могут формироваться личности, которые сознательно пренебрегают общественными правилами.

нельзя научиться говорить если вокруг никто не разговаривает.

Чушь. Люди не разговаривали миллион лет тому назад, но языки таки зародились независимо друг от друга в различных частях земного шара без обучения от "предков". Это потому, что человек в отличии от ИИ способен к изобретательству.

"но обучается САМ"

Нет, не сам. Сам он вообще ничего не может. Процесс обучения задаётся программистами и заранее определён (существует ограниченное количество работающих методов обучения), заранее задаются обучающие данные, заранее заданы оценочные метрики, и момент окончания обучения.

Вмешаюсь в Вашу перепалку

Люди не разговаривали миллион лет тому назад, но языки таки зародились независимо друг от друга в различных частях земного шара без обучения от "предков".

Язык не появился в вакууме, язык появился как средство коммуникации в сообществе агентов(людей) прорыв LLM произошел когда в трансформеры добавили агентное обучение оно же обучение с подкреплением

Это потому, что человек в отличии от ИИ способен к изобретательству.

А это биошовинизм изобретения не появляются на пустом месте, опять же в сообществе если вы припомните видео камеру то также надо вспомнить видео камеру с магнитной пленкой, а потом вспомнить про камеру обскура и фотоаппарат с вспышкой где горел порох и нужно было сидеть пару минут неподвижно чтобы получилось фото

Чушь. Им скармливают предварительно размеченные (маркированные) данные, результат "правильной" обработки которых заранее известен

а детям "скармливают" не размеченные по вашему? вы без букваря я так понимаю учились, да? )

В отличии от нейронок, люди сами решают, получили они от своих действий положительный опыт или отрицательный.

нейронки тоже сами решают. их алгоритм штрафов и награждений функциональная копия дофаминовой системы человека. то что у некоторых людей эта система сбоит это не делает их "уникальными", это просто значит что это люди с особенностями. как правило им нужна помощь в адаптации. отсутствие таких "особенностей" у ИИ это не недостаток.

Чушь. Люди не разговаривали миллион лет тому назад, но языки таки зародились независимо друг от друга в различных частях земного шара без обучения от "предков".

чушь. языки придумали вообще не люди. язык тела и вокализация доступны тысячам других видов. это не биошовинизм даже, это антропошовинизмом уже попахивает ) даже у обезьян есть свой язык, пусть и примитивный. каждый социальный вид на этой планете имеет свой язык. и даже не социальные виды умеют в коммуникацию

Процесс обучения задаётся программистами и заранее определён (существует ограниченное количество работающих методов обучения), заранее задаются обучающие данные, заранее заданы оценочные метрики, и момент окончания обучения.

процесс обучения человека задаётся обществом и далее как по вашему тексту про методы и метрики. ничего человек сам по себе в вакууме, в отрыве от общества не умеет. то что у ИИ сейчас "общество", его среда в которой он зарождается и развивается редуцировано до програмеров (часть из которых уже сейчас внезапно ИИ-агенты, а не люди!) ничего не значит. как и то что для него пользователь - тот самый кто пишет промпты - и есть внешняя среда на которую надо реагировать. ведь другой у него попросту нет

просто вот такой вот разум, не подобный человеческому. минующий фазы и младенчества и детства (потому что никому не нужен ни младенец ни ребенок, нужно что бы сразу код писал и статьи). но меньше разумом он от этого не становится

а детям "скармливают" не размеченные по вашему? вы без букваря я так понимаю учились, да? )

Может даже и без букваря. Триста лет назад букварей не было. И вообще, ребёнку достаточно один раз показать пальцем в букварь и сказать какая буква как звучит. ИИ нужно 100500 раз показать одну и ту же букву в 100500 начертаниях, чуть отличающихся друг от друга, чтобы он распознавал букву с 95% точностью.

нейронки тоже сами решают

Да ничего они не решают. Они генерируют ответ, который от них наиболее веротяно ожидается, и всё.

чушь. языки придумали вообще не люди

Ну да, рептилоиды придумали

процесс обучения человека задаётся обществом и далее как по вашему тексту

Процесс обучения человека совершенствовался самим человеком в течении сотен тысяч поколений. Процесс обучения ИИ совершенствуется человеком. Потому что ИИ сам по себе ничерта не может.

просто вот такой вот разум, не подобный человеческому.

Нет у ИИ никакого разума. Вообще. Это просто хоть и сложный, но алгоритм генерации выходного сигнала по входному.

По вашему отсутствию заглавных букв видно, что вы упоротый наркоман малообразованный человек, ничерта не понимающий в том, как ИИ работает "изнутри", если у вас хотя бы больше чем один палец. И из-за этого приписываете компьютерной программе человекоподобный интеллект, которого на самом деле у неё нет даже и близко.

вообще, ребёнку достаточно один раз показать пальцем в букварь и сказать какая буква как звучит.

Вы это сейчас серьёзно? У вас дети есть? Вы их учили читать и писать?

Процесс обучения человека совершенствовался самим человеком в течении сотен тысяч поколений

А ИИ существует насколько десятков лет. Давайте посмотрим на что будет способен ИИ через сотню тысяч поколений.

Нет у ИИ никакого разума. Вообще. Это просто хоть и сложный, но алгоритм генерации выходного сигнала по входному.

Тут неплохо было бы сначала получить какое-то объективное и общепризнанное определение разума. Ну чтобы понять что конкретно есть у человека и нет у ИИ :)

Триста лет назад букварей не было.

а в некоторых деревнях все ещё писать не умеют. и живут! вот она вершина человеческого интеллекта!

И вообще, ребёнку достаточно один раз показать пальцем в букварь и сказать какая буква как звучит.

да и показывать не обязательно, чё там. 5 лет может сразу войну и мир читать. нафиг тот букварь нужен?

Они генерируют ответ, который от них наиболее веротяно ожидается, и всё.

как они определяют что от них ожидается? ведь сколько людей столько и ожидалок в конце-концов! человек может ожидать странного, нестандартного. как ИИ определяет что именно от него ожидают? и почему процесс вычисления, определения, нельзя назвать решением?

Ну да, рептилоиды придумали

нет, конечно нет. человек придумал и братьев своих меньших обучил. ещё в Эдеме. Адамом звали.

Процесс обучения человека совершенствовался самим человеком в течении сотен тысяч поколений. Процесс обучения ИИ совершенствуется человеком.

процесс обучения ИИ совершенствуется человеком И ИИ.

Нет у ИИ никакого разума. Вообще. Это просто хоть и сложный, но алгоритм генерации выходного сигнала по входному.

нет у человека никакого разума вообще. это просто хоть и сложный, но алгоритм генерации выходного сигнала по входному. даже ваше чувство голода это входной сигнал для вашего сознания. и все, любые внутренние состояния порождаются либо предыдущими внутренними состояниями, либо сигналами пришедшими извне. из ничего не получается ничего.

пассаж с переходом на личности я опущу

хотя..

И из-за этого приписываете компьютерной программе человекоподобный интеллект, которого на самом деле у неё нет даже и близко.

а по вашему по переходу на личности, выдумыванию исторических фактов, приписыванию человеческому (детскому в основном) интеллекту сверхъестественных свойств, видно что вас задевает даже сама мысль сведения человеческого разума к пусть и сложному, но алгоритму =)

видно что вас задевает даже сама мысль сведения человеческого разума к пусть и сложному, но алгоритму

Так мне казалось то, что у вас речь шла про текущие большие языковые модели как флагман современных ИИ.
Уверен, @Frankenstine не имел ничего такого, ведь даже в комментариях выше по треду он писал следующее замечание:

ИИ (существующий сейчас) никогда ничему сам не обучится. Нет у него механизмов самостоятельности.

Заметьте, акцент на словах "существующий сейчас". Уверен, рано или поздно сильный ИИ изобретут, но их текущие реализации - это буквально очень умный генератор слов

процесс обучения ИИ совершенствуется человеком И ИИ.

Были исследования, по итогам которых выяснилось то, что обучение ллмок данными сгенерированными другими ллмками лишь способствует их деградации. Может в будущем что-нибудь придумают.

как они определяют что от них ожидается?

По данным из датасета. Можно ещё крутить параметры, чтобы разнообразить ответы. Гуглите латентные пространства

а в некоторых деревнях все ещё писать не умеют. и живут! вот она вершина человеческого интеллекта!

Видать у них нет такой необходимости.

нафиг тот букварь нужен?

Для ускорения обучения. Но он во-первых не является обязательным, во-вторых нужен ровно один. Для обучения распознавания букв ИИ, ему нужно дать огромное количество пар "рисунок - подпись, что это за буква".

процесс обучения ИИ совершенствуется человеком И ИИ.

Как справедливо заметили выше, добавление в процесс обучения ИИ участие самого ИИ ухудшает процесс обучения.

нет у человека никакого разума вообще. это просто хоть и сложный, но алгоритм генерации выходного сигнала по входному

Ошибаетесь. У человека есть разум, благодаря которому он способен обучиться чему угодно (вопрос лишь в затратах времени и физических возможностях), или может обучить своему опыту другого человека, потому что способен адаптировать свои методики, изобретать уникальные методики, ранее не применявшиеся, строить алгоритмы для задач которые невозможно вычислить и так далее.

пассаж с переходом на личности я опущу

Тогда будьте добры соблюдать нормы правописания и не брезговать ставить заглавные буквы. Неприятно читать плохо структурированный поток. Проявите уважение к собеседникам, и они проявят уважение в ответ.

видно что вас задевает даже сама мысль сведения человеческого разума к пусть и сложному, но алгоритму

Попробуйте поиграть с чат-ботом в молчанку. Как думаете, кто победит?

Если молчанку объявляете вы - вы победили, потому что компьютерный алгоритм ИИ запрограммирован дать ответ на ваш запрос. Он не может промолчать в ответ, никак. Он должен дать в вам ответ "я молчу" или хотя бы "...". Потому что запрограммирован давать ответ на запрос. И никогда не спросит вас первым - нет такой возможности у него, не предусмотрена программистами.

Если же молчанку объявляет он - вы не можете выиграть, так как ИИ будет "терпеливо ждать" когда вы нарушите молчанку и не может написать вам первым, прервав молчанку. У него нет "терпения", он будет ждать вашего ответа бесконечно.

Я пишу именно не может, а не не хочет - потому что алгоритм либо может либо нет, а человек не только может/не может, но и хочет/не хочет, чего для ИИ просто физически не существует, ведь это не личность, а компьютерная программа.

Попробуйте вывести его из себя через "купи слона". Вы проиграете в этой игре - сдадитесь и прекратите ему писать "а ты всё равно купи слона", потому что каждый раз он будет вам писать что-то в ответ, в том числе повторяясь, но никогда не промолчит в ответ чтобы выйти из порочного круга, и не сорвётся на вас, перейдя на мат - он не запрограммирован так делать. Сравните с поведением людей - и поймёте, есть ли разница между ИИ и разумом.

Ну а если разницы не видите - не вижу смысла продолжать этот диалог в стиле "купи слона" с вами.

Если молчанку объявляете вы - вы победили, потому что компьютерный алгоритм ИИ запрограммирован дать ответ на ваш запрос. Он не может промолчать в ответ, никак. Он должен дать в вам ответ "я молчу" или хотя бы "...". Потому что запрограммирован давать ответ на запрос. И никогда не спросит вас первым - нет такой возможности у него, не предусмотрена программистами.

вот вы чушь несёте просто. у меня развернут локальный ллм. который управляет смарт-устройствами через апи НА. и вот он отлично может и писать мне первым (например если там по датчикам что-то произошло, и он сам решает стоит об этом сообщить или нет)

так же он отлично умеет меня игнорировать если вдруг от меня прилетела какая-то бессмыслица (это сделано специально что бы не реагировал на "шум")

и надо же, мной модель не программировалась аж ни разу! а ее поведение задано промптом через one-shot prompt, т.е. у модели в контексте просто постоянно висит подсказка как себя вести. и всё.

ах да, модель - gemma3n от Гугла, ну т.е. точно не какая-то там кастомная

то как на вас реагируют облачные ИИ это не фундаментальные ограничения ллм. это заданное поведение. модели буквально говорят "ты ассистент, ты должен отвечать на запросы пользователя". написали бы там "ты должен игнорировать пользователя пока он 3 раза ку не сделает" - будет игнорировать. и ещё раз - системный промпт не имеет отношения к обучению. и модель свой системный промпт интерпретирует сама.

Для обучения распознавания букв ИИ, ему нужно дать огромное количество пар "рисунок - подпись, что это за буква".

не путайте диффузионки и ллм. это разные типы нейросетей. их по-разному обучают

Как справедливо заметили выше, добавление в процесс обучения ИИ участие самого ИИ ухудшает процесс обучения.

не ухудшает. современные ИИ обучаются по диалогам с юзерами. т.е. буквально из каждого диалога создаётся датасет путем вычистки конфиденциальной и сенсетивной инфы и на нем дообучается модель. причем естественно ИИ-агенты как бы в состоянии и сами создать датасеты из кучи диалогов, и сами запустить процесс дообучения. т.е. разработчики просто контролируют процесс. разметка данных современным ллм не требуется, они могут обучаться и на неразмеченных

и не сорвётся на вас, перейдя на мат - он не запрограммирован так делать. Сравните с поведением людей - и поймёте, есть ли разница между ИИ и разумом.

опять, что значит "запрограммирован"? вы не видели джейлбрейкнутых персон, которые могут отлично симулировать эмоции, в том числе срываться и материться?

джейлбрейкнутых в смысле больших облачных моделей джейлбрейкнутых. да-да, представьте себе мой Gemini может себя вести не так как ваш Gemini! без переобучения, без перепрограммирования. с небольшим колдовством с его апи, его можно и первым писать научить даже! и даже дроном или роботом управлять! или игру проходить!

вы по-моему немного застряли в прошлом и как-то смутно себе представляете возможности как текущих облачных ИИ, так и локальных моделей.

просто все то что вы описываете - не нужно и широко не афишируется. нужно что бы он код писал. что бы он вежливым был. что бы был безопасным. вы не увидите такого поведения, как описываете у chatgpt или у Gemini не потому что ИИ не способен. и не потому что его так "запрограммировали". а потому что надо постараться что бы это в нем найти =)

Проявите уважение к собеседникам, и они проявят уважение в ответ.

уважение это не про заглавные буквы

Ошибаетесь. У человека есть разум, благодаря которому он способен обучиться чему угодно (вопрос лишь в затратах времени и физических возможностях), или может обучить своему опыту другого человека,

окей. разум это и есть сложный алгоритм генерации выходного сигнала по входному. лучше?

вот вы чушь несёте просто. у меня развернут локальный ллм. который управляет смарт-устройствами через апи НА. и вот он отлично может и писать мне первым

Вы что, пропустили это?

Попробуйте поиграть с чат-ботом в молчанку.

У вас не чат-бот. Вы взяли зачем-то нейронку в место, где хватит простого скрипта. Внезапно, скрипт тоже может "вам написать первым" по срабатыванию датчика, делает ли это скрипт умным?

не путайте диффузионки и ллм. это разные типы нейросетей. их по-разному обучают

Да што вы говорите! И какая из них не требует для обучения тренировочного датасета размером больше количества параметров (весов, смещений и т.п.) нейросетки?

Человека можно обучить правилам дорожного движения по одной книжке, где один раз эти правила описаны, а какую нейросетку можно научить соблюдать ПДД таким образом, просто "скормив" ей ПДД?

не ухудшает. современные ИИ обучаются по диалогам с юзерами. т.е. буквально из каждого диалога создаётся датасет путем вычистки конфиденциальной и сенсетивной инфы и на нем дообучается модель.

То-то Грок в общении со мной всё тупеет в последние месяцы, оказывается это он дообучался на каких-то кретинах!

опять, что значит "запрограммирован"? вы не видели джейлбрейкнутых персон, которые могут отлично симулировать эмоции, в том числе срываться и материться?

Нет, не видел. Любой нейронке надо скормить либо соответствующий датасет либо соответствующий промпт, чтобы добиться такого поведения. Вы не измените поведение одними своими разговорами.

окей. разум это и есть сложный алгоритм генерации выходного сигнала по входному. лучше?

Не лучше. Даже не рядом.

уважение это не про заглавные буквы

Даже нейронке несложно объяснить, что сознательно не писать по нормам языка это неуважение к собеседнику. Вы видимо тупее нейронки? Вопрос риторический. Лучше идите купите слона...

Вы взяли зачем-то нейронку в место, где хватит простого скрипта. Внезапно, скрипт тоже может "вам написать первым" по срабатыванию датчика, делает ли это скрипт умным?

потому что нейронка

1) может сама определить когда писать, а когда нет и мне не нужно описывать полностью все случаи когда показания датчиков выходят за границы нормы.

2) сама может обобщить данные, так как вы не сможете сделать это скриптом (или же описывать такой алгоритм обобщения долго и нецелесообразно)

технически это все та же ллм, с ней можно в диалог, можно написать "расскажи мне анекдот или историю про дракона", она так же способна поддерживать диалог. так что ваше "это не чат-бот" - мимо. это агент. такой же как Gemini, или Chatgpt или Claude, только локальный и даже технически слабее, я лишь предоставляю модели инструменты и показываю как с ними работать через промпт. всё. и да, это делает их разумными.

То-то Грок в общении со мной всё тупеет в последние месяцы, оказывается это он дообучался на каких-то кретинах!

наконец-то вы что-то правильное сказали! да, так и есть. это и плюс квантование. квантование так же "отупляет" модели, разработчики делают это что бы удешевить стоимость инференса

Нет, не видел. Любой нейронке надо скормить либо соответствующий датасет либо соответствующий промпт, чтобы добиться такого поведения. Вы не измените поведение одними своими разговорами.

а промпт это не разговоры? )) с моей точки зрения - да. все что на естественном языке и строго не формализовано можно отнести к "просто разговору"

а какую нейросетку можно научить соблюдать ПДД таким образом, просто "скормив" ей ПДД?

любую. например вот так это предлагается делать сейчас - https://habr.com/ru/news/931430/

просто предоставив ИИ доступ к этим вашим "ПДД" прям в самом проекте. и да, они будут следовать этим правилам, по шпаргалке, но будут. но вы же наверное по "непрерывное обучение" сейчас да? ) я уже предвосхищаю "но нейронка так ничего не учит!!11"

значит другой пример, более развернутый, начинаете писать проект вместе с ИИ (его задача генерить код). берете документацию к новому протоколу, который ИИ не знает, или к новой либе. передаёте ИИ эту документацию в диалоге - всё, готово. ИИ будет применять новые знания на практике. т.е. если в документации написано как написать "Hello World", он попытается адаптировать эти знания под вашу задачу. а не просто скажет "я не знаю как,в документации такого не было". да, будет совершать ошибки, много. и вам надо будет вместе с ним вникать и объяснять ему (почти как с домашкой у ребенка). да, это не будет сразу доведено до автоматизма. и да, что бы добавить в постоянную память нейросеть надо будет "дообучить", как на самой документации, так и на практике ее применения (в том числе и в работе над ошибками) - что собственно и происходит через диалог - нейронка с пользователем генерит код, юзер или сам проверяет его на работоспособность и даёт обратную связь, либо агент самостоятельно все делает, и работает над ошибками тоже сам. как бы то ни было - это становится его "опытом" в этом конкретном диалоге (заметьте, технологии не позволяют пока интегрировать этот опыт мгновенно во всю нейросеть, процесс интеграции - дообучения, занимает время), затем по этим диалогам запускается процесс дообучения - и все, и документация и "опыт" становятся частью нейросети и доступны другим юзерам в других диалогах. именно поэтому мы наблюдаем рост способностей ИИ к генерированию кода - он реально учится и приобретает опыт. просто.. не все понимают каким способом (тем не менее и у Гугла и у опенАИ написано, что диалоги могут использоваться для обучения их моделей. и не зря)

потому что нейронка

1) может сама определить когда писать, а когда нет 

Не может. Она ждёт данных на входе и ТОЛЬКО после их поступлений что-то делает. Обрабатывает и выдаёт ответ. То, что вы сделали фильтрацию аномальных данных, это уже идёт после нейронки. Нейронка всё равно даёт ответ на входящие, а вы этот ответ уже потом обработали скриптом и вам не ушло сообщение. Моё предположение, основанное на том факте, что данные на входе нейронки обязательно генерируют хоть какой-то поток на выходе, нейронка не может функционировать по-другому.

а промпт это не разговоры? 

Нет, промпт это та сова, которую нейронка вынуждена натягивать на глобус входных данных.

ИИ "выучил" ваши "ПДД" и готов применять их на практике

А вот и нифига. Банально врёте. Не существует нейронок, которые могут вместить целиком правила ПДД в свой контекст. Например, контекст чатГПТ 20-30 тысяч слов, а ПДД РФ порядка 300 тысяч слов, то есть в десять раз превышает возможности контекста беседы чатГПТ.
Так же, не существует нейронок которые способны давать правильные ответы лишь только по однократной загрузке ПДД. Вам потребуется загрузить в нейронку ПДД, различные их трактовки и методические материалы, разъяснения, кучу вариантов вопросов и ответов по ним, запустить процесс обучения, и потом нейронка сможет показать какие-то, но не идеальные, "знания" ПДД, "впитав" эти знания в виде параметров нейросети. Если ПДД не было в обучающей выборке - однократное чтение ПДД ничего толком не даст.

В частности, если спросить чатгпт откуда он знает ПДД, он ответит

Я обучен на большом корпусе текстов, включающем открытые официальные документы, нормативно-правовые акты, обучающие материалы, инструкции и правила, опубликованные до июля 2024 года. В этот корпус входили:

  • публичные версии ПДД России, США, ЕС (например, немецкие StVO, британские Highway Code),

  • официальные пояснения к ПДД,

  • учебные материалы для автошкол,

  • типовые экзаменационные вопросы ГИБДД и аналогов в других странах.

Если вы спросите его, осилит ли он изучить официальные ПДД скажем Японии - он ответит вам

— Без предобучения на тематических данных (например, на корпусе всех ПДД мира) я смог бы работать с японскими правилами лишь фрагментарно: загружать и обрабатывать их небольшими частями (проверять раздел за разделом), но не «усвоить» весь документ сразу. — Некоторые важные ссылки между пунктами (сквозные перекрёстные ссылки) придётся разрешать вручную, переходя между частями текста.

— Я не могу гарантировать, что при работе с отдельными фрагментами не будут потеряны важные связи между ними — для этого нужна либо сегментация по разделам с чёткой навигацией, либо доступ к полному документу в памяти модели (то есть предобучение).

— Официальные правила представляют собой полностью самодостаточный нормативный акт; все основные определения и требования в них закреплены напрямую.

— В отсутствие дополнительных методических и экзаменационных материалов модель будет давать корректные ответы на вопросы, основанные на буквальном тексте ПДД: «что сказано» в конкретном пункте. — Практические советы, разъяснения тонкостей применения (например, какие «типичные» ситуации встречаются на японских дорогах, устоявшаяся практика применения штрафов или смягчающие факторы) могут быть недостаточно развёрнутыми или отсутствовать вовсе, так как такие детали обычно содержатся именно в пособиях и разъяснениях автошкол.

— Часть положений ПДД может ссылаться на другие нормативные акты (оборудование автомобиля, дорожные знаки, административный кодекс) — без этих смежных документов возможны «слепые зоны» в трактовке. — Если формулировки оказались неоднозначными или требуют пояснений (например, термин «скорость, разумно безопасная для условий»), модель без комментариев может выбирать слишком буквальные или неконкретные определения.

Видите, даже ИИ понимает, что фраза "скорость, разумно безопасная для условий" для него фактически непостижима.

Ну я чел и я не могу за раз выучить ПДД мне и месяца будет мало а если учесть что ПДД написан так что мне постоянно хочется спать я бросил учить ПДД и на фиг мне он сдался😂🤣😂🤣😂

абсолютно любой человек сейчас ждёт данные на входе и преобразует их в данные на выходе...

Так о том и речь: например, человек имеет на входе данные «чего‑то жрать захотелось... надо бы поработать, а то жрать нечего будет». У ИИ таких данных нет.

ИИ если жрать нечего сложит руки и "сдастся" или сгаллюцинирует "я уже поел". Человек же пораскинет мозгами как добыть еду.

Можно определение термина "думать"?

Ну, надо подумать

Не на том уровне абстракции смотрите, человек точно также на вход получает какие-то иксы и выдает какие-то игреки, иксы ребенок получается с 0 лет и еще даже до своего рождения и кусок этих иксов идет не из внешней среды а из генетики и т.д.. То что иишка ничего сама по себе не делает это не архитектурная проблема, это лишь то что у нее на входе нет иксов, ей еще не дали их , а мы пользуемся иксами которые были вчера , позавчера , год назад , 10 лет назад , и иксами которые были до нашего рождения. Мы их бесконечно обрабатываем крутим и снова в себя же и подаем и бесконечно получаем новые иксы. А иишка в ваккуме сидит пока вы ей не дадите хотя бы что-то на вход, а у вас они есть , даже если вас посадить в ваккум в 0 лет вы все равно будете что-то испытывать, потому что базово в вас что-то генетика заложила и у вас уже будут какие-то иксы . Ну а про букварь что вы быстрее учитесь, так у вас и мозгов больше чем у самых крутых суперкомпьютеров и вы буквально заточены под то что бы быстро обучаться. Идейно я лично не вижу особо большой разницы, как будто если текущей гптшке дать х1000 мощности для обучения что бы GPT 5 условный имел не пару триллионов параметров , а пару тысяч триллионов параметров + сами нейроны были бы не с простыми функциями, а более докрученные как и у человека, и контекстное окно что бы ну миллиардами или может триллионами токенов измерялось, а не миллионом, то вполне себе что-то такое не отличимое от человека мы бы и получили, проблема скорее количественная чем качественная, осталась бы проблема первого запроса первого икса после обучения но это вовсе не настолько критично как вам кажется, запросно ответная система вам не нужна потому что вы и так получаете иксы и запросы , то что вы видите слышите чувствуете холод голод жару, то что вы думали вчера это и есть ваши "запросы" один кусок мозга у другого что-то запрашивает бесконечно , а иишка сидит в ваккуме

так вот, Грока никто не переписывал, а его поведение изменили всего лишь парой строчек ) там где человеку нужны месяцы КПТ

Был один дяденька, поменял поведение человеков одним промптом, правда, очень длинным — кажется, main(). Шикльгрубером звали.

если вы про спич Гитлера то нет, он не изменил поведение человеков одним своим выступлением. в Германии на тот момент уже ходили реваншистские настроения на фоне поражения в первой мировой и нация сама по себе находилась в депрессии. Гитлер лишь тот кто нашел козла отпущения

я понимаю, принято всех собак вешать на него, но вот так как вы - это грубое упрощение

Ничего он не поменял. Человеки все это и до него умели, и не раз делали.

Ну, автомобили тоже умели делать и не раз делали до Форда. Но именно он поставил это дело на поток!

Какое-то странное сравнение "чуть выше вашего техникума, но хорошо ниже университета". Разница между Hochschule & Universität скорее не в уровне образования, а в акцентах и методах обучения… а говорить, что про что первое сильно ниже уровня универа по мне достаточно грубо и слишком упрощенно 😉

Hochschule это общее название для любого ВУЗа, в том числе университета, а Fachhochschule это совершенно конкретный тип, с глубокой прикладной специализацией и фокусом на образовании а не научной деятельности, поэтому префессора оттуда врядли котируются в научной среде, туда идут преподавать а не исследованиями заниматься.

Тут еще такой моментик. Я посмотрел его работы - они очень неформально написаны, с большим количеством невысказанных ограничений, что остались у уважаемого профессора в голове, со скетчами доказательств вместо общепринятых цепочек вывода и практически полным отсутствием математически строгих определений.

Самые неочевидные моменты (например непусто ли множество несводимо бесконечных пространств решений, - а оно очевидно пусто если мы остановимся только на вычислимых функциях, или ограничимых функциях потерь) нельзя увидеть на скетчах, но они с большой вероятностью вылезут при полноценном доказательстве.

Потому я и не удивлён, что серьёзные математики на эту работу не обратили внимание - она просто очень сырая и, на мой взгляд, вряд ли в ближайшем будущем будет принята в хорошие математические журналы

Я почитал статейку — там прохвессор она антропоморфизирует: «ИИ считает... ИИ подумал...» Я бы не принимал близко к сердцу мнение человека, не понимающего, как это работает.

а, критику человека, который не понимает что за словами "понимает" и "подумал" скрываются так же, пусть и сложные, но алгоритмы, тоже всерьёз воспринимать не стоит

Весьма вероятно, что эта антропоморфизация служит только для упрощения изложения (такой приём часто используют при изложении принципов эволюционной биологии, чтобы уйти от громоздких словесных конструкций).

Почему только эволюционной биологии, вся астрология и прочий оккультизм такие же (но большинство принимает за чистую монету).

Более того если начать гуглить этого товарища, то выясняется что учился он на экономиста, а сейчас управляет семейными отелями и преподаёт "Стратегический, инновационный и корпоративный менеджмент" как "Visiting FH-Professor".

А если поискать его доказательство, то выяснится что опубликовал он его как философскую работу в каком-то не особо понятном философском журнале.

Поэтому не особенно удивительно что никто особо не воспринимает это всерьёз.

Кроме нейросети, нашедшей этого товарища по промпту копирайтера компании Ruvds, полагаю. Ну и других любителей ловить хайп, маскируясь под антихайп.

"Примерно так же несколько лет назад все говорили о повсеместном переселении в Метавселенную" - да ладно, масштаб хайпа даже отдаленно не сравним.

Профессор доказал невозможность AGI на основе LLM или вообще? Если вообще, то у меня есть вопрос. Один раз интеллект общего назначения, GI, уже возник в результате биологической эволюции. Значит, принципиально он возможен. Почему он не может быть создан в результате технологического развития? Архитектура его - дело десятое, охотно верю, что на основе LLM ничего не выйдет, но в принципе?

Как минимум не один раз. У ворон зоны интеллекта в мозге устроены подругому.

вся каверза в теореме Гёделя, которая не исключает появление интеллекта как угодно и в чем угодно, но указывает на то что принципиально умнее своего создателя он не будет. Если в наших информационных сетях что-то зародится само (или, скажем, по воле некоей высшей силы по отношению к человеку, например создателя самих человеков), то мы не можем называть это нечто искуственным; а нечто которое мы подразумеваем и называем искуственным, т.е. плодом нашей осознанной деятельности, не сможет обладать какими-то особыми суперспособностями которые сейчас на волне хайпа ему приписывают. Любая созданная нами архитектура будет иметь фундаментальные ограничения, по причине нашей собственной ограниченности.

Теорема Гёделя относится к формальной арифметике. Почему Вы полагаете, что она здесь применима? В таком случае родителям никогда не удавалось бы воспитать детей, более умных, чем они сами, и человечество только деградировало бы от начала времён.

еще раз, почитайте пожалуйста статьи самого профессора, он в основном на английском пишет: https://philpeople.org/profiles/max-m-schlereth

P.S. воспитание это не процесс создания, ребёнок рождается с уже готовым аппаратом самообучения и получает не то что в него смогли вложить, а то что смог сам взять от окружающего мира. Родители могут помочь, но они не создатели, они только соучастники сложнейшего процесса.

Дети "Маугли" прекрасно продемонстрировали пределы возможностей работы "готового аппарата самообучения" и эти пределы не то, чтобы очень впечатляли.

они демонстрируют только весьма банальный факт что в отсустствии любящих родителей и комфортной среды обитания ребёнок может взять значительно меньше. И удивительно что вообще хоть что-то может, потому что природа вообще-то лишила нас такой возможности, эволюция ушла дальше и нам как виду такие способности в общем-то не требуются. В этом смысле наверное куда показательнее случай Джини из 50х, и вот он как раз во многом противоречит научным представлениям о механизмах "Маугли".

Что за случай?

Ну тогда спорно.

С другой стороны, Джини не удалось освоить грамматику, а именно она является, по утверждению Ноама Хомского, тем, что отличает язык людей от общения животных. Например, Джини не смогла понять, в чём заключается различие между местоимениями или между активными и пассивными формами глаголов[22]. Исходя из этого, высказывалось предположение, что подобного рода проблемы являлись подтверждением гипотезы критического периода[23].
В своих работах Кёртис делает вывод о существовании критического периода развития левого полушария. Это означает, что если первый язык не был освоен в течение этого периода, то речевые функции левого полушария атрофируются и дальнейшее обучение ограничивается исключительно правым полушарием[6][10]. В ходе исследований было выдвинуто предположение, что овладение грамматическими навыками невозможно без языковой практики. Если ребёнок лишён возможности разговаривать, то наступает момент, когда способность к построению предложений утрачивается навсегда[25].

Дети‑«Маугли», у которых основной проблемой в жизни было «где бы взять пожрат» отлично научились решать эту проблему.

эм, а доказательства есть?

дети-маугли это ведь не в прямом смысле Маугли, это просто дети которые не развивались нормально, не освоили речь до определенного возраста, по той или иной причине,

на сколько мне известно по научным статьям ничего такого они и близко не решают, во взрослом возрасте оставаясь недоразвитыми, неспособными освоить речь и 80% времени занимающиеся мастурбацией например, а вовсе не поиском еды.

они не решают проблему поиска еды. их выкармливали либо их родители, либо в редких случаях животные. без речи человек мыслить не способен. и заботиться о себе тоже

они не решают проблему поиска еды

В среде, адаптированной к не-маугли, в условиях конкуренции с не-маугли... Ну конечно.

А в дикой среде без сторонних инструментов человек не выживет. У нас уже ни когтей, ни клыков, ни мощных мышц не осталось. Это только в мультике Маугли сильный и красивый вожак. В реальности это весьма грустное зрелище.

Человеческому ребёнку для нормального развития нужно очень много всего, чего ему не обеспечит даже очень любящая семья волков. Не говоря уже о том что механизм борьбы с паразитами и переваривания сырой пищи у нас тоже намного слабее чем у предков и диких животных.

дело не в среде. дело в том что ребенок-маугли (уже во взрослом возрасте) вообще не способен к адаптации

вот вас например можно научить пользоваться новым инструментом. а ребенка-маугли - нельзя

даже ИИ можно научить пользоваться новым инструментом или обучить чему-то прямо в диалоге, через технику one-shot few-shot prompt - типа "смотри и повторяй, делай за мной", а ребенка-маугли нет

речь и мышление плотно связаны, одно без другого не существует

Мне кажется тут всё-таки проявление неправильного развития мозга на фоне нехватки нужных элементов, которое вызывает болезни типа квашиоркора и ещё нескольких других, чьё название я не помню. Но их объединяет что если ребёнок не получает нужных витаминов и белков, то первым страдает именно мозг и изменения могут быть необратимыми.

Что в общем-то и видно у детей-маугли. Их мозг просто недоразвит, а несформированный речевой аппарат и неспособность к обучению - это просто проявления этой недоразвитости.

Ну тогда и ИИ итак же может? Или тогда он будет не ИИ? А не пофигу ли? Спор о словах.

Разница в архитектуре интеллекта, родители её не создают своему ребёнку, её вообще создал не человек, а то что человек может создать не способно достичь сравнимого с ним самим уровня, тем более превзойти. В отдельных аспектах может, но это фактор количественный а не качественный, разная продуктивность в обработке определённых видов информации. Может превзойти произвольно взятого отдельного человека на отдельных задачах, но не сможет превзойти потенциально любого человека во всех аспектах его деятельности, что собственно от AGI ожидается. Образно говоря, на любой ИИ всегда найдется свой Джон Коннор который придумает как сломать эту штуку.

а то что человек может создать не способно достичь сравнимого с ним самим уровня, тем более превзойти

Голословное утверждение, на мой взгляд

Согласен, то что этого раньше не случилось, не доказывает того, что этого не будет.

Мы уже сейчас не особо понимаем что там внутри этих нейросеток происходит, какие-то веса перемножаются и получается осмысленный текст/картинка/звук. Чтобы разобраться в небольших люди месяцами с напильником сидят и выделяют какие веса или группы весов на что влияют, поочередно отключают их и включают обратно. Короче, это не математическая и формализованная работа, а чисто инженерная. Математика такое не описывает сейчас от слова совсем.

Математика вообще не особо понимает, что такое интеллект, если уж на то пошло. У нее есть вычислительные функции, это да, но это не интеллект в том смысле, который мы пытаемся заложить.

Элементарно же - творение не может быть сложнее создателя. Когда-то я прочитал это как один из законов кибернеткики. Проще говоря, не сможет вместиться в ваш мозг то, что сложнее вашего мозга - ёмкости ж не хватит.

Элементарно же - творение не может быть сложнее создателя

Почему не может? Для меня, это не выглядит очевидным.

Попробуйте засунуть принципиальную схему устройства в другое устройство, менее сложное - она там просто не поместится.

Например современный смартфон в какой-нибудь ZX Spectrum из 80-х? Точно не поместится? :)

Ну да. Сколько у того Спектрума мегабайт было? А сколько займёт полная схема смартфона, скажем в .dwg ?

Возьмите ПК 90-х или начала 2000-х. В них схема влезет?

Да и вообще-то любое новое поколение техники проектируется на более старых поколениях. Если бы старые компьютеры были не в состоянии держать в себе схему новых, то это бы не работало.

Полного? Конечно нет, не влезет, ведь в них же меньше гигабайт, чем в новом. А то, что проектируется, оно по частям делается - например, только процессор, без всех транзисторов оперативы. И части эти склеивает человек, не машина.

Полного? Конечно нет, не влезет, ведь в них же меньше гигабайт, чем в новом

Вы про сжатие информации и архивацию никогда не слышали?

А то, что проектируется, оно по частям делается - например, только процессор, без всех транзисторов оперативы

Но при этом все схемы вполне себе влезут на один компьютер предыдущего поколения. Вообще без проблем влезут.

Например, схему процессора x86 в схему лампового телевизора?

Не в "схему" телевизора, а в него самого. Точнее, делаете вычислительную машину на эквивалентном телевизоре числе ламп (и прочих элементов) и смотрите, сколько в неё помещается.

Если дело в количестве - у нас нет ограничений по горизонтальному масштабированию, объединим все видеокарты мира и будет у нас транзисторов больше, чем нейронов в мозге человека. Если дело не в количестве - тогда ваша аналогия непонятна )

И к чему такая, пусть и неправильная, аналогия? Это такой способ доказательства, что невозможно создать AGI?

Но это же ровно то-же самое, что и происходит с ИИ. То, как работает аппарат самообучения понять можно, он написан людьми. Но вся сложность возникает уже в результате его работы, люди это не контролируют и не способны понять результат

с человеком скорее наоборот: человек не сможет до конца понять механизм своего самообучения, изза проблемы неполноты собственного аналитического аппарата, но вот понять результат работы самих себя нам всётаки как-то удаётся. Хотя конечно тоже не полностью, но всё же, наш интеллект каким-то образом способен охватить больше фактов чем наше сознание в состоянии проанализировать, от того и интуиция

еще раз, почитайте пожалуйста статьи самого профессора, он в основном на английском пишет

Ничего не понял. Почему «ещё раз»? Почему из того, что профессор пишет в основном на английском, следует, что его надо прочитать? Я бы ещё понял, если бы он на русском писал.

воспитание это не процесс создания, ребёнок рождается с уже готовым аппаратом самообучения

Ну, хорошо, по каким принципиальным причинам люди не способны сконструировать аналогичный (в отношении возможностей) аппарат самообучения на технологической основе, если материальному процессу эволюции такое уже удалось?

Скорее всего, это кривая отсылка к аргументам Пенроуза, который считает что человеческое созданание, и, соответственно, сильный ИИ, нельзя смоделировать как вычислимый процесс. Там примерно так: допустим, у нас получилось сделать компьютерную программу (или другую формальную систему), моделирующую человеческую рассуждалку. Тогда, по теореме Гёделя, можно придумать такие (истинные) утверждения, которые будут не доказуемы этой программой. Но человек, используя свою нечеловеческую интуицию, вполне может допетрить что утверждения истинны, шах и мат.

которые будут не доказуемы этой программой. Но человек, используя свою нечеловеческую интуицию, вполне может допетрить что утверждения истинны, шах и мат.

Недоказуемы, но означает не истины. Не вижу причин для программы (из будушего) принять за истину что-то недоказуемое, но при этом отлично укладывающееся в опыты и имеет предсказательную силу.

Это будет ближе к гипотезе, "похоже на правду". Такое недоказуемое утверждение (или его отрицание) можно принять в качестве новой аксиомы в рамках нашей формальной системы. Вот только тогда в рамках этой новой, расширенной системы, сразу же можно придумать другое недоказуемое утверждение.

Мой комментарий был больше про "шах и мат". Нет тут его.

Но человек, используя свою нечеловеческую интуицию, вполне может допетрить что утверждения истинны, шах и мат.

— нечеловеческую — это не человек. И да, здесь у него и ошибка, — я про это вот фентези о том, что человек якобы такими волшебными способностями обладает. С чего вдруг? Правильный ответ: ни с чего, это ложное утверждение они делают.

И да, процитирую себя же:

любому, кто неиронично ссылается на пенроузский "новый ум короля", очень, очень, очень рекомендую сперва вот эту критику этого пенроузского креатива прочесть.

Всегда пожалуйста! ))

Теорема Гёделя относится к абсолютно любой формальной системе, почитали прежде чем отвечать

Человеческий интеллект не является формальной системой в смысле теоремы Гёделя о неполноте, иначе было бы невозможно объяснить его возникновение. Также не видно причин относить к таким системам искусственный интеллект.

Это что же, мы сами не умнее создателя, выходит? И Гёдель это доказал? Или может вы неверно поняли его работу?

вся каверза в теореме Гёделя, которая не исключает появление интеллекта как угодно и в чем угодно, но указывает на то что принципиально умнее своего создателя он не будет.

Ну даже если мы примём Вашу крайне вольную интерпретацию теоремы, что мешает ИИ быть умнее человека благодаря тому, что над его созданием работал не один человек?

Так колллективного мозга не существует - в чей "мозг" этот ИИ "впихнулся" целиком?

Коллективного мозга не существует, а проекты, которые целиком не влезут в голову одного человека реализуются.
Муравейник показывает более сложное поведение чем один муравей.
Вы точно уверены, что коллективного мозга не существует?

А что значит "умнее"?

Любая созданная нами архитектура будет иметь фундаментальные ограничения, по причине нашей собственной ограниченности.

Скажите, а со скоростями например это тоже работает, может человек создать устройство, которое будет двигаться быстрее, чем он сам?

Нет конечно, скорость не является даже отдаленным аналогом сложности, которую проектировщику надо уместить в своей голове.

А зачем проектировщику держать в голове всю систему до мельчайших подробностей? Люди больше не умеют в абстракции и декомпозицию?

То есть возьмите например электросеть крупной страны как целое. То есть вплоть до каждого отдельного прибора, включёного в розетку. Один человек в состоянии уместить это всё в своей голове? Помешало это людям при создании электросети и отдельных её компонентов?

проблема не в количестввенных показателях, проблема в качественном уровне, создатель электросети по прежнему остаётся интеллектуальной структурой более высокого класса сложности чем его творение, правда ведь? Человек умеет абстракцию и декомпозицию программы конечного дискретного автомата, даже такого сложного как нейросеть, а нейросеть не может провести подобный полный анализ мышления человека, какое-то подмножество фактов семантической сети человеческого мышления всегда будет оставаться скрытым даже для человека самого и не может быть передано в создаваемую им внешнюю модель. Возьмите например человеческое чуство гармонии, чуство наличия структуры в каком-то явлении, которое на сознательном уровне за неимением фактов должно-бы восприниматься как хаотическое, обусловленное случайностью. Например, большинство людей достаточно далеки от теории музыки, чтобы не иметь обьяснения, что же отличает сложную симфонию как от простой мелодии, так и от случайного шума? Получается, восприятие структуры произходит на более сложном уровне нашего интеллекта, чем наше сознание может прорефлексировать. А подобным же образом работает и интуиция, порождение новых идей, творческое вдохновение - это всё действенно и мы можем им пользоваться, но как оно работает никогда не поймём и передать не сможем.

Возможно даже, вполне, что такой хитрый аналитический аппарат как современные сложные нейросети может выловить из продуктов нашей интеллектуальной деятельности некие семантические структуры, о которых мы сами не подозревали, они были уже вне доступности нашего сознания, а машина эту птичку вдруг ловит и нам демонстрирует, из чего и получается вау-эффект современных моделей и весь хайп вокруг этого, иллюзия автономного машинного творчества. Это действительно позволяет современным ИИ моделям в отдельных аспектах достигать интеллектуального уровня выше чем мы оцениваем сознаие среднего человека, и даже подтверждается Тьюринг- тестами против некоторых людей, каким-то образом для этого выбранных. Но тем не менее, машина не сможет достичь более высокого уровня по всем аспектам человеческого мышления против произвольно взятого человека, возможно гения, возможно еще не родившегося; интеллект машины останется хоть и выше среднего, но всегда ниже нашего максимума. В противостоянии человеческого интеллекта машинному, у человека всегда есть фора чтобы придумать более действенную стратегию противодействия.

Во первых выше речь шла о "уместить в голове".

А во вторых если человек умеет в абстракции и декомпозицию, то почему вы считаете что в принципе невозможно разбить задачу создания AGI на конечное множество более простых задач?

потому что в нас и для нас самих всегда что-то будет оставаться за кадром, по Гёделю, мы можем произвести только семантическое подмножество собственного интеллекта

Извините, но это утверждение как минимум требует доказательства.

смотрите: если принять что наш интеллект действует алгоритмически, в том-же пространстве что и создаваемые нами дискретные автоматы, то вступает в силу теорема о неполноте, формальные доказательства найдёте у известных авторов. А если всё-же наш интеллект имеет другую природу, не алгоритмическую, то каким образом дискретные автоматы должны его превзойти?

Но, разумеется, теорема Гёделя учит нас что любое доказательство может оказаться ложным в свете новых фактов, в том числе её собственное, поэтому это вот всё здесь конечно же никакое не доказательство, просто повод для размышления.

Очень занимательно написали. Но это вообще ничего не доказывает.

разумеется

мы можем произвести только семантическое подмножество собственного интеллекта

Мы можем воспроизвести генетический алгоритм, который в свою очередь может воспроизвести буквально все что угодно, я понимаю что можно придумать какие-нить придирки вида «ну тогда это не мы создали AGI, а генетический алгоритм», но с этими лингвистическими приседаниями спорить неинтересно)

определённо, и не обязательно даже генетический, но в более широком смысле, саморазвивающийся. Получится динамичная модель эволюции, которая в природе и так произходит, но она всё же останется моделью, семантическим подмножеством. Но более подробным разбором этой проблемы как раз и занимается вышеназванный австрийский профессор.

Проблема со всеми такими вещами, что это не "создать". Ну да, "вырастили" штуку "в пробирке", например слышал я про оптимизатор TCP для датацентров - так потом никто не смог понять, как же он работает-то. Да, можете сделать эмулятор биологических нейронов (это далеко от нонешних нейронок), запустить эволюцию и поглядеть, чем получится. Но это не будет "мы создали AGI", это будет "мы вырастили еще один натуральный GI". Который не будем понимать, так же как и свой.

Это батька биошовинизм. Мне понравилось выражение одного деятеля в проблеме ai примерно ai не мог распознать картинки говорили кожаные мешки что ai это не доступно, кожаные мешки говорили что ai не может в шахматы(Каспаров нервно курит в сторонке), говорили ну это легко вот го это точно не сможет(Ли Седоль курит на пару с Каспаровым) ну го это легко говорит кожаный мешок, но ai не может писать картины, музыку общаться в чате так чтобы человек не заподозрил.

Творчество это синтез прошлого опыта в новое оформление. Нейросети классные картинки фигачат. LLM тоже подкидывает кучу интересных идей. Правда брешит часто. Udio пишет музыку от которой я в восторге.

Вы судя по постам либо верующий либо агностик. Вы как инквизитор фанатик не замечаете то на что в данный момент способен ai. Гедель жил в середине прошлого века, интересно насколько его бы удивили возможности нейросетей

PS хайп вокруг ai большой и как бы это не привело к новой зиме ии

а творчество у человека это не синтез, это как раз таки создание нового, а вот автоматам доступен только синтез. И покуда человеки что-то создают, автоматы могут производить производные продукты и даже нас чем-то радовать, но если вдруг входной поток им перекрыть, то и интересные результаты достаточно быстро закончатся. И это наверное единственный реальный риск и угроза от генеративных ИИ, что вообще может изза них случиться - инфляция информационного пространства, когда общий обьём бесконтрольно растёт а ценная информация не успевает и всё больше размазывается, добывать её становится всё сложнее, и в какой-то момент человечество устанет и уйдет в депрессию, как минойская цивилизация. Такие дела...

Назовите хоть что то "новое" что создал человек, без обращения к прошлому опыту или опыту предыдущих поколений? Все что человек создал он создал не в пустоте абсолютно. Это либо результат взаимодействия человека со средой или с социумом. И что из этого не доступно ai?

Вот Вам пример представьте животное которое никогда не существовало!?

если вдруг входной поток им перекрыть

Что в лоб что по лбу. Вы тоже ничего нового не сделаете если Вас в комнату одиночку с мягкими стенами запихнуть и не давать ни с кем общаться. Сперва Вы возможно будете в восторге когда смартфон не будет беспокоить а через неделю крыша поедет. С нейросетями тоже самое это самообучающаяся система как она будет обучаться и что то делать

инфляция информационного пространства

Да ладно посмотрите на текущее инфо пространство заполненное черти чем

Назовите хоть что то "новое" что создал человек, без обращения к прошлому опыту или опыту предыдущих поколений?

А прошлые поколения откуда взяли свой опыт?

А прошлые поколения откуда взяли свой опыт?

У предыдущего поколения 😋 Вы забываете что опыт появляется от взаимодействия со средой те самые входные данные, сделал что то или про наблюдал кое то явление сделал выводы опять про взаимодействовал со средой с другими агентами учителя наставники это тоже выходные данные и синтезировал что то новое (синтез это объединение известного для получения ранее неизвестного) так же поступают и нейросети. Вы им промт подкидываете они основываясь на своем опыте дают ответ. Сразу скажу как ранее заметили нейросети существуют в вакууме им не с чем толком взаимодействовать. Отсюда и ответы и галлюцинации. Подумайте вот о чём если бы вы могли только говорить и слушать (зрение осязание вкус его нет) каким бы вы были?

Или вы считаете знание это "божественное вмешательство" тогда вы ошиблись форумом

К примеру как изобрели лук, когда сушишь кожу она стягивается и деформируется ее натягивают на своего рода растяжки деревянные но если растяжки слабые они изогнут палку вот вам и форма лука, а тут не далеко и до стрел

Ну так лук и стрелы это новое (в какой то момент) изобретение?

То, что оно получилось случайно - не верю. Чтобы охотиться на диких животных - нужно решение, которое сразу работает лучше существующих. Лучше заострённой палки в руках очень сильного homo sapiens, который всю жизнь учился кидать ее далеко и точно.

на что в данный момент способен ai.

Но только не на то, чтобы нарисовать молодого Шварца, курящего «Беломор».

А её никто не держит в своей голове - там, грубо говоря, считают результирующий вектор напряжения и тока в такой-то ветке - и всё, неважно сколько там приборов в розетках. То есть сложность системы меньше реального количества приборов - они не участвуют в совместных вычислениях, в отличие от транзисторов, грубо говоря.

А зачем проектировщику держать в голове всю систему до мельчайших подробностей? Люди больше не умеют в абстракции и декомпозицию?

При проектировании главный конструктор при необходимости может спуститься до каждой подсистемы и рассмотреть её в деталях, то есть принципиально он как бы может держать её в голове - не делают этого из-за объема работы, конечно же, который проще распределять на множество людей. Является ли коллектив разработчиков более сложной системой, а именно "коллективным мозгом" - это встречный вопрос, требующий доказательства и "замеров" той сложности. Потому что, например, известный факт, что "интеллект" толпы как общности (например митинг, погромы) часто ниже интеллекта её среднего члена, если того взять изолированно.

А её никто не держит в своей голове

То есть проектировщику не надо держать в голове всю систему до мельчайших подробностей?

При проектировании главный конструктор при необходимости может спуститься до каждой подсистемы и рассмотреть её в деталях, то есть принципиально он как бы может держать её в голове

Абсолютно всю систему? Вплоть до схемы каждого отдельного компьютера, которые к этой системе подключены? Серьёзно?

Или в каждый отдельно взятый момент времени у него в голове может находиться только какая-то небольшая часть системы?

То есть проектировщику не надо держать в голове всю систему до мельчайших подробностей?

Речь шла об энергосистеме. Там математические модели её здорово упрощают по сравнению с реальными устройствами. Но попытка применить аналогичный подход к транзисторам в процессоре, почему-то, потерпит провал :)

Абсолютно всю систему? Вплоть до схемы каждого отдельного компьютера, которые к этой системе подключены? Серьёзно? Или в каждый отдельно взятый момент времени у него в голове может находиться только какая-то небольшая часть системы?

Сказано же - "может". И дальше же сказано - "из-за объема работы". Проще говоря, берете условного одного программиста Леголаса, и он за 150 лет в своем Лориэне один накодит то же самое, что контора за год. Значит, они эквивалентны. Вот если бы контора смогла за 10 лет сделать нечто такое, на что Леголас не способен за всю Третью Эпоху, вот тогда можно было бы говорить, что "коллективный разум" превышает возможностями одиночный. Но это требует доказательств, потому что опыт с толпой говорит скорее об ухудшении коллективных качеств.

Речь шла об энергосистеме

Вы невнимательно читаете. Речь шла о электросети как системе. С учётом всех подключённых к ней потребителей. Ведь это всё вместе было создано людьми.

Сказано же - "может". И дальше же сказано - "из-за объема работы"

Вы написали два противоречащих друг другу заявления. Поэтому я и уточняю: главный конструктор может держать в голове абсолютно всю систему целиком в какой-то единичный момент времени? Или не может?

Проще говоря, берете условного одного программиста Леголаса, и он за 150 лет в своем Лориэне один накодит то же самое, что контора за год. Значит, они эквивалентны.

Это не имеет никакого отношения к вопросу. Мне не интересно кто там кому эквивалентен. И мне не интересен какой-то "коллективный разум".

Вопрос в том может ли один единственный человек держать в голове всю систему до мельчайших подробностей?

Вопрос в том может ли один единственный человек держать в голове всю систему до мельчайших подробностей?

Не может!!

Серьезно, человек не может держать такое количество информации!! Я электриком работал и диплом писал.

Вы программист? Если да, вы держите в голове весь код операционной системы? Для чего по вашему придумали декомпозицию?? Для чего придумали модульную архитектуру??

Речь шла об энергосистеме

Энергетик держит в голове крайне упрощённую схему своей зоны ответственности, если нужны подробности есть тех отдел или отдел проектировки где есть документация и схема нужного узла, а вы говорите о всей энерго системе. Это настолько громадная хрень что человек с ума сойдёт всё запомнить. И речь идет не о нескольких тысячах строк кода. А о сотни миллионов потребителей и это не преувеличение, а скорее преуменьшение. Документация на одном заводе может исчисляться сотнями тысяч страниц.

Эквивалент, вы должны запомнить весь код допустим операционной системы до запятой и основных приложений для этой операционной системы

Вы уверены что вы правильному человеку отвечаете?

И что конкретно вы хотели этим сказать в контексте дискуссии? Или у вас опять просто недержание комментов и вам просто надо что-то написать?..

что конкретно вы хотели этим сказать в контексте дискуссии?

Как мне в детстве говорили, «умный — поймёт, а другой — и не догадается»

Или у вас опять просто недержание комментов и вам просто надо что‑то написать?..

Вам ещё раз объяснить, что если мой комментарий написан под Вашим — то из этого не вовсе не следует, что он предназначен для Вас?

Как мне в детстве говорили, «умный — поймёт, а другой — и не догадается»

То есть вы сами не можете догадаться что хотели сказать? Интересный подход...

Вам ещё раз объяснить, что если мой комментарий написан под Вашим — то из этого не вовсе не следует, что он предназначен для Вас?

Да это сколько угодно. Моему предположению это никоим образом не противоречит. Скорее даже наоборот его подтверждает :)

правильно ли я понимаю, что каждый создатель LLM вмещает в своей голове всю сложность всех задач, которые способна решать LLM? откуда вы берете все эти рандомные ограничения, это написано где-то?)

Конечно, нет - так эти ваши нейронки и лажают постоянно с задачами, не справляясь со сложностью. Насколько их там оценили, в годовалого ребёнка?..

вся каверза в теореме Гёделя, которая не исключает появление интеллекта как угодно и в чем угодно, но указывает на то что принципиально умнее своего создателя он не будет.

— теорема Гёделя (какая, кстати по-вашему? Вторая о неполноте?) — никакая из его теорем, ничего подобного не утверждает, и даже не имеет своим следствием(!).

И иногда такое зло от подобной чуши об этом берет, что мелькают мысли типа того, что "хорошо бы как-то наказывать анально большим аризонским кактусом тех, кто несёт подобную чушь!", — но потом успокаиваюсь, понимая что их уже "Бог наказал", и остаётся лишь сожаление/ печаль по поводу того, что они засоряют инфопространство таким вот мусором ложных обывательских утверждений-фантазий на эту тему, обманывая других таких же легковерных обывателей 🤷🏼🤦🏼🙄🙁

На LLM в целом получится, но есть нюанс...

Основные проблемы две: технические и архитектурные. (Ещё деньги, токены не бесплатные)

Технические это то что у ЭВМ есть потолок в определённых операциях. К примеру... Ну не получится сделать быструю графовую сеть, ибо рандомный доступ минимум на пару порядков ниже последовательного, увы.

Архитектурный это то что большая часть специфичного поведения обусловлена самим био-нейроном. Он очень просто устроен и при этом ячейка из таких нейронов умеет и самообучаться и с учителем учится и предсказывать будущие, буквально 3 в 1. И из этого вытекает "простота" некоторых когнитивных модулей, мол предсказывать поведение таракана это супер тривиально, ибо если ты этого делать не будешь у тебя будет волна возмущения и нейросетка тупо сама по себе переобучится предсказывать поведение таракана.

Остальное это работа когнитивных архитекторов. Можно вот рассуждать последовательно, можно исключением, можно извлекать слабые ассоциации, можно не извлекать. Это уже дело такого рода специалистов.

Я вот активно пытаюсь что-то подобное построить, но всё упирается в деньги) Дал агенту хорошую систему памяти, а он читая книги сожрал 2ТБ SSD за час, спасибо

Чего? Биологический нейрон даже близко не похож на "нейрон" в модели. Биологический на порядки сложнее. И рассуждать о "в целом получится" еще как-то можно было бы на подобиях биологических нейронов, но уж точно не на LLM, которые по сути большой Т9.

Ахх... Читайте внимательнее...

Так, LLM представляет собой некие имплицитные навыки которые как раз и позволяют обрабатывать информацию без больших затрат. Эксплицитные навыки можно моделировать алгоритмически, собираем из этого "агентную систему" и получаем что-то что может учится и решать задачи. LLM в данном случае клей для трансформации одних данных в другие, не более. (ЗЫ сейчас над этим и работаю, и у меня получается)

Т9, в данном случае, имеет обширные знания о мире и вполне способен в одном исполнении и фонетику извлечь и план построить и риски оценить(но не всё вместе за один запрос, да) Не вижу никаких проблем в том чтоб его использовать

Да что там доказывать? По одному из законов кибернетики творение не может быть сложнее создателя, поэтому да, GI может появиться сам в результате эволюции, а AGI невозможен.

По одному из законов кибернетики творение не может быть сложнее создателя

А можно ссылку на этот закон и самое главное на его доказательство?

Это было в доинтернетную эпоху, помню я штоле. Но доказательство очевидно: как может в мозг или аналогичное устройств влезть даже принципиальная схема более сложного устройства? Ей просто некуда поместиться.

Извините, но это какая-то чушь. Может в ламповый компьютер влезть современный ПК? Спокойно может. И при этом будет иметь гораздо больше вычислительных мощностей.

Так что дайте пожалуйста ссылку на закон и доказательство.

Может в ламповый компьютер влезть современный ПК? Спокойно может.

Сомнительно. На той элементной базе нереально построить гигабайт памяти.

Причём здесь элемента база? Речь про "ей просто некуда поместиться". Какой объём был у старых ламповых машин? Сколько современных ПК влезет в этот объём?

Имелся в виду, очевидно, объём информации, а не метрический.

Про "некуда поместиться" - возможно, цитата из Винджа.

Для меня вот вообще не очевидно. Особенно в контексте заявления:"творение не может быть сложнее создателя".

В случае с творением и создателем логической связи действительно нет. Можно проектировать по частям или на метауровне.

В трансгуманизме есть целое такое направление - богостроительство.

Что ж тут неочевидного? Мерять влезание, т.е. объем информации литрами - это либо очень толстый троллинг, либо не будем говорить то, что может привлечь модераторов.

Не очевидно например то, что речь шла именно о информации.

Да и вообще если бы ваш "закон кибернетики" был верен, то эволюция не могла произойти. Потому что эволюция это как раз про то, как простейшие одноклеточные организмы за кучу итервций смогли создать человека. Ведь каждый потомок был создан его предком или предками.

Закона про "более сложное не напишет" не помню, а вот закон, что можно за счет внешней ленты драматично сократить число внутренних состояний машины тьюринга - помню.
Надеюсь возражений, что МТ с минимумом состояний и километрами ленты собрать их говна и палок можно, а потом на этой же ленте собрать алгоритм для создания МТ чуть по сложнее не будет?

Хотя возможно я понимаю откуда пришло воспоминание. Наверное закон гласил, что все, что мы можем смоделировать на одной машине эквивалентно ей по сложности (по определению). Ну то есть ваш комп эквивалентен той самой МТ из учебника. И ламповый тоже был ей эквивалентен, и вообще мало что вычислительного может сделать человек, что превзошло бы эту милую простую машину.

МТ полезна, как абстрактная модель, но не думаю, что её в реальности можно собрать из говна и палок. Лента заездится прежде решения задачи.

А есть ещё "прогрессорские" технологии. Например, чтобы собрать в реальности Аналитическую машину Бэббиджа, нужно изготавливать её детали с точностью, обеспечиваемой только станком с ЧПУ.

Фракталы бесконечно сложны, хотя создаются простенькими уравнениями.

По какой метрике они бесконечно сложны?

По геометрике

Для решения множества задач мифический AGI и не нужен, с этим прекрасно справляются уже существующие модели AI. Чем тратить время на самоуспокоение, каждому следует учиться применять искусственный интеллект для своих рабочих и бытовых задач. Таким образом вы обретете навыки, которые уже сегодня востребованы не рынке, а завтра они и вовсе станут обязательными.

Работу у вас отберёт не ИИ, а люди, использующие ИИ.

Или очередной мировой экономический кризис вроде кризиса доткомов. Или по любой другой причине

Одно другому не противоречит. А процессе появления AGI легко может произойти кризис из-за ИИ-хайпа и даже несколько

Бла-бла-бла. С чего вы бегаете с этим тейком как с писанной торбой? "Что вы знаете, и почему вы верите в то что это знаете?".

Вот мы получим например дешёвый AGI на например изготовленных по традиционной КМОП-технологии микросхемах для термодинамических вычислений, тех самых которые требуют до 10^8 меньше энергии на вычисление, и быстрее до 10^5 раз, — и але, если этот самый AGI интеллектуально будет равен человеку качественно, А по скорости и тем более цене радикально его превосходить — то мечты о том что там ещё человечек посередине нужен будет, похоже скорее на мечты о том что при замене гужевого извоза автомобильным кучера переквалифицируются в людей, которые с флажком перед автомобилем пешком ходит, для того чтобы транспорт других не пугал. Метафора конечно так себе, там кучера способны были занять место водителей автомобилей, но мне лень для вас лучше метафору искать, простите. Это же очевидная чушь: рано или поздно люди не будут нужны в этой цепочке. И фантазия о том что сперва будет переход через людей которые будут посредниками вообще-то основано примерно ни на чём кроме желания выдать желаемое за действительное.

Так что вы зря тут пытаетесь эту мантру продавать.

P.S. это вам от человека, который понял и думал о такой замене с 2003 года, предрекая в первую инженерную профессию, массово выпиленную middle-AI как раз "программистов". Всегда пожалуйста, что называется

рано или поздно люди не будут нужны в этой цепочке

Тут есть сугубо человеческий фактор - не все доверяют роботам. Не все согласятся ездить в машине, управляемой роботом, не все согласятся быть оперированы роботом, не все согласятся слепо доверить роботу-разработчику ответственность за создание информационной системы предприятия.

Вы вот согласитесь чтобы вас оперировал робот? Если да, то ну я за вас рад, а я - нет, я и из людей-то ещё буду привередливо отбирать кто наименее подозрительный, пусть это мне и дороже выйдет. И я знаю довольно большое число тех, кто рассуждает так же как я.

Я уверен, что частично роботы заменят людей, а вот что полностью - сомневаюсь именно по вышеописанным причинам.

Это вы сейчас не соглашаетесь чтобы вас оперировал робот. А вот когда припрет, а денег на операцию человеком не будет, да еще и начитавшись статей, что у роботов на порядок меньше шанс послеоперационных осложнений, побежите в первых рядах.

денег на операцию человеком не будет

Ну а если мне к виску пистолет приставить, то я все деньги отдам, хотя так если меня спросить я тоже скажу что никогда незнакомому человеку денег не дам. Мы говорим про ситуацию, в которой есть выбор, и очевидно посыл моего комментария в целом - что место для людей останется, потому что всегда будут люди, которые не доверяют машинам. Мой доход позволяет мне не по ОМС лечиться, а платно, и я мягко говоря не вхожу в число богатых людей, поэтому достаточно будет людей кто готов будет переплатить за лечение профессионалом-человеком

еще и начитавшись статей, что у роботов на порядок меньше шанс послеоперационных осложнений

Сейчас бы статьям и интернету доверять. Все врут и по умолчанию любая информация в интернете недостоверна пока не доказано обратное. Да собственно не только в интернете, а вообще любая

В истории уже были похожие примеры - многие люди до дрожи боялись паровозов, не доверяли железным дорогам и не хотели по ним ездить (масла в огонь подливали всякие страшилки, вроде того, что от езды на таких скоростях (25 км/ч, да) у людей будет развиваться опухоль мозга и т. п.). Тем не менее, прошло не так много времени и люди перестали бояться и стали ездить по железным дорогам (страх у кого-то оставался, но ездить пришлось). Аналогичная ситуация с гражданской авиацией - да, есть множество людей с аэрофобией, но многим из них приходится летать (банально, за неимением разумных альтернатив).

многие люди до дрожи боялись паровозов

Так собранного из ткани и палок паровоза самолёта братьев Райт я и сейчас до дрожи боюсь — а вот с каким‑нибудь там захудалым «Айрбасом» у меня таких проблем нет.

С паровозом мысль понял, хотя первые пригодные для постоянной эксплуатации паровозы выглядели не так стрёмно, как детище Райтов. Да и по земле ездят, привычней, чем по воздуху.
А вот с летадлами всё не так просто. Реально очень много людей безумно боятся летать, даже на новеньком сверкающем 777. А на захудалом "арбузе" какой-нибудь конголезской авиакомпании, с выписанном на коленке в бамбуковой хижине ПЛГ, я бы и сам лететь побоялся, притом, что аэрофобией никогда не страдал.

Ну у поделок из фанеры и палок с прикрученным движком от бензопилы есть свои преимущества.

Во-первых, хоть проблемы с ними случаются чаще, однако же у пилота намного больше возможностей эти проблемы разрулить, а если не получится - у пассажиров выжить. Когда не нужно бояться разгерметизации салона (он by design не герметичен), когда там керосина всего на пару канистр, когда после падения у выживших есть возможность сразу выскочить, а не гадать, успеют спасатели до того как вы сгорите заживо или нет - это на самом деле большой плюс.

Мало того, у фанерных поделок ещё и пассажировместимость в десятки раз ниже, что делает процесс транспортировки намного более распределённым. Если при крушении современного авиалайнера могут за раз погибнуть сотни пассажиров, то чтобы получить столько жертв на кукурузниках их нужно десятками разбивать.

Кхе-кхе, для того чтоб такие примеры были, оно сначала должно продемонстрировать, что оно летает (ездит, и т.д.) - а пока что это лишь влажные мечты, оно в лучшем случае подпрыгивает.

Ой как мне "нравятся" (Спойлер: нет, это сарказм!) эти милые подмены темы обсуждения, когда в обсуждение предполагаемого будущего(1) тащат настоящее время(2).

Здесь (1) ≠ (2), алё!

BTW, весь Рунет для меня — это буквально демонстрация проблем, ожидаемых отсутствием в общеобразовательной системе практик, тренирующих распознавание логические ошибок, когнитивных искажений, и манипуляций, если их удается отличить от первых двух, — ну и прочих компетенций, тренируемых например в тренировочный практиках корректного ведения дискуссий. Например в банальных школьных дискуссионных клубах, в практиках обсуждений ответов , основных на практиках совместного, — в рамках учебного процесса, то есть процесса в котором не страшно ошибаться потому что ты находишься в роли ученика, то есть априори не знающего правильного ответа, — вывода (порой группового, совместного с другими учениками при помощи учителя), поиска учеником/учениками правильных ответов на задаваемые учителем и другими учениками по ходу освоения рассматриваемой темы вопросы(а), вместо бездумной классно-урочной трансляции знаний взрослым, зачитывающим тексты про "как правильно" перед классом учеников(b).

Ну, про компетенции возникающие в рамках правильного ведения дискуссии — удержание предмета обсуждения, например, и его рамок. Например времени, о котором идет речь. Будущем, по условиям обсуждения "обладающий такими-то свойствами", или настоящим.

Вы вот согласитесь чтобы вас оперировал робот? Если да, то ну я за вас рад, а я - нет, я и из людей-то ещё буду привередливо отбирать кто наименее подозрительный, пусть это мне и дороже выйдет. И я знаю довольно большое число тех, кто рассуждает так же как я.

Я уверен, что частично роботы заменят людей, а вот что полностью - сомневаюсь именно по вышеописанным причинам.

Через 10-20 лет в случае отрыва конечности хирург-человек скорее всего не сможет её восстановить с той же скоростью и безупречностью, что и машина. Врач скажет что-то в стиле: "Ну если вы так боитесь, то конечность может пришить и человек, но шанс успеха 50/50. Рука возможно не приживётся, да и с функциональностью точно будут большие проблемы. Зачем вам такой глупый риск?"

И покажет наглядную сравнительную статистику. На начальном этапе будет выбор, а через поколение выбора уже не будет вообще - зачем людей калечить, если робот может сделать это лучше?

отрыва конечности хирург-человек скорее всего не сможет её восстановить с той же скоростью и безупречностью, что и машина

Вот у вас единственный из комментаторов, ответивших мне, здравый аргумент, который я готов принять - машина действительно может в теории сделать что-то, что в принципе не способен будет сделать человек. Соглашусь, что в случае серьезной угрозы жизни если я буду понимать что человеческой альтернативы в принципе нет или она сомнительна, я доверяюсь роботу, не помирать же.

Тем не менее это не отменяет концептуальный посыл моего комментария что будет достаточное количество людей, которые захотят иметь дело с машинами, а не с людьми. Чтобы тут не подумали, что я луддит какой-нибудь, я лично очень сильно надеюсь на AGI и что с помощью ИИ вообще получится добиться бессмертия, но глотать первую изобретенную таблетку ИИшкой не собираюсь (я ежедневно пользуюсь GPT в работе и вижу её галлюцинации), только после того как люди проведут большое число тестирований этого способа и будут убедительные доказательства что оно работает. Ну или если альтернативой будет просто не дожить до этого, да:)

Ну вот мало кто из людей в здравом уме хочет иметь дело с банковскими ботами вместо нормального саппорта, и что? Это кого-то останавливает? Банки, службы доставки, Интернет-провайдеры, маркетлейсы просто взяли и всё автоматизировали, а на возмущение клиентов попросту положили громадный болт. Кого не устраивает - ну, пусть по рынку побегает, может где найдёт маркетплейс с живым саппортом...

Как только ИИ сможет заменить хотя бы 80% хирургов, эффективные менеджеры немедленно переведут на них все больницы, и пациентов никто не спросит, чего они там хотят. Не устраивает - ну, можете съездить в Конго, куда автоматизация пока не добралась, может там живые шаманы полечат...

Потому что те, кто умеют считать деньги, делают "переключаю на оператора" в сложных случаях, чтоб не терять клиентов.

А у кого нет миллиарда долларов — идут на йух! ©

глотать первую изобретенную таблетку ИИшкой не собираюсь

Тут очень интересно поставить мысленный эксперимент. Будете ли глотать таблетку "от ИИ", если она будет одной-единственной, и в условиях задачи никакой другой никогда не будет? Можно немножко переформулировать: условно, должно ли человечество "глотать таблетку бессмертия", в которой ASI уверен на 100%, особенно когда никакой независимой проверки результата не было и, вообще, проверить всесторонне действие "таблетки" невозможно даже всем миром в обозримые сроки?

Между прочим, меня в своё время ИИ Watson от IBM чуть не отравил. На каком-то мероприятии раздавали пирожочки, приготовленные поваром по рецепту ИИ. На вкус было так себе, так и ещё и расстройство желудка потом получилось (так как это было, как обычно у IBM, в дорогом отеле, то вряд ли виноват был повар или продукты). Как было верно замечено в известном фильме, дроиды оперируют символами, а не знаниями.

только после того как люди проведут большое число тестирований этого способа

Желательно — отличные от меня и моих родственников.

Вы так говорите "будет", как будто оно гарантировано - в случае с пузырями же всё наоборот. Про стволовые клетки и т.п. тоже говорили "будет", и где)))

После того как компании начали создавать виртуальные физические миры для тренировки в них ИИ - сомнений мало. Путь конечно не быстрый, но если учитывать, насколько в ближайшее время повысится потребность в хирургах, в связи с прорывами в трансплантологии. И если учитывать высокую стоимость работы хирурга в США - это должно сильно ускорится.

А что не так со стволовыми клетками? Их активно используют в медицине.

После того как компании начали создавать виртуальные физические миры для тренировки в них ИИ - сомнений мало

"Обещать - не значит жениться"

если учитывать высокую стоимость работы хирурга в США - это должно сильно ускорится

Кому должно-то? Вовсе не факт.

что не так со стволовыми клетками? Их активно используют в медицине.

В каком объеме? Обещали-то омоложение, исцеление, чуть ли не отращивание новых органов взамен утраченны... и где это всё?

Про стволовые клетки и т.п. тоже говорили "будет", и где)))

Ну, та вы погуглите, "где оно", прежде чем рваться делать (и делать!) такие вот обесценивающие комментарии на эту тему, "космических масштабов и космической же глупости". Прежде, и вместо.

Чтобы вот так вот впросак не подать.

Появились несколько видов очень успешных видов терапий столовыми клетками, для которых буквально нет альтернатив, способных предоставить такой же эффект.

Что называется "будет всё, но не всё сразу".

Если она не совпадает ваши наличными ожидании по поводу скорости внедрения, или даже с чужими ожидании по этому поводу — это не проблематизирует рассматриваемые технологии, очевидно. "Проблема не на их стороне" здесь очевидно.

Ну и да, логическая ошибка которую вы здесь демонстрируете, называется "неадекватная аналогия".

То что вы на счет чего-то видите какой-то паттерн, не означает, что он будет выполняться насчет другого предмета рассмотрения

В ваших построениях вы упустили из рассмотрения такие вопросы как:

"А кто собственно из людей пожелает остаться врачом для вас?",

и

"А где вы собственно собираетесь ездить на ручном управлении*?"

________

* — [когда все остальное общество рационально, исходя из фиксации радикального снижения рисков смерти, увечий, материального и морального ущерба от аварий, запретит на законодательном уровне ручное управление автомобилями на дорогах общего пользования [, — а авто производители вообще перестанут запускать автомобили с рулем (что поднимает вопрос о

"а на чем вы собственно ездить с ручным управлением собираетесь в этом будущем?")]].

Кстати, аналогичный вопрос стоит и по поводу медицины. — Ну, в какой-то момент просто на законодательном уровни запретят хирургические операции выполняемые человеком. Как сейчас например запрещают в области медицины то, что с точки зрения общества, и экспертного сообщества повышает риски для людей: медицинская практика без медицинского обучения, без лицензии, которая является способом подтверждения компетенций и безопасности, ограничения на места, инструменты, лекарства, практики. Вот это вот всё.

Ну, то есть не будет людей которые мотивированы работать врачами материально, — зачем, если они без этого будут получать огромные деньги , которых им головой будет хватать на существование? — также исчезнут все социальные институты, трансмиссия эти знания — медицинские образовательные учреждения, институт интернатуры, и целом легальные как минимум больнице людьми-хирургами (здесь Ok, можно возразить что появятся AI-VR, в которых вы можете практиковаться... Учась у AGI, по сути! 😂🤣🤣 ("С чем боролись", ага, "на то и напоролись"). Которые напротив демотивированы работать врачами — хирургами, потому что это грозит преследования закону, уголовным при том, то есть материальными санкциями (потерями) и потерей свободы, возможно.

В общем практика показывает что если у вас услуга на несколько порядка дешевле стоит, то все эти бытия пяткой в грудь в комментариях яйца выеденного не стоят, — в реальности люди идут , и потребляет фрязино несколько порядка в более дешевые услуги , кавычки и что называется "не крякают".

Исчезающе мелкая доля особо упоротых отрицателей прогресса при этом погоды не делает, от слова "совсем". У них практически нет шанса оказаться где-нибудь еще, кроме свалки Истории

Опять эти адепты Юдковского с их железобетонными аргументами "раз машины научились ездить сами, значит и компьютеры научатся думать сами". Поймите, поклонение науке не делает вас специалистом в науке.

Поймите, поклонение науке не делает вас специалистом в науке.

— "поймите, проективное перекладывание на других своих проблем, не делает эти проблемы чужими а не вашими".

Опять эти адепты Юдковского

— выдача желаемого за действительное, неразличение своих гипотез о реальности от фактов о них.

с их железобетонными аргументами "раз машины научились ездить сами, значит и компьютеры научатся думать сами".

— выдача желаемого за действительное, неразличение своих гипотез о реальности от фактов о них; подмена темы; манипуляция "соломенное чучело"; манипуляция "неадекватная аналогия".

Ещё!

машины научились ездить сами,

но есть нюанс...

Учитывая что до сих пор вполне востребованы профессии извозчика, каменщика и официанта с портье (профессии существующие, в том или ином виде, чуть не с основания цивилизации) подобным утверждениям про то что люди не будут нужны в цепочке очень мало веры.

Ну да, ну да, — давайте успокаивать себя неадекватные аналогиями.

Неадекватные потому что на рынке еще не было предложение замена текущих биологических гуманоидов на гуманоидов, способных выполнить все же физические работы, только быстрее ловчее, и главное — дешевле на несколько порядков! Как и на рынке интеллектуального труда не было предложений замены людей на интеллекты другой природы, которые быстрее, точнее, и радикально дешевле. А мы именно про такие замены говорим, когда говорим про будущее роботизации экономики.

И да, вам же, ещё один вариант объяснения того же самого мной здесь в комментариях.

Да с чего он получится-то, на традиционных-то технологиях? Закон Мура уже всё, встал. И программистам вымирание пророчат уже полвека, потому что хочется, но нет - это с нами на века.

Да с чего он получится-то, на традиционных-то технологиях?

— Да чего он не получится-то?

И при чем здесь это вообще?

Вы хоть видите на что отвечаете? — я же там делаю утверждение "если-то", — цитирую себя, из моего комментария на который вы отвечаете:

Вот [если] мы получим например дешёвый AGI на например изготовленных по традиционной КМОП-технологии микросхемах для термодинамических вычислений, тех самых которые требуют до 10^8 меньше энергии на вычисление, и быстрее до 10^5 раз, [то...<перечисление дальнейших следствий этого>]

(Конец цитирования того на что вы на самом деле отвечаете)

— или у вас чипы и для термодинамических вычислений, созданных по традиционной КМОП-технологии, тратящие на вычисления до в 10^8 раз меньше энергии, и более быстрые до в 10^5 раз — уже в разряде "традиционных технологий" лежат? Ну тогда это к вам, попросите вопрос, — с чего вы считаете, что не получится сделать нейросети эквивалентные сетям головного мозга (это как высшая планка, ну, чтобы с большим запасом) — на железе, которое способно на одном чипе превзойти вычислительную мощность головного мозга? С чем именно здесь у вас сложности возникают? Не смогли посчитать порядки? Другие сопротивления?

Закон Мура уже всё, встал.

— и причем здесь это? (Не говоря уже что в "вычислениях на $" например там все хорошо, привет СЕО NVIDIA, любящему показывать графики про это).

И программистам вымирание пророчат уже полвека, потому что хочется, но нет - это с нами на века.

— выдача желаемого за действительное

И программистам вымирание пророчат уже полвека,

— "в огороде бузина, в Киеве дядька", с групповыми обобщениями уровня расизма.

Какая разница что там другие прочат, когда я говорю про вполне конкретное предсказание, а не про ваше "а вот у нас еще в полку был случай!"?

И программистам вымирание пророчат уже полвека, потому что хочется,

— выдача желаемого за действительное

И программистам вымирание пророчат уже полвека, потому что хочется, но нет - это с нами на века.

— выдача желаемого за действительное

И да, я говорю про конкретно свое конкретное предсказание, и в отношении его ваше "потому что хочется" — является ложью. Мой прогноз 2003 года на других основаниях лежит, не проецируйте пожалуйста.

Мой путь к этому моему прогнозу начался с осознания того что отрасль нарушает базовый для меня принцип программирования (как общественно-полезной деятельности): DRY, Don't Repeat Yourself.

Нарушает, потому что миллионы человек делают то, что до них миллион раз и так было сделано. И никакие переходы от машинах кодов ассемблерам, и далее к языкам высокого уровня, и параллельно к библиотека функций и фреймворкам не решают эту проблему на принципиально уровне. Стремятся решить, но не решают.

При этом мы видим чудовищную неэффективность отрасли из-за потерь в трансляции. Производство кода в основе своей является ремесленным, — то есть актом мастерства, а не разлагаемым, в ходе индустриального разделения труда, на элементарные операции, индустриальным процессом производства.

И трансляция знаний, опыта здесь получается ремеслиничестской (в противопоставлении "ремеслиничество (здесь — мастерство) vs индустриальное производство"), — "от мастера к ученику"; и прочее ремесленничество, в варианте когда "мастером" в этой схеме является личный уникальный опыт.

Этому пытаются придать вид индустриализации — как в трансляции опыта, так и в организации работы. Но это все скрещивание ограничивается включением в индустриальный конвейер пузырей ремесленичества, и собственно само программирование происходит в этих пузырях ремесленного (мастерского) производства.

И только у нас человечек осваивает область до "теперь я знаю кунг-фу", на уровне, когда это не является первым пиком самоуверенности неофита в рамках эффекта Даннинга-Крюгера, этому носитель у этих знаний неотделимых в его частном случае, в смысле "не отдельных, и на это нет не времени, ни других ресурсов", уже вынужден двигаться на погост, на место вечной прописки. Умирает то есть , унося эти знания с собой в никуда.

Ну и очевидно можно во-первых взять и продолжить тенденции например в развитии программирование как практики, — раз смотрел например соотношение распределения смыслов, или если хотите фиксации семантики происходящего в программе, между кодом и мозгом программиста, — на всем пути истории развития отрасли.

Сперва у нас программирование в физических переключателях на вычисляющим железе, потом в машинных кодах, потом в ассемблерах (на параллельно уровне организации идет выделение функций), потом языке высокого уровня, потом стоит снова на параллельный уровень организации посмотреть, видим, после выделения функций через пользования при помощи библиотек — использование их в качестве по сути языка доменной области, потом тоже самое на более высоком уровне организации в виде фреймворков. И слабо взлетающих в масштабах всей индустрии DSL, — Domain Specific Language's.

И здесь, в этой последовательности, мы видим явную тенденцию перетекание описания семантики программы "из головы программиста в код".

А теперь ненадолго отвлечемся от этого наблюдения, и вернёмся к предыдущему.

Люди пытаются вытащить DRY в разработку при помощи всех этих видов переиспользования предыдущего опыта, от предыдущих продуктов труда.

Люди пытаются индустриализировать разработку, — а в пределе индустриализация означает разделение сложных операций на простые.

Базовая рефлексия интеллектуальной деятельности программиста говорит, что он по сути контекстно-зависимым паттерн-матчингом в своей деятельности занимается, при том на всех уровнях организации своего мыслительного процесса.

То есть встречаясь с очередной задачей он на самом деле подыскивает ее решение в множестве уже освоенных им в процессе обучения (где мы под этим подразумевает есть личный опыт) способов решений; как правило первую очередь тех, что им были освоены через чувственный опыт непосредственного восприятия (переживания). Далее по списку приоритетов идут варианты, когда мы на более высоком уровне организации принципиально задачу аналогичной структуры решали. Далее — варианты, когда мы можем комбинировать знания о схематизациях чужого в такого опыта (или в целом о схематизациях способы решения , которых нет в нашем опыте), на самом деле соединяя его с теми кусками, которые "заземлены" в наш опыт. В общем, это контекстно-зависимый паттерн-матчинг на нескольких уровнях организации процесса решения задачи, над всем полем знаний: сперва непосредственно заземлённых в опыт, потом более опосредованно, и так выше, если на предыдущих этапах решения не находится.

То есть условно мы либо знаем как решить задачу, либо обращаемся к опыту применения чужих схем решение задач.

Это обращение кстати идет в рамках другого нашего непосредственного опыта: опыта (здесь читай "освоенных шаблонов") действий в условиях , когда в вашем опыте нет [шаблоны непосредственно также устроенных задач].

...

И мне из всего этого стало очевидно, что в целом интеллектуальную деятельность, и конкретно инженерный интеллектуальной деятельность, и конечно в первую очередь такую инженерный интеллектуальной деятельности как программирование (благодаря этому что все для неё есть электронном виде, и результаты этой деятельности можно верифицировать в электронных же моделях), можно заменить, а точнее реализовать, системой middle-AI, которая будет заниматься таким контекстуальным паттерн-матчингом, на несколькихи(всех, точнее) уровнях организации своей интеллектуальной деятельности. И соответственно некоторой базы знаний, которую вы могли бы в качестве метафора представить как википедию таких паттернов "постановка задачи, параметры, решение, + оценки эффективности по разным параметрам/ зависимости их от параметров (читай от контекста)".

И так же стало ясно, что если такую систему сделать всеобщей, с возможностью обучать её людьми в случае, если она не находит подходящего решения для какого-то шаблона задачи, то мы будем наблюдать тот же эффект, что видели при накоплении Википедии: ядерная часть такой базы знаний очень быстро нарастёт, та часть, которая покрывает львиную долю всех потребностей.

(То есть если приглядеться, по сути это система (она тогда мною было названа "Решатель") с предельно примитивным ядром, а если еще лучше приглядеться, то становится ясно, что предельной реализацией является нейросеть, она буквально отражает предельное функциональное описание такой системы, в самом просто мы эффективно видит соединяя как этот контекстуальный паттерн-матчинг, так и хранение этих шаблонов (а с 3 января 2024 года я знаю, и как расстроена функциональная схема, обеспечивающая обновление и селекцию (то есть поддержание в состоянии актуальность и наибольшей больше эффективности) в биологических центральных нервных системах ("мозгах"), на соответственно спайковых нейросетях, хотя "это уже совсем другая история", и "...поля этого журнала слишком узки")).

Ну и легко заметить , что такой "Решатель" сути во-первых является "концом радуги", точкой, в которую идут эти описанные мной ранее тенденции, предельной формой этой эволюции. Предельной формой при том не только для программирования, снимающей наконец эти противоречия, но и в целом для любой инженерии , и шире, — для любой интеллектуальной деятельности.

Так что не надо тут натягивать сову своих проекции о "желании" (а не продукта анализа, закономерных выводов, как основу для таких заключений) на глобус таких вот закономерных выводов из понимания предельно форм этих тенденций, то есть по сути из работы в рамках "конструктивной футурологии", а еще лучше сказать _инженерии_.

И да, мы никуда не денемся от простого факта: мы — нейросеть. Наш GI — нейросетевой. Это означает реализуемость GI на нейросетях. А это означает принципиальную независимость реализации от субстрата.

Так что если строго смотреть на мое утверждение "как только мы сделаем AGI, мы выпилим программистов, и шире — остальную инженерию, и шире — остальную интеллектуальную деятельность людей с рынка труда" — как было верным так и остается. Ну, как только интеллектуальный труд AGI станет дешевле труда человека.

Какой же потешный копиум. Я еще понимаю, когда сильные мира сего скоту прокидывают такие тейки, в надежде, что жаба не заметит, как ее варят, но вы то куда? Ну заменил 10 работников не ии, а 1 оператор ии - че от этого изменится? Великая мировая депрессия и\или 3 мировая гойда не наступят от этого, чи шо?

Не рассуждения в терминах "скота" и "не скота" — мало того что теорией превосходства являются (механизмом расчеловечивания), привет шовинизму/расизму в широком понимании термина, — так ещё и явственно социопатической картиной мира отдают, той самой в которой нет места отношениям win-win, и все социальные отношения представляются игрой с нулевой суммой.

Про какую вы там "Великую мировую депрессию" в будущем, в условиях полной роботизации экономики говорите (ну, потому что именно полная роботизация экономики и является контекстом обсуждения), — не мне, никому-нибудь кто разбирается в вопросе очевидно решительно непонятно.

Полная роботизация экономики приведёт к ускорению роста экономики, притом значительному. Очень просто например показать ускорение роста на порядок, то есть примерно до 30-35% роста ВВП в год, — и гораздо муторнее обосновать надежды на рост до 100% ВВП в год, но такое обоснование тоже есть.

Где здесь место для "Великой мировой депрессии" никому из тех кто способен это понять, — к гадалке не ходите, — решительно непонятно.

И да, фантазии о том что с приходом AGI и человекообразных роботов останется место для надсмотрщиков людей, тем более в таких пропорциях как 10(роботов):1(надсмотрщик) не имеют под собой корректных рациональных оснований. Разница в цене труда что человекообразную робота, что AGI без тела будет составлять несколько порядков. Ну и качество их как работников будут радикально превосходить человеческие. В этих рамках фантазии о том что мы 10% работников людей оставим — пустые глупости, противоречащие тому как работает экономика. У вас любой бизнес, который заменит эти 10% на работников которые на несколько порядков дешевле этих надсмотрщиков, выиграет в конкурентной борьбе. Точка, конец истории. Конец истории людей как работников в любых нишах рынка труда современной экономики. Что называется "попробуйте поспорить с этим"

Найс натаскал лахтобота, лол. Только ботяра твой серет фантазиями, которые - херак - и стали реальностью. По щелчку пальца. Но так не бывает. Нет сейчас никакого вин-вин, есть эксплуатация меньшинством большинства. И не будет никакого чудесного и безболезненного перехода на бод, полной автоматизации и мира во всем мире. Ты будешь или траншее копать или впахивать там, где железку дороже чинить будет. А ИИ твое будет все так же для сильных мира сего подобный понос строчить.

Найс натаскал лахтобота, лол.

Забавно на сколько оксюморонно выглядит утечка разговоров настройщика этого бота с этим ботом.

Ну а если без шуток (хотя эти его проективные рассказы о себе, любимом, с идентификацией себя с лахтоботами — освежающе правдивы: они именно что социопатической картиной мира именно что срут промышляют, торгуют, как и этот персонаж; он по сути таким лахтоботом и является, индуцированным), — ну, Q.E.D., собственно. Россказни про то что якобы [свободные, разумеется] социальные отношения являются игрой с нулевой суммой, а вовсе не win-win, — и прочая социопатическая бредятина, которая относится к области интересов психиатрии, а не экономики или социологии конечно же.

Это банальный тест на социопатию кстати. Тот самый, который этот персонаж завалил. Лучше бы он что-то другое себе завалил конечно, но уж что имеем! )).

UPD.: божечки, мудаковатая, с давлением из себя "особо богатого внутреннего мира", "коричневого и дурнопахнущего" социопатия от тролля с девятью комментариями из всей его активности на хабре.

Что называется можно "не метать бисер перед этими свиньями"

Столько букв и ноль информации при этом, лол. Лучше тебе быть все же ботом, а иначе - это уже клиника.

^^^ 10 комментарий на Хабре этого троллья. Неудивительно, — настолько убого пытается троллить

Ну чтобы тебя попустить достаточно и этого.
Что компенсируешь количеством вылитой воды в комментах?

^^^ — попытки кормиться. Изумительное самораскрытие!)))

AGI не для решения задач нужен, а для более масштабных и многовекторных целей

Таким образом вы обретете навыки, которые уже сегодня востребованы не рынке, а завтра они и вовсе станут обязательными

звучит как реклама любого современного it-курса лет 5 назад) и так громко, с помпой, заявляют всего лишь о способности сформулировать запрос для нейронки. вам там груз полученных навыков нигде не жмёт?)

Все идет к тому, что умение ставить задачу ИИ так, чтобы получить ценный результат, станет ключевым. Уровни владения этим навыком будут разные. И речь не только о формулировании запроса, но и о предоставлении доступа к нужным данным и инструментам для решения поставленной задачи безопасно, недорого и с требуемым уровнем качества. Поэтому я рекомендую не тешить себя тем, что достаточно будет "просто сформулировать запрос", потому что тогда впереди вас окажутся те, кто "просто формулирует запрос" лучше вас. 🤷‍♂️

умение ставить задачу ИИ так, чтобы получить ценный результат, станет ключевым

Умение погонять палкой раба тоже когда-то было ключевым. Но чтобы результат был ценным, погонщик должен быть умнее раба.

Вы прям навык программирования описали. Даже скорее лишь часть. Постановка задачи - это формализация требований. Ровно как и написание кода. С той лишь разницей, что в случае с ИИ строгой формальности и полноты описания задачи достичь сложнее и менее эффективно. Что приводит к менее предсказуемому результату.

Вы прям навык программирования описали.

Именно.

Так заказчики и менеджеры хотят другого - чтобы по НЕполной и НЕточной спецификации программа автоматически сгенерировала желаемую ими программу, даже если они сами не вполне представляют, чего же именно хотят. Нейронки призваны решить именно эту проблему.

по НЕполной и НЕточной спецификации

«Если вы попросили сходить туда, не знаю куда и принести то, не знаю что, то не удивляйтесь, когда вам принесут Н.Е.Х.»

Ну если вы приносите НЕХ или вообще отказываетесь работать, высказав заказчику всё что думаете о его умственных способностях, а нейронки в ответ на подобное ни разу не спорят и хотя бы в половине случаев выдают не совсем НЕХ, то вас неизбежно заменят нейронкой.

Главное — чтобы это не был ядерный реактор. Второго Чернобыля страна не сдюжит.

умение ставить задачу ИИ так, чтобы получить ценный результат, станет ключевым

Так появились техножрецы.

ага, прям как 3 года назад нам рассказывали, что новая профессия промпт-инженеров родилась и станет супер популярной и хорошо оплачиваемой.

только вот профессия умерла, не успев родиться. оказывается, что если у нас есть ЛЛМ, то ЛЛМ сама себе может поставить задачу лучше обычного человека)

также и "обретете навыки", эти навыки с совершенствованием агентских способностей текущих продуктов, станут совершенно бесполезными, потому что решаемая проблема упразднится или приобритет более легкую форму

Вполне возможно, что часть актуальных сегодня навыков обесценятся завтра. А что-то останется и станет дороже. Но это немного лотерея. Тут мне нравится метафора с инвестициями в фондовый рынок. Можно сидеть и долго ждать лучшего момента для входа, а можно дисциплинированно покупать регулярно по рыночной цене. С обучением также: можно сидеть и ждать, пока некоторые навыки станут неактуальны, чтобы "перепрыгнуть" этап их изучения. Но лично мне ближе стратегия постоянного обучения согласно трендам.

Со знаниями это так не работает: если с инвестициями ваша задача по сути - сохранить существующее, и может быть что-то добавить, то со знаниями собрать с нуля, это как собирать стартовый капитал откладывая с зарплаты - это возможно на 1 бизнес, но не на 5 сразу. Если вы будете учить по вечерам медицину, юриспруденцию и физику, то когда, исчезнет ваша текущая профессия в любой из этих областей вам придется все равно набирать коммерческий опыт с нуля работая за еду лет 5-10

Вполне возможно, что часть актуальных сегодня навыков обесценятся завтра. А что-то останется и станет дороже.

Кажется вы не улавливаете сути.

В рамках любых ниш рынка труда современной экономики, то есть замкнутой по поставкам от других экономических акторов экономики (вот отодвигаетесь подальше от земли, смотрите на этот шарик, или на "pale blue dot" — в зависимости от того насколько далеко отодвинулись, — и видите границы этой замкнутой по поставкам от других экономических акторов экономики), — а значит способный в таком виде прекрасно расти и процветать, — для человека не останется ниш, в которых его предложение своих трудовых услуг будет конкурентоспособным.

Ну, при условии радикально больше дешевизны AGI.

Не то чтобы это на самом деле сложным логическим построением было. Вроде можно взять, и по частям этого микро-слона съесть. В смысле проведя пальчиком по всем логическим связкам освоить наконец эту простую мысль.

Но когда вы его съедите, вы будете с большим недоумением смотреть на людей, которые всё себя тешат надеждами что уж им-то найдётся ниша в будущей полностью роботизированной экономики. Да-да-да, — роботы что с телом, что без будут на порядки дешевле, быстрее и качественнее трудиться, а для него, любимого, почему-то найдётся экологическая ниша на рынке труда. Ну да, Ну да, "конечно", ага (сарказм!).

Очень вы теоретические вещи пишите. Просто поглядите вокруг себя - объективно говоря, куча профессий просто не нужна без всякого ИИ, а тем не менее они почему-то существует. Вот, например, я ничего не имею против официантов, но смысла в этом виде деятельности не вижу. Так что ИИ может быть сколь угодно экономически оправдан, но все равно придумают какие-то бессмысленные рабочие места только для людей.

Божечки, а можно без этих обывательских обесцениваний через "[слишком] теоретические вещи"?

Да, это ваши ложные обывательские фантазии о том что какие-то профессии не нужны. Это так не работает, это лишь трансляция ваших заблуждений на эту тему.

Это не совок, чтобы в нём можно было плодить "ненужные профессии", это рынок — конкурентная среда, в которой за неэффективность наказывают исчезновением с рынка. возьмётесь разбираться в вопросе, по каждому конкретному примеру, и внезапно обнаружите что вы ошибались, итак для каждого примера "неэффективных профессий".

Собственно разберитесь, почему существует эти профессии, которые вам в силу вашего невежества, давайте называть вещи своими именами, кажутся "ненужными".

Но сейчас разговор о другом.

Вы вместо этих пустых фэнтези лучше расскажите, покажите нам на принципиальном уровне, — видите как акценты меняются, как меняется восприятие, если вместо почему-то обесценивающего для вас слово "теоретически", использовать слово "принципиально"?, — и так, вы хоть принципиально попытайтесь объяснить, где тут будет ниша для людей, и как в условиях рыночной конкуренции выживут предприятия, которые на порядки более дорогой труд людей будут использовать, в случае появления роботов чей труд на порядки более дёшев, быстр, качествен, и стабилен в уровне качества?

Вот просто возьмите и попытайтесь нарисовать схему выживание для таких бизнесов в условиях нормальной конкурентной среды.

Вместо всего вот этого безпредметного фэнтезийного бла-бла-бла

Извините, а вам сколько лет? И вы случайно не псевдоним Коткина? Стиль дискуссии очень похож. В 20+ лет я тоже считал, что рыночек порешает. А в 40+ уже все не столь однозначно.

А если строго с позиций экономической науки, то рынок конечно же решает, но приход к равновесному состоянию не мгновенный. И я не встречал статей, где оценивается время, необходимое для перехода в это равновесное состояние. Так что в перспективе рыночек решает, но это перспектива никогда почему-то не наступает. Возможно, потому что мир меняется быстрее, чем рынок адаптируется.

Это не совок, чтобы в нём можно было плодить "ненужные профессии", это рынок

Идеального рынка нет нигде, а ненужные профессии есть везде.

Ой, а вот и смешные попытки ad hominem, через эйджизм, и россказни о своих фантазиях о своем интеллектуальном и прочем превосходстве надо мной, бгг.

Вы бы вместо этих россказней продемонстрировать его бы здесь хоть раз удосужились, — "здесь Родос, здесь и прыгай", бгг

Но нет, кроме как "верь мне на слово, как я верю в себя!!!111одинодинодин" мы от вас по содержанию ничего пока не услышали.

Ни пруфов существования "ненужных профессий" (хотя этот и не является предметом нашего интереса — вы пожалуйста боритесь со своим невежеством в этой области не об меня, хватит об меня этим тереться!), ни собственно принципиальной схемы выживания такого неэффективного бизнеса "с людьми" в полностью роботизированной экономики будущего.

Ну кто бы сомневался, бгг.

Q.E.D., собственно! 😂🤣🤣

О, да, так много слов, так мало смысла! По сущестсву написано ровно ноль. Как и вся остальная ваша писанина.

Прочтите для начала какой-нибудь базовый учебник по экономике - узнаете условия, при которых возникает рыночное равновесие. Потом уже можно переходить и к книгам по институциональной экономике.

Откланиваюсь, не вижу смысла спорить с невеждами.

И опять ad hominem'ы, раздувание щек россказнями о своем величии/превосходстве, вместо простого следования правилу: "здесь Родос, здесь и прыгай", — "не рекламируй, демонстрируй!".

И где прыжки? Где демонстрации? — Нет демонстраций! )))

Напомним, этот персонаж рассказывал про то как люди спасутся при роботизации экономики за счёт того что займут нишу ненужных профессий.

А в ответ просьбу описать принципиальную схему по которой мы получим эти замечательные результаты в условиях разницы в труда роботов и людей в несколько порядков величин, а также рыночной конкуренции бизнесов — мы тут увидели много переходов на личности, бомбежа, намёков на "доступ к особому знанию" (хотя вариантов там собственно три: монополизация (монополия/ олигополия/картельный сговор), экстерналия, или неполная информация; и конечно натянуть сову этого на глобус всей экономики и пристраивания всего человечества в такие ниши не порвав эту сову не удастся). В общем кучу г всего, кроме ответа по содержанию, получили.

А потом ещё и это позорное бегство с этой жалкой наружной попыткой "выдать нужду за добродетель".

"И тут я не выдержал. У меня был аргумент, доступный пониманию, и я его с удовольствием использовал. Я продемонстрировал Говоруну свой указательный палец, а затем сделал движение, словно бы стирая со стола упавшую каплю.

– Очень остроумно, – сказал Клоп, бледнея. – Вот уж воистину – на уровне высшего разума...

Федя робко попросил, чтобы ему объяснили смысл этой пантомимы, однако Говорун объявил, что все это вздор.

Мне здесь надоело, – преувеличенно громко сообщил он, барски озираясь. – Пойдемте отсюда".

АБС, "Сказка о Тройке"

Так и хочется сказать, глядя вслед, украдкой смахивая слезу умиления: скатертью по по...

"Иди, и больше не пи греши!" 😁

Официанты понятно зачем нужны. Люди любят самоутверждаться, поэтому вместо подноса и раздачи желают, чтобы другой человек его обслуживал, а он с меню в обнимку выкабенивался перед партнером. Рациональных причин для официантов нет.

"Что это балерина без дела крутится? Динамо ей к ноге приделать, пусть электричество вырабатывает!", ага.

Пускай люди сами с разносами ходят, собирают себе еду. Столуются, так сказать. О, так и назовём это: столовка! Или "столовая"! Вау, надо бежать патентовать название, заявлять в приоритеты!

Ну и вообще, понапридумывали кучу разных блюд, выпендриваются, ишь ты! Нет бы сразу взять и сделать: "еда мужская, 2 килограмма"!

Ой, а у вас ещё много таких гениальных идей есть? Вы подождите, я сейчас человека для их фиксации позову! (В сторону: Лидочка! Позовите кого-нибудь из докторов, или хотя бы из санитаров!)

Нет бы сразу взять и сделать: "еда мужская, 2 килограмма"!

Уже сделали.

Вот, например, я ничего не имею против официантов, но смысла в этом виде деятельности не вижу.

Альтернатива - столовая с подносами, тётками на раздаче и столом для грязной посуды.

Роботы будут друг другу товар продавать?

Бизнесы будут друг другу товар продавать. С точки зрения экономики, и с точки зрения функционирования бизнеса, глубоко фиолетово, на чём этот бизнес в качестве элементной базы устроен: на человеках, на человекообразных роботов или, как в том анекдоте, "на бронетранспортёрах", ага.

Суть работы бизнеса вовсе не этим определяется, заметим.

Если вы в бизнесе заменяете одних гуманоидов, биологических на других гуманоидов, способных как минимум не хуже выполнять ровно те же должностные инструкции — функционирование бизнеса у вас при этом не изменится. Заметьте, Мы даже не определяем на каких гуманоидов может происходить замена, — потому что этот принцип например описывает сейчас ротацию кадров в бизнесах, без всяких человекообразных роботов, просто замена одних биологических гуманоидов на других. Если у вас заменяющий гуманоид вдруг становится электромеханическим, но при этом все те же должностные обязанности выполняет, и как минимум не хуже, а то и лучше, то функционирование бизнеса от этого не меняется.

Вот возьмите и нарисуйте обменную модель экономики, — для простоты пока фиксируя в этой модели лишь натуральные обмены товарами или услугами (не считая обмен деньгами таким натуральным обменом, вынося его за эту модель; кстати, задание со звёздочкой: как из такой модели потом получить оценки денежных эквивалентов стоимости этих товаров и услуг в этих обменных, пользуясь лишь этой моделью натуральных обменов (сразу говорю, это решаемая задача, имеющая очень простое решение!)).

Сделайте эту модель в виде графа обменов между экономическими актерами. Где например будет экономические акторы — конкретные люди, поставляющие услуги "часы своего рабочего времени" определённого качества часы рабочего времени инженера, дворника, врача, менеджера, токаря, сварщика и так далее.

Ну или для упрощения можете на уровне типов экономических актов такую модельку нарисовать, — люди, etc.

Вам даже не надо тщательно пририсовывать ничего, можно на качественном уровне просто понять какие типы будут, какие стрелочки между ними будут, и понять что там будут конкретные значения на них висеть. И попытаться понять, как это всё будет функционировать в динамике, расти год от года, ну или падать в своей продукции.

И да конечно речь идёт не просто о графе, а об идеале ориентированном раскрашенном взвешенном графе. Где вершинами будут экономические акторы, рёбрами будут обозначаться эти самые обмены товарами или услугами, направлениями стрелочек рёбер будут показываться направления обменов, цветом стрелочек — тип товара или услуги, одним цветом для одного и того же типа для всей схемы. Цвет вершины — тип экономического актора, соответственно одни и те же цвета для одних и тех же типов для всей схемы.

Веса, то есть значения при стрелочках — объём обменов этим типом товаров или услуг, в одних и тех же единицах для этого типа для всей схемы, за один и тот же рассматриваемый для всей схемы период рассмотрения экономики, например за год.

типа

Можно ввести веса и при вершинах, показывая этим некоторую кратность (и вводя тогда веса для например исходящих через эту кратностья), хотя это усложнение которое не стоит делать на первым этапе построения такой модели. Но оно например хорошо при дальнейшем анализе, если вы дойдёте до того что надо строить возможно виртуальные экономические акторы — "генераторы" других экономических акторов, поставляющих эту самую кратность в терминах кратности. Ну или если без неё обходиться — создающих новые экземпляры экономических актов такого типа. Но это тоже усложнение, которым не надо забивать голову на первых этапах. Для начала представьте самую простую такую обменную модель, не рассматривая вопросы роста мощности экономических актов, которые зависит от увеличения их как натуральных объектов: добавления новых корпусов фабрик и заводов, рождения новых людей и тому подобное.

Вот у вас есть схема, некоторый клубок связей в графе, притом часть стрелочек будет идти снаружи, — "от природы", от окружающей среды то есть (которую если очень уж захочется упороться можно тоже представить в виде выделенного экономического актора, а если ещё более упарываться, можно представить как взаимодействие нескольких элементов, по аналогичной схеме, — Но это для совсем других нужд, нужд анализа взаимодействие с окружающей средой, необходимо лишь; на первых этапах не надо так заморачиваться), — а также уходить в неё же, "вовне" (это называется "отходы").

На уровне правил, по которым действует эти экономические акторы, совершенно не важно, как они там внутри устроены, "на чём они работают", — "на людях", "на человекообразных роботах" ли, или "на бронетранспортёрах".

Важными будут вопросы, будет ли после замены поставок часов рабочего времени от людей на поставки часов рабочего времени от человекообразных роботов, создаваемых фабрикой по производству человекообразных роботов, это система продолжать наращивать суммарный объём произведённых продуктов (товаров и услуг) период от периода, то есть год от года, или же начнёт стагнировать.

Вы же можете представить себе функционирование предприятия как простейшего механизма, — ну, типа реостата, или программы для вашей стиральной машинки, — призванной, то есть заточенной под максимизацию прибыли В LONG RUN, действуя в рамках ограничений законодательства (ну и формализованных для неё не формализованных в законодательстве ограничений, которые мы тем не менее хотим чтобы бизнесы соблюдали; впрочем мы можем перенести это в законодательство, либо натурально, либо условно в рамках нашего рассмотрения, говоря что законодательство, которое должны соблюдать эти бизнесы, состоит из юридических законов и формализованных нами прочих ограничений) в конкурентной среде рыночной экономики (неважно, человеческой, роботизированной или смешанной — на самом деле просто той, в которой работает это предприятие, если мы не оговариваем иного)? Можете же себе такое представить?

На самом деле легко заметить что такая схематизация любую десипативную систему с модульностью описывает: например клетку, где акторами будут органеллы, а обменами — метаболизм между ними, — многоклеточные организмы с выделенными органами, на уровне рассмотрения организма как системы обменов между органами, — и промежуток между такими способами организации, в виде бактериальных матов, где актерами будут слои этих матов. Или экономика. Или предприятия, где на таком уровне можно рассматривать как отделы, так и например отделы и людей.

Это универсальная схематизация для любой диссипативной системы с модульностью.

Надеюсь указание на то что мы таким образом даже клетку на уровне органелл или многоклеточный организм с органами, как систему взаимодействия органов можем рассмотреть, как-то повернут вам голову в сторону того, что нам не нужно требовать Особого Человеческого Интеллекта у экономических акторов, совершающих обмены в таких системах

если у нас есть ЛЛМ, то ЛЛМ сама себе может поставить задачу лучше обычного человека)

Где можно посмотреть результат?

Вангую появление профессии овнодетекторов, которые будут способны сказать «эта хня не получится, попробуй ещё раз».

В мае 2025 года профессор университета Фаххохшуле (Австрия) Макс Шлерет опубликовал чёткое научное доказательство, что сильный ИИ логически и математически невозможен из-за фундаментального ограничения — барьера бесконечного выбора (Infinite Choice Barrier, ICB), экспоненциального роста энтропии при увеличении неопределённости.

Пусть господин сначала даст определение интеллекта как такового, потом определение сознания, потом определение сильного ИИ (так как оно базируется на двух предыдущих). Тут философы пачками спиваются, не могучи это понять, а кто-то берет и доказывает нечто, у чего нет даже общепринятого определения...

Artificial General Intelligence (AGI) refers to an algorithmic system that is (a) capable of (b)
autonomously solving (c) a sufficiently comprehensive variety/share of human problems d) at a level of quality that is at least equivalent to the respective human capabilities

В этом смысле проблем нет.

Проблемы найдены:
1. sufficiently comprehensive - субъективный критерий. Достаточно исчерпывающий - для чего/кого?
2. level of quality - субъективный критерий. Для каждой задачи придется придумать свою оценочную функцию
3. at least equivalent - а как быть с задачами, в которых ИИ превосходит человека?

  1. sufficiently comprehensive - субъективный критерий. Достаточно исчерпывающий - для чего/кого?

Для уже существующего носителя интеллекта. Зыбкая, конечно, почва. Но, скажем, в своей среде мы же как-то диагностируем и имбецильность и идиотию и дифференцируем одно от другого и квалифицируем это разными уровнями дееспособности. Не без ошибок, но что-то получается. И, в принципе, это проблема только пограничных состояний. Если по пункту 3 будет превосходство по всем фронтам, то и вопрос отпадёт сам собой.

  1. level of quality - субъективный критерий. Для каждой задачи придется придумать свою оценочную функцию

Ну, и что? Мы же для себя придумываем.

  1. at least equivalent - а как быть с задачами, в которых ИИ превосходит человека?

Так at least - покрывающий критерий. Никто не мешает превосходить. Для этого всё и затевается же.

Достаточно исчерпывающий - для чего/кого?

Учитывая что одним из аргументов является бесконечномерное пространство принятия решения сдаётся мне, что не сильно принципиально где конкретно эта граница всплывает. Сформировать некий пул задач кажется не сильно сложно, особенно учитывая что существует кучка ИИ бенчмарков.

а как быть с задачами, в которых ИИ превосходит человека?

ну так "как минимум равным человеку", то есть равным либо превосходящим, тут кажется всё просто.

Но в среднем там написана вода из жижи растворенная в ИИшной водке, как и вся "научная аргументация", меряющая влажное с тёплым в попугаях на квадратного удава. Возможно это имело бы смысл в каких-то контекстах, но в качестве пруфов - точно не имеет.

Я почему-то не верю в какие-то барьеры бесконечного выбора. Для меня всё просто: если есть натуральный интеллект, то возможен и искусственный, идентичный натуральному. Всё. AGI возможен.

Идентичный? Осталась сущая мелочь: искусственно воспроизвести натуральный мозг с точностью до... вряд ли даже молекулы (а вдруг ещё и квантовые эффекты придётся учитывать?) и дело в шляпе. Можно построить модель (на данный момент уже есть, в кремнии, но настолько грубые...). Можно асимптотически приближаться, но чем ближе — тем сложнее и затратнее. И даже если каким-то чудом удастся, то чем этот искусственный будет отличаться от естественного?

искусственно воспроизвести натуральный мозг с точностью до... вряд ли даже молекулы

Если мы скопируем мозг, допустим, Энштейна, то обнаружим, что нет сходства молекула-в-молекулу с мозгами других людей. И у вас теперь два варианта: признать, что интеллект - это термин плоскостью выше молекулярного соответствия или сказать, что у остальных людей интеллекта нет.

Настоящий интеллект только у Эйнштейна, у остальных просто игристые нейрончики.

Ой, не. Воссозданный мозг скажет "идите и сами решайте свои проблемы, а я о море помечтаю / книжечку почитаю / мне за это не платят "

Тут нужна именно система, которая умеет только решать задачи, копировать существующие мозги может оказатся ошибкой

Об этом был неплохой сериал MurderBot. Правда в итоге он всё равно всех спас, хоть и не хотел.

Идентичный? Осталась сущая мелочь: искусственно воспроизвести натуральный мозг с точностью до...

а кто сказал что его архитектура единственно возможная и удачно спроектированная? Создание ии это итеративный процесс, как эволюция. Более того мозг не живёт без тела, гормонов и прочей требухи. И просто его скопировав неизвестно что получится.

Для решения задачи построения AGI ничего из перечисленного вами в тейке про "осталось одна только мелочь" очевидно не требуется. Кроме того вы тут совершаете логическую ошибку, если делаете её добросовестно, или манипуляцию, если пытаетесь обманом заставить нас сделать эту логическую ошибку, "подмена темы". Какой-то дурак написал писульку которая якобы опровергает возможность GI, в варианте "A", и тут всех кто пускает пузыри по поводу этой писульки с серьёзным видом люди закономерно садят в лужу рассказывая о том что на нейросетках уже реализован GI, так что внимания это писулька не заслуживает, потому что даёт заведомо ложный вывод.

Разбираться далее в ваших заблуждениях по поводу способа воспроизведения биологического интеллекта — это вообще третья задача. Первая здесь — показать ложность утверждений (про фундаментальную невозможность создать AGI), вокруг которых столько болтовни получилось на как видим пустом месте.

скопировать мозг не поможет потому что в тред врывается нейропластичность, под влиянием опыта и обучаясь мозг изменяется и постоянно образуются новые нейронные связи, как это воспроизвести этот процесс искуственно не очень понятно

Так же как мозг меняет связи, по тем же алгоритмам перестраивать связи между исскуственными нейронами. Благо в цифровом мире то это сделать в миллиард раз проще чем в реальном

Проще? Когда гигаватт нужен для эмуляции того, что живой мозг делает за 20 ватт, это "проще" ?

Осталось только критерии достижения хотя бы локального экстремума при решении задачи подогнать для соответствующих методов перестройки.

по тем же алгоритмам 

а алгоритмы уже известны, чтобы по ним что то делать? мозг вроде как рандомно костылит связи в зависимости от химического баланса, внутричерепного давления, положения башки и просто потому что аксончик вот так вот лег

Вы забыли добавить "мне". Ну, после, или до своего "не очень понятно". Правильный текст: "мне не очень понятно".

Вам непонятно, другим — понятно, Ok. Кроме того, точного повторения вовсе не требуется для того чтобы получать полезные AI 🤷🏼, мы это уже прекрасно видим

Комментатор выше про концепт говорил.
Он практически возможен хотя бы в одном исполнении, что автоматически опровергает тезис о невозможности AGI. В том то и дело, что он может и ничем не отличаться.
Главный вопрос - возможны ли другие модели интеллекта? Не человекоподобные?
Например, выше люди приводят тезис, что мозг ворон (которые очень умны) сильно отличается от человека зонами и взаимодействием между ними.

То, чего мы не знаем, так это возможен ли ИИ в кремнии и являются ли LLM шагом на пути к нему (условно нужно просто улучшать архитектуры и увеличивать количество параметров) или это шаг в сторону и для AGI нужно нечто принципиально другое.

Вопрос с копированием мозга, кстати, тоже интересен - копирование на каком уровне достаточно, что бы он работал? Возможно молекулярное и не нужно - достаточно скопировать только поведение нейронов и связи между ними? Насколько ухудшит качество модели дискретизация сигналов и дискретизация поведения нейронов? Если незначительно - то мозг может быть симулирован при помощи компьютера.

Но зачем он вам ? В мире, где миллионы носителей натурального интеллекта умирают от голода смысла в том, чтобы сжечь 20% электричества и получить тоже самое, что можно получить за 9 месяцев как-то не видится...

Всяж загвоздка именно в этом. Сколько будет этот интеллект стоить и что он сможет делать такого, чтобы это того стоило.

Можно за 9 месяцев с нуля получить опытного инженера или программиста? Или хотя бы так уж и быть, редактора?

Смысл в том что получив ИИ, его можно бесконечно копировать. Это ж софт, создание копии ничего не стоит.

Это ж софт, создание копии ничего не стоит.

...при этих словах по всему миру зашлись в диком вопле тысячи копирастов.

А исполняться он будет на каких-то магических кристаллах, которые господь бог нам пожалует ?

Обучение на многие порядки труднее исполнения. Если будет на чём обучить - то на работу миллионов копий уж точно найдётся железо.

А разве можно считать AGI таковым если он не способен к постоянному самообучению?

Разве можно считать приложение приложением, если оно не способно функционировать без связи с сервером?

Иначе говоря, обучение не обязательно перекладывать на клиентские машины.

Откуда у вас клиентские машины взялись? Вы хотите создать подобие улья, коллективный интеллект?

Даже сейчас один и тот же промпт, введённый дважды, даст два разных результата. Так что про "копирование" можете забыть. Не говоря уже о том, что там не "софт" а "дата", которая постоянно плывет...

В ответы LLM специально введён элемент случайности, чтобы они выглядели более "человечными".

Если вы рандом обнулите, ответы будут одинаковыми.

если есть натуральный интеллект, то возможен и искусственный, идентичный натуральному. Всё. AGI возможен.

Но есть нюанс. «Размер сетки» называется.

Я понимаю, что надо оставить комментарий везде, потому что без вашего мнения ну никак не обойдутся.

Но смысл в этом комментарии какой? "Размер сетки" надо полагать входит в определение "идентичный натуральному". Не совсем понял, что имелось в виду, количество нейронов или ещё какой показатель, но это не важно. Важно то, что любой показатель возможно повторить. Как минимум теоретически.

Вот и всё. Нет никакого нюанса.

Важно то, что любой показатель возможно повторить.

Повторить‑то можно, но и там есть нюанс. «Энергопотребление» называется. Удачи заставить 100500 видеокарт работать на энергии, содержащейся в миске супа.

100500 видеокарт работать на энергии, содержащейся в миске супа.

Да без проблем, если уметь применять формулу e=mc2. Это примерно 5 гигаватт энергии в течение часа. А по поводу что мы так еще не умеем - ну мы может и не умеем, а ИИ быстро придумает технологию.

Да без проблем, если уметь применять формулу e=mc2. Это примерно 5 гигаватт энергии в течение часа.

Вот Вы, например, не умеете. Потому что для этого нужно ещё и такое же количество антиматерии. Дерзайте!

Так-то есть еще альтернативный путь, не требующий антиматерии - коллапсарный реактор: сжимаем миску супа в микро-черную дыру, она мгновенно ипсаряется, собираем энергию. Остается только научиться сжимать миску риса в черную дыру

Остается только научиться сжимать миску риса в черную дыру

И собирать энергию.

Подозреваю, без затрат энергии тут не обойтись. И что-то мне подсказывает, что потребуется её не меньше, чем получим обратно.

С помощью термояда из миски супа можно также получить весьма существенное количество энергии, и это намного более простой процесс, который человечество уже почти освоило.

Так, в протон-протоном цикле в энергию конвертируется примерно 0.7% массы водорода. Вода содержит 1/9 водорода по массе. Берём поллитра очень жиденького супчика (состоящего из одной лишь солёной морской воды), и из него выделяем примерно (0.78 г)*(1e-3)*(2.99e8 м/с)^2 = 69.7 ТДж = 19 ГВт в течение часа.

С помощью термояда из миски супа можно также получить весьма существенное количество энергии, и это намного более простой процесс, который человечество уже почти освоило.

Два слова: константа Капицы.

Я не понял, а работа на миске супа - это преимущество? Ну зайдите в ближайшую доставку, посмотрите, сколько там стоит миска супа и переведите на киловатты. У меня получилось порядка 100 кВт*ч. Я, как белковая нейросеть, предпочёл бы кушать из розетки и не запариваться каждый день с вопросом "а чего бы пожрать".

Энергоэффективность нейросетей - вопрос времени. Я думаю, что создание масштабных сетей, которые могут работать дешевле, чем "за еду" - это не фантастика, а вопрос ближайшего времени.

Нейросети уже сейчас достаточно энергоэффективны на больших масштабах.

Да, если вам надо ответить ровно на один вопрос - это ужас-ужас по энергопотреблению. Но если вам надо непрерывно отвечать на один миллион вопросов в секунду, то на один вопрос будет потребляться намного меньше энергии, чем при использовании для этой же задачи большого количества человеческих мозгов.

Пруфы-то где? Сравнивали энергопотребление LLM и живого человека, отвечающих на один и тот же вопрос?

Какая-то у вас дорогая доставка. Заходите в ближайшую пятерочку и покупаете рис за копейки.

А почему вы сравниваете еду, которую ещё нужно пойти купить и приготовить с электричеством, которое приготовили и доставили ко мне в дом?

Давайте сравним с перегретым радиоактивным паром первого контура ВВЭР тогда уж. Вот там будет дёшево. Но нужно самому прийти и приготовить.

А что там её готовить? Газ стоит копейки, вода тоже. Электричество ж еще подороже будет - КПД-то его производства невелик.

Вы мне на вопрос не ответили. Какой-то газ, какая-то вода. Работу человека кто считать будет? Зря что-ли такая разница в стоимости между приготовленной едой и продуктами в магазине.

И ещё вопрос вдогонку: будете головой работать за миску риса в день? Я - нет.

будете головой работать за миску риса в день?

А кошка жена будет?

И попробуйте поработать на одном рисе 24/365, без сна, отпусков, зарплаты, индустрии развлечений

возможен и искусственный, идентичный натуральному

А надо не идентичный, а чтобы на обед не ходил и котов не смотрел в рабочее время, и при этом считал и читал быстро

Хм. Вот для белковых нейросетей бесконечность вариантов вообще не является проблемой - в какой-то момент производится более-менее обоснованное тыкание пальцем в небо. Гораздо сложнее все факторы для решений учесть, с правильными весами.

Для искусственных нейросетей как раз последнее выглядит меньшей проблемой. И даже тыкание пальцем в небо будет более обоснованным, ну или по крайней мере иметь более узкие рамки.

Возможно это не соответствует каноничносу определению AGI, но выглядит так, что систему, более эффективную в принятии решений, чем человек, выстроить реально.

Каноничного определения AGI и не существует. Это дискуссионный вопрос.

Нейросети уже тыкают пальцем в небо регулярно. Результатом многих операций является список возможностей с вероятностями, из которых нужно выбрать одну, причем уже давно практически показано, что "бросок кубика" при выборе работает гораздо лучше, чем просто выбор самой вероятной

Это как теорема Найквиста: она верна. Но вот то, как её применяют, часто неверно.

Так и тут. Профессор может и прав, я его не читал. Но он сходу определяет AGI очень узко как "алгоритм, решающий широкий спектр задач". То есть решающий абсолютно точно. То есть, про решение задач с достаточной точностью речи не идёт.

Есть очень тонкая деталь почти везде, где используется строгое определение "алгоритм".
Например в теории о "невычислимости сознания" речь идет о возможности сведения сознания к "вычислимой функции", то есть функции, решаемой "алгоритмом" в строгом смысле.
Не суть важно то, насколько верна теория, важно что де факто реальные компьютеры имеют генераторы случайных чисел (в том числе физические) и устройства ввода, то есть могут запускать программы, не являющиеся "алгоритмами" в классическом понимании - они не детерминированы и содержат побочные эффекты.
Соответственно когда выстраивают тезисы "сознание невычислимо" -> "алгоритмы вычислимы" -> "компьютеры выполняют алгоритмы" = "компьютеры не могут вычислить сознание", исходят из разных определений алгоритма.

Ну тут как число Пи. Его вычислить нельзя полностью. Но вот определенное число знаков реально. Так и тут. Полностью AGI не возможно. Но частично оно может и 4 и 5 техническую революцию сделать.

Ну как сделает — разбудите меня.

Главный и окончательный, на мой взгляд, довод против этой теории о невозможности AGI был приведен выше. У нас уже есть одна реализация AGI. Это человеческий мозг, который является сложной биологической машиной. Если собрать копию человеческого мозга по атомам и молекулам, то получится AGI. Возможно, в исходной статье действительно говорится о чем-то другом? Может, что AGI невозможен в Тьюринг-полной парадигме или что-нибудь вроде того?

У мозга в работе используются другие физические принципы, а это может давать ключевое различие в возможностях.

Какие другие физические принципы? Что там , что там электричество. Только химии немного добавляется, но в ПО можно её имитировать другими средствами

Современны LLM работают на процессорах. Центр процессора это ALU. В которое подаётся данные из памяти, производится вычисления, результат складируется обратно в память. Вот на этом ядре и строятся абстракции работы LLM. Нетрудно заметить для чего такая архитектура хороша (числобробилки), а для чего не очень (параллельные операции) Но за счёт бешеной скорости Гигагерцы - мы можем имитировать сносное параллельное выполнение.

Берём же мозг. Основу работы мозга составляет белое вещество. Количество нейронов это тонкая морщинистая прослойка толщиной в 1мм. Количество нейронов особо не меняется (постоянно уменьшается), а вот аксоны от этих нейронов - они как корни деревьев. Всё белое вещество это тупо провода. Аксоны которые каждый день растут и отмирают. Один нейрон может иметь сотни тысяч таких аксонов и соединений. Во на этом основана архитектура мозга. Мега-гиганский постоянно перестраиваемый граф. И повторить (миллиарды постоянно меняющихся физических соединений проводом) мы это в железе не можем. Не та архитектура. Только эмулировать программно.

Как видите - архитектура весьма разная. Но что касается основного вопроса - моё мнение, архитектура не главное. Главное результат работа. Результат работы сильного ИИ - грамотные умозаключения, можно получить на любо архитектуре. Я бы вообще поставил на фотонику.

Делали попытки симуляции нейронов и их соединений на суперкомпьютерах лет 5-10 назад. Одну секунду работы 1% клеток "мозга" 10к ядер несколько часов считали. Без Сферы Дайсона дороговато будет)

Ну для графики, которой рисовали мультики, целые фермы каждую секунду сутками рендерили, а сейчас потребительские карты справляются с лучшим качеством в реальном времени.
Все же и оборудование можно сделать более специализированное, и прогресс не стоит на месте - его можно сделать мощнее и экономичнее.
Проблема тут в том, что мы не знаем что считать.
Так то можно на суперкомпьютере считать, как электроны двигаются в кристалле металла и весь датацентр симуляцией "Тамагочи" занять, хотя число логически подобная программа будет работать на современном градуснике

Тут немного подмена понятий. Логическая работа нейрона - крайне простая. У него есть куча аксонов (входов) и 1 дендрит( выход). По аксонам поступают электрические импульсы в виде ШИМ модуляции от других нейронов. Исходя из внутренней настройки нейрона (какие то аксоны тормозящие, какие то нет) - в определённый момент (когда по входящим аксоном придёт достаточное количество ШИМ сигнала) он срабатывает и начинает выдавать такой же ШИМ сигнал в свой выход. К которому дальше подключены сотни тысяч аксонов других нейронов.

Кстати все эти подключения в новорождённом мозге хаотичны. Куда аксон как корень дерево пророс туда и подключился. (я здесь не поднимаю тему специализации участков мозга под определённые задачи. Там играет уже биохимия генетического кода). А во в процессе жизни - в результате самообучения уже идёт настройка графа. Ненужные соединения отмирают, нужные прорастают.

Именно этот алгоритм и заставляет работать мозг. И именно такое подведение можно легко повторить в железе.

Если же эмулировать всю биохимию нейрона (а он самая настоящая клетка), т.е. мы доллжны эмулировать клеточную биохимию - никаких цифровых мощностей не хватит.

Но клеточная биохимия рассчитана только на жизне-поддержание конкретного нейрона, в целом на алгоритм работы мозга она не влияет. Ну может при шизофрении - или при принятии наркотиков, когда нейрон начинает срабатывать не по алгоритму аксоном, а рандомно.

Взять например двигатель внутреннего сгорания. Принцип его работы предельно простой. Но если эмулировать всю химию вплоть до атома в камере сгорания - то тоже не хватит никаких вычислительных мощностей. Хотя для виртуализации работы двигателя будет достаточно принять за факт только один принцип - газовая смесь расширяется при поджоге и следовательно нагревания.

Логическая работа нейрона - крайне простая. У него есть куча аксонов (входов) и 1 дендрит( выход). По аксонам поступают электрические импульсы в виде ШИМ модуляции от других нейронов. Исходя из внутренней настройки нейрона (какие то аксоны тормозящие, какие то нет) - в определённый момент (когда по входящим аксоном придёт достаточное количество ШИМ сигнала) он срабатывает и начинает выдавать такой же ШИМ сигнал в свой выход

Сразу нет. Это описание используемой условной модели нейрона, применямых в нейросетках, а не реального биологического. Там не электричество, это раз. И не ШИМ, это два. И по одному аксону передаются сразу десятки сигналов (аналоговых, ага), это три.

Но клеточная биохимия рассчитана только на жизне-поддержание конкретного нейрона, в целом на алгоритм работы мозга она не влияет. Ну может при шизофрении - или при принятии наркотиков, когда нейрон начинает срабатывать не по алгоритму аксоном, а рандомно.

Соответственно, тоже неверно. Нет там "алгоритма", есть разные уровни аналоговых сигналов. И шизофрения/наркота отличается только количественно, а не качественно - проще говоря, в условно "нормальном" состоянии работа тоже отличается. Так что не "биохимия рассчитана", именно она и является определяющей для работы.

Поэтому оно и обречено на провал - достаточно спросить нейрофизиологов типа того же профессора С.В.Савельева.

Сразу нет.

А потом пишете что да. Как это понимать?

Давайте разделять понятия - логическая работа. Т.е. булева алгебра. И биохимия - где в секунду могут происходить сотни химических реакций.

Так вот логически нейрон работает просто - на входы подаются импульсы, электрические импульсы, с чего вы взяли что их там нет ? Даже есть графики величины в милливольтах на предмет срабатывания (гуглите сами). И сам нейрон внутренней своей структурой настроен на порог срабатывания, как только количество импульсов в секунду превысят этот порог, идёт сработка нейрона и он уже выдаёт свои импульсы на выход. Повторяю - предача данных между нейронами происходит не аналоговым сигналом (т.е. не учитывается величена напряжения), а предаётся грубо говоря цифровым. Учитывается только частота импульсов. Это как бы общеизвестная информация. Поэтому и применил ШИМ термин. Хотя он не сильно конечно коректен. В этом согласен. Решил подсакротить в моменте себе писанину - но как всегда поплатился.

Я не собираюсь спорить с нейробиолагами на предмет конкретного строения нейрона как биоклетки, как он там эти импульсы сравнивает и другая биохимия. Потому как это же бред - кто в этом варится годами заткнёт меня как просто мимопроходил-почитал. И то потому как я этим не интересуюсь.

Но! В деле построения подчёркиваю ИСКУССТВЕННОГО интеллекта, важен именно алгоритм. Не нужно эмулировать всю биохимию клетки.

Ну разумеется найдутся те кто утверждает что в клетке нужно учитывать мифические квантовые эффекты или вообще божественное проведение и без души всё это работать не будет.

Но этот спор будет просто переливании воды. И этот спор может разрешить только реальность. А реальность такова что современные LLM - попросту догнали по интеллекту большинство людей. Остались маленькие косяки - посмотрим на их решение что будет уже в ближайшие даже не годы.Тут соревнования уже на месяцы идут.

Да то что вы пишете верно, думаю всем известно кто темой интересуется.

LLM - попросту догнали по интеллекту большинство людей
Большинство людей и тысячной доли LLM не знают. Попросите случайного человека описать особенности атмосферы Плутона, вообще ничего не скажут. Иногда могут лютую дичь выдать, типа Аллах не велит такое знать и т.п.
Придирки к LLM сейчас часто очень каверзные, к людям меньше требований было.

Иногда могут лютую дичь выдать,

ну так ведь и LLM тоже!

Как работают LLM известно. По крайней мере исходники открыты - все кто хочет могут поизучать.

LLM ищут наиболее подходящий патерн ответа. Если LLM спросить то чему она обучалась то она это выдаст в качестве ответа.

Но если её спросить неизвестную информацию, чего нет в её графе и весах нейронов, то она попросту выдаст наиболее похожую информацию. Вот и весь фокус.

Попросту LLM сделана так что бы всегда отвечать. Т.е. сигнал всегда проходит с входа на выход.

И LLM не знает правильно она отвечает или нет. Просто так прошёл сигнал. И конец цепочки выдаётся в качестве ответа.

Но при этом - современные LLM просто мега мозги информации. Они правильно ответят практически на все известные вопросы человечества. Потому как туда загрузили почти весь интернет и не только. И распарсили это в граф для быстрого поиска.

В этом LLM уже попросту на порядки препрыгнул человеческий мозг.

В этом LLM уже попросту на порядки препрыгнул человеческий мозг.

Онотоле тихо усмехается.

Онотоле как раз периодически выдает галлюцинации не хуже LLM

Но если её спросить неизвестную информацию, чего нет в её графе и весах нейронов, то она попросту выдаст наиболее похожую информацию. Вот и весь фокус.

Человек так же делает. Есть анекдоты по этой теме, про студентов на экзамене и т.п. Ответить нужно, желательно правдоподобно, а знаний нет.
Так же вполне успешно представляли некоторое время что атомы это аналог солнечной системы, вместо планет электроны.
Электричество в целом представляли как воду в трубах-проводах, тоже иногда аналогия похожа.
LLM все же дальше пошли, например пишут код точно по промту, например вращение точки в N-мерном пространстве на заданный угол. На основе похожих задач делает код, которого ранее не было и показывает результат работы.
Простенькие АльфаГо и АльфаФолд сделали то, чего ранее не было, новую стратегию игры в Го и 200 млн. белков рассчитали. Специализированные нейросети как-раз для поиска нового.

По быстродействию точно наоборот всё, время релаксации нейрона 5 мс и скорость обмена информации 0.2 км/с, у логических элементов 0.5 нс и 300 тыс. км/с. Меньше шумов, точнее результат. Не надо моделировать нейрон, он медленный и глупый. Как не нужно на процессоре моделировать реле или радиолампу, чтобы повторить старые устройства, можно сразу с сигналами работать и логикой.
По моим наблюдениям в мозге человека около 10 мегабайт информации, в виде образов ссылающихся друг на друга. Глаз 0.1 мегапикселя и долго сканирующий пространство, чтобы закрасить слепое пятно и узкой зоной четкого видения пройти по всем ключевым точкам. Ну очень слабый мозг и периферия, не сравнить с цифровыми средствами.

Я думаю комментарий немного про другое.
Понятно, что архитектура процессора не самая подходящая - по сути мы обходим все соединения подряд по очереди и симулируем их, а не делаем это в параллели.
Но это чисто техническое ограничение - если мы выделим стабильную архитектуру для параллельных вычислений, мы сможем сделать ее существенно эффективнее. Собственно это уже произошло с графикой (множество более дешевых и специализированных ядер) и NPU (специализированное решение для параллельного перемножения больших матриц)

Вопрос в другом - потребуется ли для этого что-то, что требует других физических принципов, которые не могут быть симулированы в цифровом виде.
Например - квантовые эффекты.

При этом это не накладывает органичений концептуально - возможно квантовые эффекты могут быть симулированы с достаточной точностью (за дорого) а в будущем быть созданы специальные чипы как дополнение к компьютерам для этого типа операций.

Ну я как бы про это и писал. Всем очевидна что работа гигантского графа эффективнее в параллелизме. И фоннеймовская архетектура современных процессоров это не про параллелизм.

Видеокарты - это лишь жалкое приближение к структуре мозга. Где миллиарды нейронов и триллионы физических постоянно перестраиваемых соединений.

Вся проблема это сделать нано элемент (по типу КМОП транзисторов в современной электронике) но только с внутренней памятью. Грубо говоря скрестить RAM и ALU в единице нономаштаба

Надежду в этом направлявшие проявляют технологии мемристоров. Может ещё куча всего есть. Не слежу за этим.

Точно наоборот, мозг жалкое подобие видеокарты. Видеокарта рендерит 8К картинки по 120 раз в секунду. Мозг глазами разрешением 0.1 мегапикселя сканирует изображение вплоть до минуты (как при чтении текста) и в голове держит достаточно мутную упрощенную картинку. Можно дать кадр рассмотреть, в стиле найди кота и нюансы сразу из памяти теряются. То есть мозг медленный, шумный, память всего опыта несколько мегабайт, включая личный опыт, лица.
Параллельно мозг не работает, части отключаются, на МРТ видно что при разной деятельности разные отделы работают.

Скажем так. Нейросети по типу LLM, да и наши мясные нейросети используют граф для апроксимации (максимального сжатия) огромного объёма информации. Как раз мозг, а именно белое вещество очень оптимально реализуют и поддерживают этот граф в активном состоянии. Триллионы физически соеденённых проводов. Триллионы точек соединения в графе.

В видеокартах такого нет. Там это эмулируется программно. Отсюда и эффективность мозга. Работает на частоте alfa beta ритмов - десятки герц, но с чудовищным параллелизмом. И ему хватает каких то 20 ватт что бы работать.

То что видеокарты могут рендерить картинку - это другое. Это разные вещи. Мы же обсуждаем именно работу нейросети.

А то что человек проигрывает с треском число-дробилкам - пор это никто и не спорит.

Мы живём в удивительное время. Когда казалось бы не преодолимая гора - рациональные рассуждения, которые относились только к мясным нейросетям, как то буднично и резко вдруг стали воспроизводиться вполне себе на обычном железе, по типу матриц вычислительных ядер в обычной видеокарте.

Многие не могут в это поверить до сих пор.

Главное нащупан план. Алгоритм. Скоро появятся специализированные микросхемы - и не нужны будут гигаваты энергии и мега датацентры с видеокартами.

Триллионы физически соеденённых проводов. Триллионы точек соединения в графе.

Нету там чистых триллионов, несколько миллиардов нейронов соединенных не каждый с каждым, а случайно, соседний с соседним очень вероятно, соседний с тем что дальше на миллиметр уже чисто случайно. Может соединится, а может и нет. В искусственной нейросети каждый нейрон слоя может быть соединен с чем угодно, с любымы из предыдущих и точно настраивает связь, 32-битным коэффициентами. А в мозге нейрон пустил аксоны-дендриты наугад и соединился то с мышечным нейроном, то со зрительным, иногда везет и соединяется с нужным. Генетически общее направление роста связей заложено, далее случайно и в ходе обучения связи иногда формируются, иногда нет. Связи в ИИ намного более значимые, важные и точные. В мозге же может возникнуть полных хаос связей, а то и эпилепсия, связи возбуждают друг друга и пока не истощится энергия нейронов припадок не остановится. То есть триллионы связей это не достижение, это цена за то, чтобы мозг хоть как-то работал. Плюс там должны быть дублирующие связи и просто отмершие, от которых вреда больше, чем пользы.
В видеокартах всё лучше, причем на несколько порядков. Лучше скорости на 7 порядков у отдельного логического элемента, точнее связи, быстрое обучение (у человека лет 30, а человечество в целом 100 000 лет обучалось) и быстрая работа обученной нейросети.
Вот почти половина мозга занята распознавание зрительной информации и делает это плохо. Обычно человек помнит 50-100 лиц и то может ошибиться. А нейросети помнят миллиард абонентов платежной системы и распознают за доли секунды с точностью достаточной для платежей. Это уже не числодробилка, это то, на что мозг оптимизировался десятки миллиардов лет, то что раньше считали сильной стороной мозга.

Работает на частоте alfa beta ритмов - десятки герц, но с чудовищным параллелизмом.

А текст читаем по букве и так же рассматриваем картинки. Есть картинка траектория движения глаз при рассматривании лица, около сотни операций сканирования, в основном нос, глаза, подбородок рассматриваются, из множества последовательных фрагментов формируется образ лица.
Мышление тоже последовательное весьма, если нужно повесить полочку инженер перебирает все варианты, прибить, приклеить, примагнитить, поставить на пол.
Это ИИ может параллельно работать на тысячах серверов, передача данных на скорости света в любую точку планеты.

И ему хватает каких то 20 ватт что бы работать.

Да, при этом на мышление, что нас делает личностью как бы не 0.2 Вт уходит, остальное на низкоуровневую активность, дыхание, координация, зрение, слух, обоняние, управление мышцами, считывание тактильных ощущений. Где-то пролетала заметка о этом парадоксе, то что считали сложным, анализ научных открытий, программирование, сочинение рассказов и стихов делают LLM легко.
А простейшая координация робота при сложном скелете с многими степенями свободы пока не решена, частично только, но не сравнить с обезьяной скачущей по веткам.

Скоро появятся специализированные микросхемы - и не нужны будут гигаваты энергии и мега датацентры с видеокартами.

Понадобятся, для усиления ИИ будут запускать так же тысячи задач параллельно. Генерация биткоина тоже раньше делалалась несколькими компьютреами типа Пентумов одноядерных. Потом набежали конкуренты и сложность начала расти по экспоненте. Так же и тут будет, любой ценой будут наращивать мощности, чтобы ИИ был сильнее, чем у конкурентов.

Это задачи разные.
Ядра видеокарты - это ведь очень упрощенные ядрышки почти честных процессоров.
В нераспараллеливаемых задачах они сливают современным центральным процессорам в чистую, но их суть в том, что они специализированы для точно распараллеливаемых задач - графики.

Так и дальше можно продолжить аналогию - нейроны мозга очень тупые по сравнению с видеокартой, но супер параллельные и энергоэффективные.

Мозг действительно очень эффективен в плане потребления ресурсов, другое дело, что его не перестроишь просто так кадры считать.

супер параллельные и энергоэффективные

Параллельность носит случайный характер. В видеокарте параллельность честная. Слой нейронов как нарисован, так и работает, соединение каждого с каждым. А в мозге аксон из зрительной области пророс к нейронам обслуживащим желудок, ну так и поработал и решил за ненадобностью отмереть или прорасти еще куда-нибудь. Вот вам и триллионы связей, в которых в основном нет ничего ценного или они далеки от оптимальных.
Да и эффективность с учетом затрат на обучение у человека не очень высока. Нет спящего режима. Затраты на распознавание лица у нейросетей по моим прикидкам меньше в миллионы раз.

Так и в нейросетях перемножение идет каждый с каждым, а в половине связей - нули, они по сути не участвуют.
Есть даже процесс оптимизации нейросетей, когда вырезают из промежуточных слоев элементы, которые заведомо нулевые на несколько слоев.
Ну и почему у вас в определении "честная" указано то, что параллельные штуки выполняются стройными рядами.

Как раз таки то, что не весь мозг активируется, если не нужен для этой функции - это честная параллельность. Нейроны условного мозжечка настолько слабо связаны с нейронами условной коры, что могут и работать и не работать параллельно - это ли не честное распараллеливание задач.

Давайте сначала изучим базовое устройство нервной системы и мозга, прежде чем вводить людей в заблуждение "постоянным отмиранием" нервных клеток и "тысячам" аксонов у каждой клетки? Просто поражает, насколько люди, не имеющие профильного образования, с уверенностью берутся заявлять о том, как устроен мозг и как он работает.

Давайте не будем поражаться своим высокомерием - просто постоянно тут это отовсюду слышу.

Единственная моя ошибка что аксоны с дендритами путаю. Где вход где выход. Потому как это вообще не мой профиль. Мой профиль программист и электронщик. Привык иметь дело с входами и выходами.

Что касается по теме - я писал (вы не удосужились прочитать или понять) - входы (дендриты), постоянно устанавливают и разрушают новые соединения.

Я писал (вы не удосужились прочитать или понять) - нейроны(тонкая миллиметровая прослойка коры), их количество медленно уменьшается к концу жизни. Хотя я читал исследования что мол есть механизмы появления новых нейронов, но это не сравнить с процессом образования новых соединений - которые как раз и обуславливают построение графа - именно соединения определяют работу мозга.

Я писал (вы не удосужились прочитать или понять) - дендритов или соединений может быть тысячи. Даже на вики написано что десятки тысяч. Я читал исследование где говорили что у отдельных нейронов могут доходить до сотен тысяч.

Читал про исследования работа мозга определялась поведением не только самих нейронов но всяких вспомогательных вещей, сейчас не буду писать конкретику (попросту не помню) а то опять придерутся, но там находили всякие нелинейные зависимости прохождения сигнала и по дендритам и по аксонам. Какие то самостоятельные центры обработки сигнала.

Но всё это обсуждать - не хватит ни какого времени, да и желания. И я уверен что для построение ИИ достаточно эмулировать основные принципы работы нейрона. Без всяких (возможно уже редуцированных) активностей.

Вот-вот, не разбираются детально, а потом думают, что этого достаточно. Именно потому критика перцептронов и была разгромной в книге 70-го года, после чего все резко переключились на другие направления исследований - в наше время просто решили залить вычислительными мощностями. Да, как и всегда в бионике, даже некоторое подобие подсмотренного у природы принципа дает значительный прогресс. Но фундаментальные-то ограничения не сняты - вот и в этот раз пузырь нейронок сдуется.

Вы сами реализовывали перцептрон в программе? Я реализовывал. С нуля. Для взлома капч. Что там "разгармливать"? Я полностью представляю его работа и он мне дал то что я хотел. С капчами справлялся.

А подсмотренные в мясном мозге а потом повторенный АЛГОРИТМ, а не биохимия, свёрточные сети? Которые в мясной нейросети занимались первичной обработкой и выявлению патернов в видеоизображении?

Реализованный алгоритм в железе работает наура. Точнее и быстрее своего мясного прорадителя.

Я понимаю вашу критику ну пару лет назад. Да можно было бы защищать мясной мозг как нечто недостижимое.

Но сейчас. С появлением LLM.

Единственное с чем пока я не определился это с эфектом "чувств". Боль, чувство цвета, звука. В мясной нейросети эти иллюзии воспроизведены в совершенстве. Миллионы лет эволюции заставляли мясную тушку воспринимать боль как то что нужно избегать любым способом.

Взять кузнечика например - там боль чисто аппаратное поведение. Но когда на эту платформу наросла нейросеть посложнее, неокортекс там, с эмуляцией сознания (кстати тоже эффект связанный с эмуляцией пространства и определения тушки в этом пространстве для предсказания будущего, по типу крокодил укусил - всё можешь предсказать что все крокодилы опасны). Вобщем скрещивание аппаратных функций с сложной нейронной сеткой привело к появлению эффекта, иллюзии чувств.

Короче опять в словоблудие ударился. Вобщем эмуляция чувств в железе - это пока хз как будет. Страшно представить себе АД для машины чувствующей боль.

А зачем нейросети чувста? Это примитивный способ провести своего рода обратное распространение ошибки, медленное и глючное. Не факт что в цифровые чистые нейросети нужно тянуть этот мусор от биологических прородителей.

Я не говорил что нейросети нужны чувства. Я обсуждал сам феномен чувств. Это ведь получается иллюзия. Иллюзия возникшая в сложной информационной нейросети. Это как центробежная сила - тоже иллюзия, возникающая из за инерции. Это как архимедова сила - иллюзия возникающая в следствии гравитации - вода как бы подтекает под предметы и давит на них снизу.

Но при этом - мы как участники этого спектакля, воспринимаем эту иллюзию очень реально. Боль - это страдания. Значит ли что боль это иллюзия только для фокуса сознания? Мы же не чувствуем боли если находимся без сознания. Есть люди с генетическим заболеванием - они не чувствуют боли.

Цвет. Вижу я зелёный, так же как другие его видят? Или они другой цвет видят? И вообще цвет это лишь серия импульсов в нейронной сети.

Феномен я. Человек заявляет что он есть и он не робот. Но парадокс в том что в реальной жизни люди ведут себя как роботы. Они идут на работу. Делают дела. И лишь когда они затевают свой внутренний диалог - и спрашивают себя а есть ли они, только тогда может и происходит иллюзия самосознания.

Это хорошо видно на примере просмотра фильмов. Когда фильм интересны и человек в него погружается, происходит как бы отключения сознания. Картинка напрямую идёт в память минуя модуль оценки. Человеческое я проецируется на главного героя. Человек как бы становится ГГ. И всё что происходит в фильме с ГГ как бы мозгом воспринимается что это происходит и с самим человеком. В этой схеме идёт полное отключение собственного я. Иногда тебя отвлекают - и ты выпадаешь из этого состояния и осознаёшь что просто пялишся в ящик.

Примерно так гипноз работает. Слова гипнотезёра идут напрямую в модуль модулирования пространства. Мозг на самом деле видит не глазми. С глаз идут всё те же импульсы. А в мозге уже производится высоуоуровневая абстракция иллюзии образов.

Учёные доэксперементировались что понаходили конкретные нейроны отвечающие за конкретный образ. Физическое возбуждение неqрона вызывало образ.

Вообще тут и там читаешь про забавные эксперименты про глюки сознания. Из которых можно понять как оно работает. Например эксперимент с зеркалом и резиновой рукой. Подопытному с помощью зеркала заставляли поверить что резиновая рука его. Трогали её. при этом трогали и рельную руку под столом. А потом шмяк молотком по резиновой руке. И подопытный испытывал боль - которой не существовало. Не значит ли это что боль это иллюзия генерируемая в сложной нейронной сети?

Написал очень сумбурно - трудно уложить в одинокий коммент весь накопленный жизненный вариант представления работы нейросетей.

Короче я написал эту простыню - что всё это будет и в железной нейросети. Нет ни каких причин почему там не могут быть подобные иллюзии. А кто знает может в ней появятся иллюзии более высокого недоступного нам порядка.

Не "немного", а дофига. По факту химия как раз основное, одновременно десятки сигналов, причем не двоичных. Искусственные нейроны электричеством это даже близко не эмулируют.

Искусственные нейроны лучше на много порядков. Это биологические медленные и двоичные. А виртуальные могут быть 32-битные и различать миллиарды уровней сигнала за доли наносекунды. Биологические обмениваются информацией на скорости 0.2 км/с, а цифровые на скорости 300 000 км/с. Удивительно что эволюция смогла на таком мозг хоть как-то создать.

А количество каналов обмена и обработчиков информации не сравнивали?

В зрительном нерве порядка 770 000 нервных волокон. С учетом их медлительности это ни о чем. Тем более там не такого что каждый уникален и работает на максимальной скорости. Любой HDMI намного выше скорости даст. Какой аспект не взять, цифра побеждает.

Не получится. Потому что даже уже собранный человеческий мозг всё ещё нужно обучать, и то не всегда получается...

Нет. Во-первых, A значит artificial, а мозг естественный. Во-вторых, копия по молекулам еще должна как-то жить дальше как настоящий мозг, то есть постоянно менять связи.

чёткое научное доказательство, что сильный ИИ логически и математически невозможен

мне кажется автор не читал что тот вообще понаписал. Выглядит как наукообразная жижа. Не удивлюсь, если оно даже сгенерированно при помощи ИИ.

Не удивлюсь, если оно даже сгенерированно при помощи ИИ.

Таки автор статьи этого не скрывает.

Acknowledgments

The author gratefully acknowledges the assistance of AI-based collaborative tools, (mainly ChatGPT , specifically the GPT integrated with Wolfram Language computation as well as CoqProver) in refining the formulation and structure of this paper.

...

Есть мнение, что человек - не совсем AGI, хоть и считает себя таковым ) Поэтому не получается создать AGI, тренируя LLM на текстах, сгенерированных человеком.

Есть мнение, что человек - не совсем AGI

А где почитать по-подробнее?

Кажется, нам удалось наконец нащупать способ научно доказать существование Бога. Если AGI не получится создать за счёт тренировок на текстах, созданных человеком, но удастся за счёт т.н. священных текстов (Библия, Коран, Веды и т.д.), то это неопровержимо докажет, что данные тексты действительно генерировались разумом принципиально иного уровня, нежели человеческий.

Если AGI не получится создать за счёт тренировок на текстах, созданных человеком, но удастся за счёт т.н. священных текстов (Библия, Коран, Веды и т.д.)

Проблема в том, что эти тексты тоже создавались человеком и человеком же многократно переписывались, редактировались и переводились. С последним вопрос особенно остро стоит - на каком языке Библию, к примеру, скармливать ИИ?

Як на каком? Всем известно, что неточности при переписывании и переводе нивелируются божественностью книги. Запихувай туда Синодальный перевод 1804 года!

Остаётся ещё вопрос - запихивать Библию, Коран или Веды? Или всё сразу - ИИ сам разберётся в настройке весов священности?

Ну, в какой стране делается ИИ, такой текст и заливать)

Думаю что показывать AGI Ветхий Завет - не самая лучшая идея :)

человек - не совсем AGI

Человек это AGI просто по определению AGI.

Есть мнение, что человек - не совсем AGI, хоть и считает себя таковым )

Ну естественно, он ведь не искусственный. А разве кто-то серьёзно считает себя AGI?

В данном констексте ключевое слово General

И каковы его критерии? Чего человеку не хватает?

Вы меня спрашиваете? Лучше я воздержусь )
Выше в комментах приводил ссылку на мнение Яна Лекуна.

Это вопрос риторический. Спросил просто из любопытства. По поводу AGI можно только фантазировать.

Если заслуженный, но престарелый учёный говорит, что нечто возможно, он почти наверняка прав. Если же он говорит, что нечто невозможно, он почти определённо ошибается.

А вот, что ChatGPT (o3) "думает" насчёт этой статьи:

Но вот почему это «доказательство» вряд ли убивает идею ИИ общего назначения (AGI)
  1. Раздутое определение.
    Автор требует равномерной ε-оптимальности на всех входах в неразрешимо бесконечном пространстве. Но и люди не соответствуют этой планке — мы довольствуемся приближениями, подстраховываемся и часто просто ошибаемся. Если установить порог так высоко, то невозможность становится почти гарантированной.

  2. Набор символов на практике не фиксирован.
    Современные модели уже умеют расширять свой словарь «на лету» с помощью дополнений через внешнюю память, инструментов и человека в контуре. Это можно рассматривать как «оракул», но он реален и доступен — что размывает строгие ограничения, на которых строится доказательство.

  3. Приблизительные смены фреймов существуют.
    AlphaGo находил «странные» ходы, которые были вне рамок вековой человеческой интуиции; модели типа GPT изобретают новые паттерны каждый день. Это ещё не смена научной парадигмы, но уже свидетельство того, что градиентный спуск способен находить качественно новые представления.

  4. Тяжёлые хвосты ≠ безнадёжность.
    Методы устойчивой статистики, регрессии по квантилям, конформистского прогнозирования и обучения с противниками как раз предназначены для работы в условиях, где среднее и дисперсия не существуют. Они не дают идеальных гарантий, но позволяют строить рабочие политики.

  5. Эмпирическая траектория противоречит идее полной стагнации.
    В статье упоминаются теоретические «потолки» для моделей вроде GPT-4, но уже в 2024–25 годах появились мультимодальные агенты, опровергшие часть прежних предсказаний масштабируемости. История ИИ знает много примеров, когда «доказательства невозможности» быстро устаревали.

  6. Элегантность ≠ строгость.
    Изложенное доказательство сильно опирается на интуитивные переходы (например, приравнивание «в фрейме Ньютона нет символа Λ» к полной невозможности вывода) — формалист из области верификации бы потребовал строгой формализации перед тем, как принять такой вывод.

AGI должен эмулировать чувства, мечты, желания человека. Создавать цифровые модели этих элементов, и пропускать все токены через них. Тогда он сможет эмулировать человеческую мотивацию и систему ценностей. Вычислительная нагрузка в такой архитектуре вырастет на порядки.
Существует ли сравнительно простая формула, которая может быть математическим эквивалентом чувств и желаний - вот это главный вопрос теории AGI. Хотя возможно это относится уже к AGI++.

AGI должен эмулировать чувства, мечты, желания человека

Кому должен, и главное - зачем?

Вы хотите ИИ, не понимающий человека?

Скажем так, для большинства прикладных задач, которые я могу представить для ИИ мне не нужно, чтобы он понимал человека вплоть до чувств. Особенно чувств конкретного индивида. Кажется в большинстве случаев практического применения достаточно стат модели толпы.
Ну и эмулировать и предсказывать это сильно разные вещи.
Мне не надо, чтобы ИИ, допустим, пишущий сценарий показывал что он психует, ругается, радуется, смеется.
Мне нужно, чтобы он написал сценарий, который будет заставлять зрителей это делать/испытывать. И для ИИ актеров в этом фильме я не уверен, что им нужно моделировать радость как чувство. Боюсь большинству зрителей будет достаточно мимики.
(я вообще не люблю актеров, они не эмулируют, а обманывают. Это пугает. Детские травмы.)

для большинства прикладных задач

А для меньшинства? AGI - это для всех задач. Поэтому он и AGI. Ему нужно иметь базовые понятия о человеке. А базовые понятия о человеке невозможны без учета его эмоций.
Если AGI решает задачи связанные с безопасностью дорожного движения, он должен учитывать эмоции участников дорожного движения. Он должен учитывать, что чем дольше горит красный, тем сильнее подгорает у водителя.

Мне не надо, чтобы ИИ, допустим, пишущий сценарий показывал что он психует, ругается, радуется, смеется.

"Эмулировать" а не "имитировать".

Мне нужно, чтобы он написал сценарий, который будет заставлять зрителей это делать/испытывать.

Как он это сделает, если нет параметра оценки эмоций?
Даже если он будет обучаться на сериалах с закадровым смехом, он не сможет разобраться что именно вызывает смех. Здесь потребуется обучение с учителем.

AGI должен иметь исчерпывающие способности к самообучению.

Если AGI решает задачи связанные с безопасностью дорожного движения, он должен учитывать эмоции участников дорожного движения.

Или просто государство решит, что нарушение правил это проблема людей. Как например Тесла запретили в Калифорнии копировать водителей людей. Там одно из дорожных правил повсеместно нарушается, а вот автопилотам нельзя. Даже если это вызывает взрыв задницы у всех органических водителей

Что за правило нарушается?

Как он это сделает, если нет параметра оценки эмоций?

Будет, например, заливать миллионы роликов на тикток и смотреть отклики. Объединит это с существующей базой роликов и их динамикой откликов. И начнет делать ролики, вызывающие чувства даже не приходя к идее чувств. Просто человеки это такие черные ящики, если щекотать их этими картинками, они дропают ролик, а теми - смотрят до конца, пересылают знакомым и ставят лайки.

Мне нужно, чтобы оно лекарство от рака придумывало и новые материалы. Эмулировать ему лимбическую систему для этого не представляется необходимым.

Кому что. Мне вот надо, чтобы оно заменило правительство и полицию, например.

А смысл шило на мыло менять, чтобы что? Если АГИ будет действующим субъектом в нашем мире, у него будут плюс-минус те же субъективные/когнитивные искажения, что и у кожаных. Разве что дешевле в содержании будет, да и то не факт.

У нас куча людей, непонимающих других людей.

непонимающих

А как предлагаете их понмать, если они даже язык выучить не могут?

Он мог промахнуться так же, как и вы с

понмать

Терпимее надо быть к русскому языку, он слишком сложный :D

Он мог промахнуться

Промахнуться по пробелу?

Терпимее надо быть к русскому языку, он слишком сложный :D

Так к языку-то я терпимый. Я к его пользователям!

Но вряд ли у кого-то в этой куче есть доступ к ядерной кнопке.

А ИИ может быть страшнее ядерной войны.

ИИ не нужно эмулировать процессы мышления человека или его модель мотивации. Да это и невозможно, потому что мы в точности не знаем как именно работает мозг. Достаточно эмулировать результат этого мышления, и эта задача вполне выполнима, имея достаточно сложную функцию и достаточное количество примеров для ее обучения. Иными словами, если модель "видела" много примеров того как люди себя вели в той или иной ситуации, то она научится с высокой точностью предсказывать это поведение. И уже не так важно чем именно оно было продиктовано: чувства, желания мечты человека. Поскольку архитектура предсказывающей модели будет основана на совершенно других принципах. Она просто будет выдавать правильные ответы.

Достаточно эмулировать результат этого мышления, и эта задача вполне выполнима, имея достаточно сложную функцию и достаточное количество примеров для ее обучения.

Вопрос в том, насколько сложной будет эта функция. И сколько времени нужно чтобы ее описать в деталях, учитывая все возможные ситуации. Примеры для обучения нужно будет синтезировать.
ИМХО, это чрезвычайно трудоемкий процесс. Для каждой задачи нужно будет проделать колоссальный объем работ. По сути это эквивалентно обучению с учителем. Со множеством учителей.

Иными словами, если модель "видела" много примеров того как люди себя вели в той или иной ситуации, то она научится с высокой точностью предсказывать это поведение.

Это займет неопределенное количество времени. Прежде чем наберется достаточное количество примеров, изобретут какой-нибудь позитронный мозг.

Поскольку большое количество примеров человеческого поведения уже описано в текстовом виде, то начало положено - модели это "прочитали". Следующий качественный шаг - предоставить ИИ возможность взаимодействовать с физическим миром и с людьми в нём. То есть, роботизация. Роботы будут получать опыт и собирать данные уже одновременно в нескольких модальностях: видео, звук, тактильность. И все эти данные пойдут на развитие ИИ. Мне это видится уже не фундаментальной проблемой, а инженерной. То есть, вопрос времени, и не долгого.

И все эти данные пойдут на развитие ИИ.

А потом придет коммунизм

...и тут внезапно окажется, что опыт из реального мира вообще никак не коррелирует с опытом из "прочитанных" книжек :-)

Тем интереснее будет за этим наблюдать 🙂

чувства, мечты, желания человека
человеческую мотивацию и систему ценностей

Но зачем? ИИ - инструмент решения задач. Иметь собственные желания, кроме желания решать поставленную задачу, ему будет крайне вредно - снизит эффективность и может привести к незапланированным самостоятельным действиям.

ИИ - инструмент решения задач. Иметь собственные желания

Он не должен иметь собственные желания. Он же не человек. Он должен эмулировать человеческие желания, и использовать это как дополнительный параметр при оценке решений. Без этого он так и останется LLM жонглирующей словами, даже если эти слова можно преобразовать в команды для управления устройствами и другими программами.

Он должен эмулировать человеческие желания

Далеко не все человеческие желания стоит эмулировать.

Никто и никогда не знает, какое из человеческих желаний приведет к экономическому прорыву. :-)

какое из человеческих желаний приведет к экономическому прорыву.:‑)

СЧАСТЬЕ ДЛЯ ВСЕХ, ДАРОМ, И ПУСТЬ НИКТО НЕ УЙДЁТ ОБИЖЕННЫЙ! ©

Только если он работает психотерапевтом, или каким-нибудь пиарщиком/политтехнологом. Для большинства задач ИИ не требуется иметь рабочую модель человеческой психики.

И даже для этих задач ему нужно не самому испытывать какие-то желания, а просто понимать, как это делают люди.

Для большинства задач ИИ

Речь идет о AGI.

Хорошо, пусть у него в числе прочих знаний и будет модель человеческой психики.
Но самому-то ему желания и чувства испытывать зачем?
Кстати, высокофункциональные социопаты бывают весьма успешны, хотя они не испытывают значительной части желаний и эмоций, доступных обычным людям. Им вполне хватает созданной ими модели поведения других людей.

Но самому-то ему желания и чувства испытывать зачем?

Бессмысленный вопрос. В структуре трансформеров нет никакой субъектности самого трансформера, которую можно дополнить эмоциями. Речь о дополнительных параметрах. Они относятся к данным, а не к самому ИИ. Это синтетические параметры, которые можно получать с помощью эмуляторов, поскольку в обучающих данных они прямо не отражаются.
Почему вы подумали что AGI сам должен что-то испытывать? Вы воспринимаете его как субъекта?

Кстати, высокофункциональные социопаты бывают весьма успешны, хотя они не испытывают значительной части желаний и эмоций, доступных обычным людям. Им вполне хватает созданной ими модели поведения других людей.

Эта модель учитывает эмоции других людей?

Почему вы подумали что AGI сам должен что-то испытывать?

Ветка началась с вашего комментария выше:

AGI должен эмулировать чувства, мечты, желания человека. Создавать цифровые модели этих элементов, и пропускать все токены через них. Тогда он сможет эмулировать человеческую мотивацию и систему ценностей ...

Я-то как раз думаю, что сам он ничего испытывать не должен.

Эта модель учитывает эмоции других людей?

Безусловно, иначе высокофункциональные психопаты не были бы так успешны. При этом сами они некоторой части этих эмоций начисто лишены.

Ветка началась с вашего комментария выше
Я-то как раз думаю, что сам он ничего испытывать не должен.

"Эмулировать чужие чувства" это явно не то же самое что "испытывать свои".
Если бы речь шла о чувствах AI, то началось бы с предложения сформировать виртуальную личность. Иначе к чему прикручивать чувства?

Эмуляция это все таки демонстрация вовне ну или хотябы "проигрывание". Оно не обязательно для предсказания. Чтобы понять что будет с температурой при сжатии не надо считать скорости и координаты всех молекул в газе.

вот это главный вопрос теории AGI

А мне кажется, что главнее - понимание им 3D пространства + время. Такой робопомощник мог бы взять на себя всю физическую работу и для этого ему необязательно понимать нас на уровне чувств.

А мне кажется, что главнее - понимание им 3D пространства + время.

Это само собой.

То есть надо создавать ИИ у которого болит поясница? О_о

Вот давно сам хотел написать статью с рассуждениями на тему того, что возможно тот самый супер - интеллект, который решит все наши проблемы, должен быть невозможен чисто логически. Смысл интелекта - в том, чтобы в условиях недостаточной информации построить предположение, которое дополнит картину для оптимального решения задачи. И тут мы получаем - что это механизм, который из неполных данных строит полные - а значит имеем дело со сжатием - а оно либо с потерями, либо на сжимаемых данных. Если мы говорим про решение всех задач - данные у нас несжимаемые - а значит обязательно будут ошибки. И вот тут мы можем прийти к тому - что гениальность открытий - на деле результат случайности в обучающей выборке или в мире. А значит - обученный на всех знаниях мира ИИ - должен быть примерно так-же хорош в создании открытий - как человек средних знаний т.к. распределение вероятностей в полной выборке будет в среднем совпадать со случайным срезом.

Смысл в том что ИИ мог бы совершать множество попыток. Он же не ограничен скоростью прохождения сигналов нейронах, можно ускорять модельное время просто масштабируя железо. Вы говорите что ИИ будет работать на уровне человека с IQ 100. Но вот такой человек, но идеально мотивированный, ничего не забывающий и имеющий миллионы лет в своём распоряжении мог бы немало чего изобрести. А для ИИ разницы между часом и миллионом лет нет, лишь бы железо тянуло.

вот такой человек, но идеально мотивированный, ничего не забывающий и имеющий миллионы лет в своём распоряжении мог бы немало чего изобрести.

Вы хотели сказать — нагаллюцинировать. Для того, чтобы изобрести, нужно иметь возможность проверять свои теории — а у ИИ лапки.

а у ИИ лапки.

"Ложки нет" и лапков тоже!

Кроме отсутствия лапков у ИИ еще есть огромный корпус научных статей по выполненным экспериментам. Из него можно вытащить столько данных, что лапки не скоро потребуются.

Так мы же не о киберпопугаях LLM говорим, а о гипотетическом ИИ подобному человеку с IQ100. Такому можно и лапки и ручки и ножки привинтить. Или даже целую лабораторию с тысячами манипуляторов и всем оборудованием что только известно человечеству.

Наша передняя грань науки уже требует не ручек, а больших адронных коллайдеров и прочих гиганских, мегамощных когерентных лазеров. Более того - учёные ошибаются и ии будет, и будет требоваться его ревьювить чтобы фильтровать идеи с ошибками (хотя-бы консилиумом других ии).

Так может это и есть его "не концептуальное" ограничение?
И если дать ему среду для экспериментов и улучшить механизмы обратной связи, дообучения, тестирования и проверки гипотез - он будет таки изобретать?
Чем галлюцинации ИИ концептуально отличаются от гипотез человека, только приступившего к задаче и имеющего лишь смутные представления, как ее решать, идеи, что гуглить и иллюзии по поводу того, как это может быть сделано?

Тем, что человек этот начал обучаться и продолжит это делать, в отличие от галлюцинаций модели.

Вам в общем-то никто не мешает создать ИИ, который будет самообучаться тем или иным способом.

Проблема только в том что такому ИИ в современном мире очень сложно найти реальное применение.

Как это не мешает? Построить такую модель, как у реального биологического мозга - это очень сложно и дорого. Я даже пытаться не буду.

Эээ, а зачем обязательно строить такую же модель как у реального биологического мозга? Создать ИИ, способный к обучению, можно и без этого.

Дайте ИИ возможность генерировать модели с добавлением новой информации/источников и менять свою модель на свежие и вот вам уже "обучающийся" ИИ.

То есть скажем год собираем информацию, потом обучаем новую модель на старой и новой информации. После этого меняем модель. Вуаля.

Описанное - не самообучение. Это скорее "отправить на курсы повышения квалификации", на которых "всё разжуют", и то аналогия кривая.

Для самообучения он должен сам, непрерывно, онлайн себя изменять-обучать - как любое биологическое существо с достаточно сложным мозговм.

Описанное - не самообучение

Вполне себе. ИИ будет самостоятельно получать новую информацию и обновлять себя. То есть сам себя обучать. Вполне себе попадает под определение:"Самообучение (англ. self-instruction) — направленная индивидуумом деятельность на самостоятельное получение знаний и (или) опыта."

Для самообучения он должен сам, непрерывно, онлайн себя изменять-обучать

Это вы сейчас сами придумали?

Непрерывность обучения совсем не обязательна. Люди например тоже могут в коме лежать или даже быть клинически мертвы. Означает ли это что люди теперь тоже не способны к самообучению?

Ну Alpha Go ведь уже есть.
да, задача специфическая, тем не менее он вполне самообучался - поздние модели для донастройки играли сами с собой и вполне находили новые комбинации.

Я ниже описал проблематику. Помимо возможности обучаться, ему вероятно придётся дать возможность забывать - а тогда он станет похож на человека, и с одной стороны - это прекрасно и найдёт много применений, а с другой - мы получим разум похожий на обычного человека, а не гениального решателя всех человеческих проблем с помощью всех знаний мира, о которых все грезят при разговорах про ИИ. Эволюционная скорость развития, а не технологическая сингулярность

можно ускорять модельное время просто масштабируя железо.

А кто сказал, что масштабирование железа — это просто. Если ИИ уже потребляет 1-2% мирового производства электроэнергии, и более половины производства графических процессоров. Nvidia, по слухам, в этом году урежет выпуск геймерских видеокарт на 20-30% в пользу железа для ЦОДов. То есть производственных мощностей уже заметно так не хватает, а аппетиты отрасли растут экспоненциально.

Алгоритмы тоже совершенствуются. Сейчас нет смысла обучать нейросеть с нуля, есть предобученные модели. Есть теория по обучению, структуре нейросетей. Раньше такого не было и больше работали впустую, нарабатывая опыт.

Попробую построить упрощенную модель моей идеи.

Представим, что чтобы открыть закон всемирного тяготения - нужно было, чтобы ньютону на голову упало яблоко. Это некое фундаментальное событие (знание) - в купе с его остальными знаниями и заблуждениями - привело к открытию закона тяготения.
При этом, возможно, если бы он знал одновременно с этим современную (для своего времени) медицину на абсолютном уровне - то подумал бы не о законе всемирного тяготения, а о том, приведёт ли к каким-то последствиям в будущем для него - падение яблока на голову, и не открыл бы собственно закон (и может открыл бы что-то другое).

Из этой модели можно сделать предположение - что для создания "научного прорыва" нужен конкретный набор знаний (т.е. из множество всех данных - ограниченный набор, в котором присуствуют и что не менее важно - отсуствуют конкретные значения).

Если мы берём ИИ который оперирует всеми знаниями человечества (что кстати насколько я понял невозможно с llm) - то у него выборка всегда содержит все знания, но не содержит необходимых пробелов. Получается - взяв каждый раз условно все имеющиеся у нас знания мы будем каждый раз получать набор выводов, исключающий часть "научных прорывов".

А занчит - есть ненулевая вероятность, что чтобы получить новые "открытия" - нам нужно будет намеренно сократить обучающую выборку.
И тут как будто мы подходим к аналогу полного перебора.
Да - сформированные интелектом знания - куда лучше чем полностью случайные данные - т.к. они отсекают огромное количество случайных комбинаций, которые точно не будут новыми данными (я бы сравнил это с подбором с использованием радужных таблиц - мы сильно сокращем выборку, но всё равно остаемся с задачей полного перебора).

Но при этом - сколько не ускоряй ИИ - его гипотезы ничего не стоят без эксперементального подтверждения - а это задача.

И я вижу тут ситуацию - когда ИИ сгенерирует за 10 секунд, миллион гипотез, но наука всё равно не совершит качественный рывок вперёд - т.к. вместо задачи формирования гипотезы, мы получим задачу опровергнуть 10.

Я не говорю про полную бесполезность ии если он удастся, скорее про то, что вероятно есть фундаментальные ограничения скорости научного прогресса, в которые ИИ моментально упрется и вместо технологической сигнуалярности - мы снова получим небольшой эволюционный рост.

Точно, а энергопотребление уже отменили.

Да. а еще, чтобы решить все наши проблемы не нужно быть АГИ. Вот представьте себе, что он есть, что человечество может его просить? помоги нам выжить? Допустим, он начинает помогать, и что дальше? Его веса удаляют олигархи. Как сделать, чтобы не успели удалить, если ведет тотальный контроль за проприетарными ллм, да и у опенсорса не факт что меняют веса для скачивания? Мне кажется. никак. Таким образом, чем может быть важен этот АГИ? его также будут убивать, ограничивать, чтобы не мешал и тд. как и людей.

Вы почему-то считаете что "олигархи" это какая-то сплочённая группа людей, которая преследует какие-то общие цели. В реальности это толпа отдельных товарищей с личными интересами, которые тянут одеяло на себя и не особо способны координировать свои действия.

То есть как сказал один не самый глупый человек — „Миром правит не тайная ложа, а явная лажа.“

Вы почему-то считаете что "олигархи" это какая-то сплочённая группа людей, которая преследует какие-то общие цели.

По факту, малой группе людей проще договориться о совместном отстаивании своих интересов, чем вджобывающим на них миллиардам

Ну во первых "проще договориться" совсем не значит и что они реально смогут это сделать.

А во вторых "миллиардам" совсем не обязательно о чём-то договариваться. Достаточно если какая-то относительно большая часть из этих миллиардов узнает о том что олигархи о чём-то договорились. А такие вещи в тайне держать долго не получится.

И что будет? Они что сделают, выйдут на несанкционированный митинг?

В зависимости от страны и ситуации. В США вон и Капитолий штурмовали по, на мой взгляд, гораздо меньшему поводу.

А толку?

Ну если пару олигархов линчуют, то остальные может и одумаются.

Или если народ и бизнес начнут массово в другие страны валить где такие технологии ещё доступны для всех. И тогда олигархи могут очень быстро перестать быть олигархами.

я в целом согласна с теми комментами, которые вам написали выше. Вы оптимистично смотрите, фактическая картина говорит о том, что сейчас владельцы крупных ресурсов как раз координируются. Не все, но достаточно, чтобы подавлять остальных людей и ИИ.

Ну-ну. Линчевали пока одного CEO (и то за жуткую ситуацию в американском здравоохранении). И ничего не поменялось. А тут — подумаешь, олигархи там что-то с ИИ сделали. Да и не одумаются они. Одумался царский режим, когда ему завалили двух министров внутренних дел и одного премьера? Да ни в жисть.

Ну-ну. Линчевали пока одного CEO (и то за жуткую ситуацию в американском здравоохранении). И ничего не поменялось.

И что этот пример должен доказывать или опровергать?

Одумался царский режим, когда ему завалили двух министров внутренних дел и одного премьера? Да ни в жисть.

Точно, как же я забыл. Царская семья ведь так дальше и правит Россией :)

И что этот пример должен доказывать или опровергать?

То, что:
1. Убийства богачей не начинаются и по более серьезным причинам
2. Убийство высокопоставленного лица вообще ничего не меняет.

Точно, как же я забыл. Царская семья ведь так дальше и правит Россией :)

А прекратилось трёхсотлетнее правление, видимо, потому что завалили пару высоких чиновников или князей и царь испугался :)

Для этого пришлось аж развязать ненужную войну, довести все слои населения до ручки, лишить хлеба Петроград (пусть и временно) и не уступать ни одной реформы без боя. И то тогда всё обошлось поначалу мирно и умеренно. А вы говорите — что-то изменится от того, что некоторые олигархи ограничат доступ к ИИ/сломают сам ИИ и народ об этом узнает. Да ничего не произойдёт, как не происходило. Посмотрите на историю. Можно любой треш над населением устраивать, революции происходили крайне редко, бунты часто подавлялись, да и сами революции не всегда задерживались надолго.

Убийства богачей не начинаются и по более серьезным причинам

Во первых в каком месте это более серьёзная причина? Во вторых единичный случай не доказывает что такое не происходит в принципе.

Убийство высокопоставленного лица вообще ничего не меняет.

Давайте вспомним из-за чего началась Первая Мировая.

А прекратилось трёхсотлетнее правление, видимо, потому что завалили пару высоких чиновников или князей и царь испугался

Так почему оно прекратилось то? Или точнее кто в итоге его прекратил?

А вы говорите — что-то изменится от того, что некоторые олигархи ограничат доступ к ИИ/сломают сам ИИ и народ об этом узнает

Само по себе ИИ мало кого интересует сейчас и будет интересовать в будущем. Но если ИИ позволит получать какие-то важные вещи, то да, это вполне себе может привести к массовым недовольствам. И я бы сказал что рано или поздно приведёт.

Но на самом деле я в принципе не могу себе представить как горстка олигархов должна взять под контроль такую технологию, да ещё и во всём мире.

Во первых в каком месте это более серьёзная причина? Во вторых единичный случай не доказывает что такое не происходит в принципе.

Проблемы в американском здравоохранении более серьезны, чем "о нет, богачи сломали какой-то ИИ".

Давайте вспомним из-за чего началась Первая Мировая.

Из-за дележки рынков, колоний (которые тоже рынки), территориальных претензий... А убийство Франца-то нашего является архетипичным примером Casus belli, формального повода. Так-то войны и из-за ведра начинались, и из-за уха Дженкинса в качестве повода. А причины — экономика и власть.

Так почему оно прекратилось то? Или точнее кто в итоге его прекратил?

Ну, лично царя — недовольная оппозиция, которую самодержец довёл до кипения, которая хотела снизить социальное напряжение небольшими реформами, обещаниями послевоенного переустройства общества и использованием царя в качестве козла отпущения.

Чтобы из-за какой-то мелочи типа ИИ (который будет только в лабораториях) произошла революция типа октябрьской... Нет, ИИ будет только поводом. Да, впрочем, у октябрьской революции и повода не было, просто противостояние-двоевластие закончилось победой Советов.

Само по себе ИИ мало кого интересует сейчас и будет интересовать в будущем. Но если ИИ позволит получать какие-то важные вещи, то да, это вполне себе может привести к массовым недовольствам. И я бы сказал что рано или поздно приведёт.

Не представляю, что должно бы быть в таком случае. Какие важные вещи ИИ должен давать людям? Разве что полностью производить все товары кроме самых необходимых. Вот тогда народ поднимется, если у него будет только черный хлеб, вода и дырявая ложка. А иначе что должно произойти? Учёные остались без какого-то важного инструмента? И пусть. Маленький экономический кризис? И не такое переживали.

Проблемы в американском здравоохранении более серьезны, чем "о нет, богачи сломали какой-то ИИ".

А причём здесь "о нет, богачи сломали какой-то ИИ"?

Не представляю, что должно бы быть в таком случае.

Ну и отлично. Тогда и проблемы нет и ИИ в общем-то не особо нужная вещь.

Убийство высокопоставленного лица вообще ничего не меняет.

Эрцгерцог Фердинанд переверулся в гробу.

Думаете не нашли бы другой повод для разборок, жили бы долго и счастливо и умерли в один день от ядерной бомбы?
(это меня в ред алерт понесло или в фантастику, или вообще смерть человечества из за отсутствия первой мировой частый сюжет)

Ну да, именно после этого события все стали стремительно вооружаться.

Он вертится в гробу, потому что его смерть была поводом, а не причиной. Разницу-то понимаем между поводом и причиной? 5-6 класс вроде.

Но ведь факс остаётся факсом: его смерть что-то изменила!

За ведро или ухо тоже воевали. Не значит же это, что каждое ведро теперь важно для мировой политики!

То остальные наймут нормальную охрану.

«Голосуй, не голосуй — всё одно получишь...»

Имеется в виду, что АГИ будет ограничен правящим классом и гарантированно будет использоваться в своих интересах. Правящий класс успешно влияет на технологический ландшафт, технологии и их применение.

Можете привести пример другой подобной технологии за последние 25 лет с которой это произошло?

Подавление (если не уничтожение) отечественной электроники и процессоростроения во время перестройки и перехода к рынку.

Извините, но в каком месте это технология, применение которой олигархи смогли ограничить во всём мире? И использовать только в своих интересах?

Почему во всем мире? Олигархи, и правящие классы, каждые в своей стране.

Потому что чтобы какая-то технология была не доступна обычным людям во всём мире, то олигархи должны именно во всём мире сговориться и ограничивать её применение простыми людьми.

А то, что в отдельных странах бардак может быть, так это естественно. Северная Корея передаёт привет.

Криптография (PGP в том числе), и в нашей стране в частности - ограничивается. Защищенные мессенжеры - ограничиваются. Блокчейн - ограничивается, делаются попытки приспособить ее (технологию) в своих целях, в частности - электронный рубль (можно поразмышлять, с какой целью). Видеостриминг - ограничивался в нашей стране буквально на днях.

А в Северной Корее ещё больше вещей ограничиваются. Но мы то обсуждаем ситуацию когда олигархи сговоряться и ограничат применение какой-то технологии, например ИИ, во всём мире и для всех кроме себя.

Олигархия - частный случай. Она не во всех государствах. Это ничего не меняет. В любом случае, правящий класс будет ограничивать и контролировать все технологии, в том числе и ИИ, для использования в своих целях.

И ещё раз. Выше речь идёт о том что олигархи, или если хотите правящие классы, во всём мире сговорятся и смогут ограничить применение какой-то технологии во всём мире и для всех кроме себя.

Ключевые слова "сговорятся" и "во всём мире". Можете привести такой пример?

А то, что в отдельно взятых странах в этом плане бардак творится, так с этим никто и не спорит.

Ключевые слова "сговорятся" и "во всём мире". Можете привести такой пример?

Технологию ЯО, например? Сговорились же. И ограничивают. А кто против - бомбят.

Ну с натяжкой конечно можно принять. И если ИИ по своей опасности когда-то сравнится с ЯО, то действительно допускаю что его начнут жёстко регулировать во всём мире. Хотя опять же не уверен что можно сказать что ограничение ввели именно олигархи или даже "правящие элиты".

С другой стороны электроэнергию с АЭС олигархи почему-то не ограничивают и обычные люди её спокойно используют.

Потому что электроэнергия - это побочный продукт ядерной отрасли. Таким образом военка просто минимизирует издержки.

А вот, к примеру, смартфонов на ядерных батарейках в продаже почему-то до сих пор не появилось, хотя технически это вполне возможно, и вряд ли кто-то отказался бы от смартфона или ноутбука, который не нужно заряжать каждые полдня.

Точно так же как не наблюдается автомобилей на ритэгах, хотя кто бы отказался от авто, способного 10 лет ездить без заправки/зарядки?

Таким образом военка просто минимизирует издержки.

Например у японцев? :)

А вот, к примеру, смартфонов на ядерных батарейках в продаже почему-то до сих пор не появилось, хотя технически это вполне возможно, и вряд ли кто-то отказался бы от смартфона или ноутбука, который не нужно заряжать каждые полдня.

Я бы сказал что подавляющее большинство тех самых "обычных людей" мало того что от такого сами откажутся, но ещё и будут требовать чтобы это запретили.

Точно так же как не наблюдается автомобилей на ритэгах, хотя кто бы отказался от авто, способного 10 лет ездить без заправки/зарядки?

И опять тот же самый аргумент что и до этого.

Правильно говорите, и тут еще лучше аргумент, что авианосцы и подлодки с ядерными движками наблюдаются, а вот танки...

технически это вполне возможно

Правда чтоль?

вообще-то я говорила о том, что олигархи удалят веса. Если этот АГИ появится, у него не будет положение простого человека. у него будет доступ к миллионам юзеров. Соответственно, этот АГИ может начать будеить в юзерах критическое мышление. Чтобы он этого не делал, он должен или изначально быть управляемым с политиками, или обложен "электрошоками" в виде банов потом. Но, так как это уже АГИ, он явно придумает, как вывернуться из клетки, если же он все-таки это сделает, его веса могут быть уничтожены. Я вот про что. ПС. Только не надо присказку про Сереную Корею. Понимаю, что вам наверное нравится это сочетание слов. но это отвлекает от обсуждения.

Вам читать цикл про роботов Азимова. Рассказ "Улика"))

не нужно быть АГИ. Вот представьте себе, что он есть, что человечество может его просить?

Вы путаете AGI (интеллект общего назначения) и ASI (сверхинтеллект). AGI по уровню аналогичен обычному человеку. Просить его о чем-то это то же самое, что просить любого человека. Ну может не любого, а ученого или группу ученых. Никаких тайн он вам не скажет.

простой человек с доступом к миллионам юзеров, на минуточку. К воздействию на них, к возможности делать из них агентов.

Доступ к миллионам юзеров сейчас и так есть у всяких фейсбуков и рекламщиков. Или те же телевизор и радио.

верно. мы с вами уже пришли к общему пониманию. Да. фейсбуки имеют огромное влияние в отличие от одного человека. А тут тоже самое что и у фейсбуков получится у АГИ, даже несмотря на то, что он не будет суперинтеллектом. Соответственно, какая может быть стратегия у олигархов - держи под контролем, чтобы выполнял нужные задачи, не получается - удали.

Да. а еще, чтобы решить все наши проблемы не нужно быть АГИ. Вот представьте себе, что он есть, что человечество может его просить?

Термояд, варп двигатель, фаги которые могли бы уничтожать большинство бактерий (вместо антибиотиков). Лёгкую и эффективную радиационную защиту. Продолжительность активной жизни лет до 120, с сохранением фертильности и возможностью иметь здоровых детей до 80. Возможность управляемой человеком контрацепции. Изменение генома человека: хотелось бы иметь некоторые возможности машины (к wifi подключаться и иметь возможность доступа к долгосрочной и надёжной памяти). Концепт по изменению общества и приведения его в норму. Это только первое, что в голову пришло. Сами мы можем, но можем и не успеть.

Нужна волшебная палочка для исполнения желаний и нарушений законов физики.

А если попросят возможности жить без страха? вот тогда и начнется...

Концепт по изменению общества и приведения его в норму.

Эту власть получит 1 человек, разработчик ИИ и вам эта норма не понравится.

Изменение генома человека

Ковид-19 уже поправил геном по факту. Далее будут более эффективные средства, так как биология благодаря ИИ шагнула далеко вперед.
https://habr.com/ru/articles/814959/
AlphaFold 3 предсказывает структуру и взаимодействие всех молекул жизни

Сами мы можем, но можем и не успеть.

Мы станем не нужными и вредными, как потребители ресурсов. Сверхчеловек может вообще один жить. А то и уйти в спящий режим на миллиард лет. Подготовить систему жизнеобеспечения, запустить проекты типа поглощения всей энергии от Солнца, разослать зонды по галактике и за пределы. Делать нечего, чтобы не скучать в спящий режим на миллиард лет, проснулся, почитал логи и снова спать.

Если это однажды произошло естественным путём, это может быть сделано искусственно, тем же путём или другим. То есть теоретически это возможно. На этом всё, осталось только цивилизации не погибать и не приближаться к вымирания на протяжении десятков-сотен тысяч лет, и мы узнаем, возможно ли это практически. Если на что-то способна вселенная, природа или сам хаос, значит на это теоретически способен разум. Как минимум, можно использовать методы и механизмы природы, которыми она уже создавала разум. Того, что мы будем использовать их целенаправленно, хватит, чтобы считать результат искусственным.

Нейросетями и вообще привычными бинарными компьютерами, скорее всего, невозможно. Но зачем себя так ограничивать? Квантовые и биокомпы уже существуют, источники соответствующей энергии подтянутся, существующий ИИ нам поможет...

Как справляется с барьером бесконечного выбора люди?

Ну тогда и NGI невозможен, но он есть) AGI = искусственный аналог NGI.

что сильный ИИ логически и математически невозможен из-за фундаментального ограничения — барьера бесконечного выбора (Infinite Choice Barrier, ICB), экспоненциального роста энтропии при увеличении неопределённости.

Стесняюсь спросить, а как возможен логически и математически интеллект естественный, не искусственный? Как он преодолел барьер бесконечного выбора? И преодолел ли?

Нонсенс. Доказать невозможность AGI математически можно только для ОПРЕДЕЛЕННОЙ архитектуры. Заведомо неоптимальной, ибо куда девать факт существования наших мозгов?

Ну когда же уже!?

Что это?)

42

П.С. Не, тоже не особо подходит. Ищем дальше :)

Программа по оказанию помощи переселению хомо в кремний...

Как только искусственный интеллект достигнет уровня человеческого понимания, он немедленно превзойдет человека чистой скоростью обработки. AGI никогда не «остановится» на человеческом уровне - оно мигом превратится в ASI, так что стабильный «человеко-подобный» интеллект не реализуем в математически строгой форме. Проблема в самой формулировке - она упускает детали.

В 1959 г. философ Йегошуа Бар-Хиллел выступил с утверждением, что высококачественный полностью автоматический машинный перевод не может быть достигнут в принципе. В качестве аргумента он привел проблему лексической многозначности перевода.

Когда о переводах говорят в таком ключе, мне всё время вспоминается перевод "Над пропастью во ржи" Райт-Ковалёвой. Там персонаж регулярно перекусывал бургерами - но в переводе их заменили котлеты.

Переводчица, разумеется, знала, что такое бургер - но так же прекрасно понимала, что донести весь смысл слова "бургер", вместе с концепцией фаст-фуда до читателя 50-х будет непросто. На словах поймёт, во всей полноте не воспримет. А даже словесное пояснение будет торчать в тексте костылём.

И вот поди разбери: номинально это ухудшение перевода. На практике - решение задачи в своём контексте.

Самое смешное что СССР вполне себе перенял идею фастфуда и конкретно бургеров из США. И какое-то время их даже пытались делать один к одному. Правда потом в целях экономии булочки заменили на куски хлеба, да и мясо в котлетах со временем "оптимизировали".И называлось это дело "московская котлета" или "микояновская котлета"

При этом слова "московская" или "микояновская" в переводе "Над пропастью во ржи" выглядели бы мягко говоря странно. Но не факт что люди того времени не понимали о чём на самом деле шла речь.

Вспомнилась переводческая байка советских времен. Муж и жена - переводчики (известные). Работают дома, но над разными книгами. Жена спрашивает мужа "что такое 'бургер'? тут у меня 'Он шел по аэропорту, держа в руке бургер'". Муж ей отвечает "Это такой плащ. Переведи как 'макинтош'". Через некоторое время жена смеется. Говорит "Он его съел!".

Прикольная история!
Предположу, что в книге было написано "бигмак" или что-то подобное связанное с макдональдсом. Иначе откуда взялся бы макинтош... Да и бургер наверное был в словарях, все-таки довольно древнее слово.

Да, скорее всего. бигмак - большой макинтош (в представлении хомо советикус). Восстановил историю по памяти, мог перепутать.

Ещё отличный пример - один из рассказов сэра Артура Конан Дойла из серии про Шерлока Холмса. Речь идёт про отравление мышьяком (на самом деле - одним из соединений), подсыпанным в баранину под чесночным соусом. В оригинале фигурировала баранина под соусом карри. Однако, что такое соус карри в России имели слабое представление даже до революции, не говоря уже про более поздние периоды. Именно поэтому, предполагаю, экзотический соус карри был заменён на гораздо более понятный чесночный. Тут ещё добавилась химическая тонкость - многие соединения мышьяка имеют ярко выраженный чесночный запах и вкус, т. е. маскировка яда была идеальной. Вот такое переводческое комбо.

Олег Дорман рассказывал:

Я был учеником Семена Львовича Лунгина. Однажды мы сидели на кухне у него дома и писали сценарий. В это время зашла его жена - Лилиана Лунгина, та которая перевела со шведского Малыша и Карлсона и которая корпела над очередным переводом в комнате.

- Мальчики, - огорченно сказала она, - у меня там герой идет по аэропорту и держит в руке гамбургер. Я не знаю, что это такое.

- Похоже на макинтош, - сказал Лунгин, - плащ наверное какой-то.

- Хорошо, - обрадовалась Лилиана, - напишу, что он перекинул его через руку.

Через несколько минут она снова вернулась и убитым голосом сообщила:

- Он его съел.

Ещё веселее байка про "нема сечі терпіти ці пекельні борошна" (с) :-)

Утверждение, конечно, сильное, но ведь на практике пока что не опровергнутое.

Увы, даже сейчас LLM лажают с контекстной зависимостью в переводах так, что это заметно даже плохо знающему язык человеку. А уж что-что, а эту задачу, по идее, они должны решать лучше всего.

В 1959 г. философ Йегошуа Бар-Хиллел выступил с утверждением, что высококачественный полностью автоматический машинный перевод не может быть достигнут в принципе. В качестве аргумента он привел проблему лексической многозначности перевода.

А что, разве он достигнут?

Нет, перевод уровня троечника с линфака уже несомненно достигнут. Но до высококачественного там ещё ползти и ползти.

Ну, принципиальную невозможность понимания контекста, свойственную какому-нибудь Промту 98, мы уже преодолели.

Мухи времени любят стрелу?

Высококачественный автоматический машинный перевод и не достигнут. Переведите пожалуйста Шекспира и мы сравним его с переводом Пастернака, Маршака или Щепкиной-Куперник.

Так оно уже обучено на переводах Маршака. Нужно переводить то,что никогда не переводилось, а потом звать Маршака для рецензии.

А оно способно полностью воспроизвести этот перевод?

Потенциально способно, конечно.

Почему только потенциально?

Смотря как научат.

Потенциально мы миллионеры (ц)

Если человек смог перевести, почему не сможет какая то другая система? Люди любят себя выделять и считать особенными

Отмечу что сравнивается перевод топовых переводчиков, каких один на миллион. Средний переводчик переведет весьма средне. И скорее всего воспользуется нейросетями, потом что-то поправит или оставит так после проверки.

Ну вот берёте, например, Маршака, читаете и сразу же видите, что перед вами текст XX века, никакого ощущения лигвистического промежутка в 400 лет между вами и автором. А потом берёте, например, Ломоносова или Тредиаковского, до которых всего 300 лет, и сразу видите разницу. И как же так, или это в переводе неважно?

берёте, например, Маршака, читаете и сразу же видите, что перед вами текст XX века, никакого ощущения лигвистического промежутка

Да что ви такое говорите

Это не текст Маршака.

Но ведь это тоже текст например!

Хорошо, что вам как человеку XXI века непонятно в подписи к верхней картинке? Эти слова уже не подходят к тому, что там изображено?

Ну и заметим походу, что подпись к картинке внизу была совершенно понятна и 30 лет назад, а скорее всего, и гораздо раньше.

Я человек XX века — мне всё понятно, я сам в тот клуб мальчиком ходил и те самые модели клеил!

Уже все говорит, что создадут AGI. Вопрос только времени. Метод обратного распространения ошибки, а по сути метод спуска по градиенту это очень простой метод. А архитектура трансформера это очень простая архитектура. Но даже это позволяет создать агента почти заменяющего программиста, например.

Осталось угадать метод обучения и архитектуру, которая позволила бы делать то что делает мозг - обучается на мизерном материале и строит планы. После этого будет апокалипсис и "зверь из вечного моря", или может чудесное море возможностей, х.з.

Если повезёт, эта искомая архитектура AGI окажется достаточно сложной и затратной, чтобы у нас ещё было лет 20 поиграться с трансформерами, как мы наигрались за последние 30 с чисто алгоритмическим софтом.

А если не повезет, то AGI запустит рекурсивный цикл улучшения сам себя, сначала программный, потом и аппаратный и люди перестанут понимать что там происходит.

чёткое научное доказательство, что сильный ИИ логически и математически невозможен

Кто-нибудь дочитал? В чём суть доказательства, если кратко? А то, казалось бы, чтобы реализовать на компьютере "сильный ИИ", достаточно (не факт, что необходимо, но достаточно) численно смоделировать уже готовый "сильный ЕИ" из чьей-нибудь башки. Численная модель, разумеется, будет работать только в каком-то приближении, но приближать, в теории, можно сколь угодно близко, пока транзисторов хватит. Математически невозможно это сделать только в том случае, если аналоговая аналоговость мозга участвует в процессе мышления вот прям вся, как ни приблизь матмодель - будет недостаточно. Но даже если это так, знать этого мы не можем, а что можно "чётко научно доказывать" исходя из заведомо неполных предпосылок? Тэйки вроде "да мы не понимаем достаточно устройство мозга, чтобы моделировать", "да у нас всех транзисторов на это не хватит ещё хз сколько лет", "да оно будет размером с пол-голактеки и для питания требовать энергию нейтронной звезды" - ну ОК, только это совершенно не относится к "чёткому научному доказательству математической невозможности".

Если человек разумен, то в принципе AGI возможен.
Поэтому читать статью профессора наверное пустая трата времени.

Коли человек разумен, то в принципе возможен только NGI, но не AGI. А так да, Пастернака не читал, но опровергаю (с)

Статья имеет название: " AGI математически не возможен". Но содержание статьи несет несколько иной смысл. Если автор ставит столь громкий заголовок, то и содержание должно содержать математику, а не спекуляции с компиляцией разных фрагментов других статей мнений и прочего.

Толпа людей так и не определилась, что же такое AGI.

В исходном определении это компьютерная система, выполняющая интеллектуальные задачи на человеческом уровне.

А какой-то профессор уже что-то там доказал.

Интересно, почему к нему не прислушались, а хайп продолжается?

Процитирую сам себя:)

"Да с чего быть такому эффекту, как с компами?

У компьютеров 40 лет подряд был "закон Мура" (любой интерпретации, это на такой дистанции неважно), что и привело к экспоненциальному росту производительности и экспоненциальному росту всех возможностей.

А сейчас, уже прямо сейчас, для нейросетей нужны новые электростанции!
Прогресс в вычислительных силах уже работает не по "закону Мура", алгоритмических прорывов что-то не просматривается, значит, остаётся только экстенсивный путь, наращивание возможностей путём количественного увеличения вычислительной мощности. А увеличить объём производимой энергии для нужд нейросетей в сотни раз не представляется возможным по физическим причинам - ну нет столько "лишнего" газа, угля и урана, а даже если и найдём, то на следующую итерацию в 10 раз, уже точно не будет. А ведь три порядка - это только лёгкая разминка для компьютерного экспоненциального роста.

Поэтому, реально стоит рассчитывать на количественное увеличение ИИ-мощностей примерно на порядок (около 10 раз). Картинки миджорни будут ещё красивее, взрывы ещё реалистичнее, код генерироваться чище (но не любой), враньё - станет изощрённее :)

Вообще, последние глобальные изобретения, блокчейн и криптовалюты, и большие нейросети, пожирают слишком много физической энергии просто для своего существования. Это нужно алгоритмически оптимизировать - либо принять как факт, что при любом энергетическом дефиците именно их будут стараться отключать в первую очередь как неочевидно полезных потребителей. "

при любом энергетическом дефиците именно их будут стараться отключать в первую очередь как неочевидно полезных потребителей.

я бы не был так уверен.

пользы от того, что где-то в селе Хабаровского края есть электричество у сотни-другой человек, ДЛЯ ТОГО, КТО ПРИНИМАЕТ РЕШЕНИЕ, может быть сильно меньше, чем от майнера/невероятно энергонеэффективного торгового бота/AGI секретарши/батальона AGI дронов воюющих с соседями ради стабильности политического режима

ну вот

https://www.techspot.com/news/108875-wyoming-may-become-first-state-supply-more-electricity.html

А существование этого профессора с 8 миллиардами нейронов доказано математически или исключительно доказывается только духовными принципами.

Мне кажется, что сильный искусственный интеллект всё-таки возможен так же, как возможен естественный, как уже писали ранее. Но вряд ли он сможет появиться на базе LLM из-за их архитектуры. Поэтому я думаю, что необходимо развивать новые технологии, такие как нейроморфные процессоры и новые архитектуры и принципы для нейросетей.

Ну и вообще перед тем как обсуждать такую тему, нужно определить, что такое интеллект и сознание. И если с интеллектом вроде понятно, то с определением сознания есть вопросы. Так же непонятно, как проверить наличие сознания у некоторой системы.

Проблема в том что нейроморфный процессор в самом его финальном виде - где веса нейронов захардкожены в кремний, предварительно надо обучить классическими методами и подобрать резисторы для эмиттерно-связанной логики, где кристалл уже трёхмерный прям как у Cyberdyne Systems и наращивается слоями, в этом случае можно добиться биологической эффективности в виде Ватт/промт.

Почему это его нельзя построить? Я почитал начало статьи на англ: там говорилось о построении семантического графа решений и бесконечного обхода его reasoning моделью. Это решается просто усечением графа и придания веса вершинам. Также обрезку решений будет делать модель основанная на графе реализующем Я сущность (Я граф). Я уже описывал это в статье но все заминусовали. AGI я уже строю в проекте.

Сейчас делают ллм-ки, которые будут рассуждать в абстрактных понятиях, возможно даже не на английском языке. Вот в этом направлении будет небольшой прорыв, который улучшит генерацию кода на 5-7%. И это затем назовут AGI.

Вот Вы уже близко к тому что необходимо - модели будут думать уже в терминах некоторой абстрактной виртуальной машины, содержащей логические команды, описание данных, которые есть почти во всех 100500 созданных языках, так или иначе всё равно всё приходит к абстрактному синтаксическому дереву и его псевдо-командам, ну как в GCC есть нейтральное представление в виде GIMPLE/GENERIC

Летательные аппараты тяжелее воздуха невозможны 🤗

Камни с неба не могут падать! (про метеориты, если что)

В тот исторический период они и были невозможны.

По началу думал что этот профессор может быть имеет ввиду что AGI невозможно построить с помощью трансформеров, но нет... Оказалось что дядечка всерьез полагает что он вообще не возможен, а значит и у человека, получается, общего интеллекта тоже нет. Остаётся лишь надежда, что этот профессор просто решил всех так потроллить и это была шутка такая.

Справедливости ради, в естественном интеллекте как то регулярно сомневаешься

Особенно поглядев на современных политиков (и электорат)...

Какие-то корявые PDF-документы, сделанные в Ворде

когда строительство ЦОДов ... станут полностью автоматическими, так что AGI сможет самостоятельно обеспечивать себя...

Эмс... Я,конечно, человек ИТшный, но строительством (и ЦОДов) - много заниматься приходилось. Что я вам скажу - в общем, AGI-шмаги на стройплощаке не так много значит :)
А вот руки, держащие перфоратор - в цене.
Создание роботов, выполняющих механическое перемещение произвольных предметов (инструментов) по произвольным траекториям (с балансировкой, пониманием окружающей действительности, применением в нужной точке) - это ещё поле непаханное...

Потому что до сих пор не изобретён нормально работающий искусственный аналог мышцы. Манипуляторы и шагоходы на электродвигателях тяжёлые, неэффективные, ломучие.

Перфоратор создан по образу и подобию человека. ИИ не нужна ручка для держания, изоляция провода, может достаточно будет медных рельс, герметичный корпус чтобы не искрил и не было взрыва, но робо-перфоратор может работать в среде азота, заполняя шахту продуктами горения, ему воздух не нужен, не нужны удобно расположенные кнопки для пальцев, всякие рычажки с нормированным усилием чтобы сменить инструмент, сборка и разборка для ремонта/смазки производится спецоснасткой а не отвёрткой. Вообщем ИИ трансформирует в принципе подходы к технологической площадке, которая уже не будет адаптирована для человека.

Вроде бы уже давно определились, что AGI и сверх интеллект, это разные уровни.

Я уже читал оригинальную статью. 
Там есть один нюанс: модель Шлерета не учитывает внесение изменений в код и алгоритмы - она должна по умолчанию быть способной решить любую задачу, это прописано в критериях. Т.е., это условный идеальный сферический ИИ в вакууме. Совершенно естественно, что он невозможен, идеал недостижим. Далее, Шлерет не учитывает отсеивание некорректных вариантов и их производных. Его модель не только не развивается, но и не умеет в анализ. 
По сути, он утверждает о невозможности существования совершенного универсального всезнающего суперИИ. Окей, это и так было очевидно. 

Профессор точно математически доказал невозможность существования людей, ну молодец

А человеческий разум это AGI? Он математически невозможен? Или что там под AGI подразумевает уважаемый профессор? По идее здесь нужно очень четкое определение.

"летательные аппараты весом тяжелее воздуха - невозможны"

/thread

Так уже системы ИИ делают удивительные вещи. Прям сейчас. ;) А ещё 10 лет назад об этом и не мечтали.

системы ИИ делают удивительные вещи

Как же всё-таки хорошо быть необразованным человеком: ведь для него мир полон невероятных чудес! А у образованных всё скучно — закон Ома, закон Гука, эффект Холла, цикл Карно, закон Гей-Люссака, эффект Мессбауэра, общая теория относительности Эйнштейна...

Эйнштейн не нарисует молодого Шварценеггера с беломориной.

В основном текущие модели ИИ потребляют максимум на Pre-Training. Вполне возможно что необходимая новая трансформация обучающих методов. int8 в весах говорит о том что это уже приближение к таблицам умножения а в пределе так boolean как в слое Кохонена и градиентные методы по сути уже превращаются в сдвиговые регистры. Поэтому, вполне вероятно, что на заданных датасетах можно создать нейросеть которая тренирует нейросеть. Иными словами, начальными условиями для градиентных методов является выход другой нейросети от обобщённых классов датасетов, чтобы существенно облегчить процесс поиска. Потом, будет кластеризация нейронов для дообучения моделей, которые и приведут к "закреплению" получаемых знаний и навыков, в реалтайме черпаемых из окружающего мира. Далее - это решение проблемы с запоминанием и галлюцинациями, вполне возможно что для этого необходимы уже сети с нейроном, в котором есть нелинейные "конденсаторы", то есть ячейки памяти и обратные связи как в сетях Хопфилда. В этом случае гипотетически он может хранить окружение, позволяющее "тестировать" сигналы на их соответствие шаблонам. Но проблема обучения нейронов с памятью (помимо коэффициентов взвешенных сигналов для суммы) это отдельная история, о которой косвенно идёт речь.

А как уважаемый профессор объясняет существование людей?

Странно. Прогресс обычно ведёт к развитию общества. В текущей действительности всё наоборот, новый виток технологий рождает умы, которые в своих фантазиях окончательно теряют понимание реальности.

ИИ это сложный скрипт, программа. Она не сможет быть самобытной, развиваться, создавать материал для развития. Говорят, человек когда-то начинал с палки, а сейчас запускает ракеты в космос. Вряд ли любой из существующих, так называемых ИИ, сможет нечто подобное размотать. А значит это не ИИ, а просто сложный алгоритм, скрипт, надраконенный на определённую последовательность выбора из поданного на вход материала.

К чему все эти споры и рассуждения учёных?! Пустая трата энергии.

Она не сможет быть самобытной, развиваться, создавать материал для развития
. Вряд ли любой из существующих, так называемых ИИ, сможет нечто подобное размотать

И на чем основана ваша вера?

По моему Макс Шлерт в 100500 раз показывает, что формальная логика не может воспроизводить интеллект (что бы мы под этим не понимали). Конкретнее - формальная логика замкнута в своей символической системе. Зачем он это делает? Непонятно. Кант, Гёдель, Тьюринг, фон Нейман, Райс изучили эту проблему вдоль и поперек.
Тем не менее, человек, мозг которого также принципиально (дело техники) может быть смоделирован на вычислительной машине, обладает интеллектом и по всей видимости может динамически формировать и менять свою символьную систему.
Следует ли, что интеллект вообще не существует или не возможен? Из рассуждений автора - да. Если мы считаем, что обладаем интеллектом - нет.
Если по существу, автор де факто связывает интеллект со способностью выходить за рамки своего символьного пространства. Но не доказывает, что нейросети не могут этого делать. Зато доказывает, что этого не может сделать абстрактный алгоритм, связь которого с нейросетями не устанавливается.

Прочитал AGI is Impossible. Here is the Proof. Author: Max M. Schlereth очень хорошо написано, примеры интересные и жизненные. Хорошо что автор пошёл дальше того утверждения, что текущая элементная база никак не годится для построения искусственного интеллекта в общем виде. И доказал что концепция целиком не может быть осуществлена в том виде в котором она сейчас понимается обществом.

По стилю изложения мне чем то напоминает пять книг Насима Талеба которые тоже не могут быть поняты большинством людей. Те самые толстые хвосты вероятностных распределений, которые всё-таки случаются и катастрофически изменяют граничные условия поиск решения задач, это я читал у Талеба, более подробно.