Как стать автором
Обновить

Интеллект — способность объекта адаптировать свое поведение к окружающей среде с целью своего сохранения (выживания)

Время на прочтение11 мин
Количество просмотров14K
Всего голосов 13: ↑11 и ↓2+9
Комментарии99

Комментарии 99

Почему обязательно усложнять понятие интеллекта, добавляя туда «выживание» и считать его предметом, а не процессом. Оставить простое :«Интеллект- адаптирующееся целенаправленное поведение во внешней среде».

Под такое определение много, что пройдет, например отбор популяции бактерий, получающих резистентность к определенному антибиотику. Определение нужно составлять так, чтобы оно отсекало многие не рассматриваемые в данной области частности, чтоб специалистам легче было друг друга понимать, при использовании полученной терминологии.

>отбор популяции бактерий, получающих резистентность к определенному антибиотику.
И будет интеллект популяции бактерий, эффекты эволюции станут его проявлениями, а основан он будет на текущем ДНК бактерии.

Какие минусы имеет такая интерпретация?

Такие, что так можно любые динамические системы рассматривать как интеллектуальные. Во втором предложении моего первого коммента уже ж дан ответ

В примере с бактериями Вы путаете естественный отбор с целенаправленным поведением. А целенаправленное поведение обязательно подразумевает наличие у субъекта некой модели Мира.

Целенаправленное поведение также подвержено естественному отбору (после моделирования реализуются стратегии успешные с наибольшей вероятностью). Хотя если подразумевать, что целенаправленность присуща только действиям, инициированным именно моделированием, тода да, тода Ваш вариант хорош. Просто для меня целенаправленное поведение системы, есть любая дикамика стремящаяся к некому результату

Не вижу усложнения. Излишнее упрощение плохо по причине того, что с таким, т. е. — упрощенным, определением невозможно работать, не от чего отталкиваться. В данном же случае, на мой взгляд, соблюден нужный баланс и данное определение может быть использовано для дальнейшей работы. По крайней мере, по нему можно проводить формальную оценку «интеллектуальности» той или иной системы.

Безусловно, это процесс, вы правы.

Предложенное вами простое, извините, отклоню. :) Чье поведение? Что включает в себя процесс адаптации? Какие цели? Чьи цели? Собственно, это практически дословно сказано в заголовке материала, но это, как я уже сказал, не упрощено, а выхолощено.
Это всё замечательно и даже не вызывает внутренних противоречий и протестов. Один единственный вопрос: Как? Как сделать так, чтобы система начала заниматься моделированием? Какие есть подходы, механизмы, решения?

Как самому написать модель и запрограммировать ее — понятно. Как обучить нейронную сеть или использовать любую другую аппроксимационную модель из арсенала машинного и глубокого обучения — понятно. А вот что такое «опережающее машинное моделирование» и как оно выглядит — вообще не понятно. ))))
Опережающее моделирование и есть самое главное… Нужно создать такую модель, главная функция которой — прогнозирование, т. е. опережающее описание будущего состояния системы. Такой модели уделено большое внимание в книге Дж. Хокинса «Об интеллекте» (с. 14): «Создавая модель мира, мозг задействует большие ресурсы памяти. Эта модель включает весь опыт человека и объем его знаний. Каждый раз, формулируя прогнозы о будущих событиях, мозг обращается к этой основанной на памяти модели. Способность прогнозировать будущее составляет важнейшую функцию мозга. Прогностическая функция мозга … находится в центре внимания моей работы».

Только небольшое уточнение: мозг, wetware — это своеобразное «железо», т.ме. носитель алгоритма, интеллекта. Поэтому правильнее: «Способность прогнозировать будущее составляет важнейшую функцию интеллекта».

Работы по созданию таких алгоритмов ведутся и довольно успешно. Вот недавняя новость:
«В 2016 году специалисты из Технологического института Джорджии под руководством Пола Дрюса (Paul Drews) собрали модель беспилотного автомобиля, способную проходить повороты с помощью управляемого заноса. Бортовой компьютер внутри автомобиля оснащен системой AutoRally: она анализирует данные с датчиков поворота колес, гироскопа, GPS и пары фронтальных камер, формируя несколько тысяч возможных траекторий движения. Затем система выбирает наиболее оптимальную траекторию и корректирует движение в соответствии с ней». (https://nplus1.ru/news/2018/12/25/autorally)
Именно то, о чем мы с вами говорим: опережающее отражение, моделирование будущих состояний.
Опережающее моделирование и есть самое главное…

формируя несколько тысяч возможных траекторий движения. Затем система выбирает наиболее оптимальную траекторию
Это ровно то, что делают агенты в RL, начиная с самого первого.
Бактерии адаптируются к антибиотику в ходе эволюции. Способность отвечает всем трем критериям. Так что, это интеллект?
Полагаю, важная часть гипотетического определения — это поведенческая адаптация _без_ функционально-структурной внутренней перестройки, т.к. для многоклеточных такая перестройка (адаптация) невозможно в рамках индивидуального выживания, и переходит в область эволюционной адаптации.

Я бы описал интеллект как свойство агента (субъекта), находящегося в сложной динамичной среде, позволяющее ему достигать первичных целей (выживание и что-то еще), с помощью изменения своего поведения, и изменения среды, без существенных само-изменений.

Ну тогда получается что все животные, включая человеков, нефига не интеллектуальны из-за нейро-генеза/пластичности, а если копнуть чуть глубже, там ваще всё весело.

Нейропластичность и существует как орган поведенческой адаптации, который позволяет не тупо, как бактерии, «куда получилось туда и развились», попутно уничтожая 99% неудачных вариантов, а полностью сохраняя особь. Это как раз и есть рамки допустимых само-изменений. Иначе это просто бесперспективная ригидность.
то поведенческая адаптация _без_ функционально-структурной внутренней перестройки

Зачем такое ограничение?
Если представлять мышление/интеллект как чисто информационный процесс, то какая разница поверх какой физической системы (и каким способом) он идёт?
В том-то и дело, что мышление — не чисто информационный процесс. Он чётко связан с носителем-особью, которой эволюционно положено выживать, и в идеале — доминировать. Перевод этого свойства в «трансцендентные», относительно организма, уничтожает сам основной драйвер и мотивацию его наличия.
Каким образом связан?

«Функционировать на реализации физического объекта» и «зависеть от физического объекта» — это разные вещи.

Для той же эволюции достаточно второго. Другими словами, важна причинная связь между судьбой аватара интеллекта и судьбой самого интеллекта. Это не накладывает ограничений на платформу, на которой интеллект работает.

То есть реализация интеллекта может хостится удалённо от аватара (работать на другой физической платформе), достаточно того чтобы реализация не видела разницы или считала, что она внутри аватара (умер аватар — умерла реализация).
Принципиально интеллект обусловлен именно зависимостью от потребностей «носителя». Интеллект, грубо говоря, направляется туловищем. А фейковые туловища (удалённая реализация) — история противоестественная. Но не невозможная. В такой истории связь «умер аватар — умерла реализация» — делает такую «удалённую» реализацию неотличимой от изначального «интеллект внутри аватара» (то что мы по факту и имеем), и бессмысленной к рассмотрению. Есть смысл рассматривать вариант интеллекта, не погибающего при смерти аватара.

Если представить зачаточный интеллект, не имеющий никакой связи с физическим объектом (чувствующей локализацией «себя», имеющей потребности), он изначально не будет ни на что мотивирован, и не сможет развиться до собственно интеллектуальности. Не будет мотиваций и драйверов.

Интеллект может развиться только превозмогая, адаптируясь к сложным условиям, имея массу ограничений и препятствий. Это, кстати, один из лично моих аргументов в пользу того, что «сверх-интеллектуальный всемогущий творец, появившийся ниоткуда» — логический архинонсенс, если не оксюморон. Если бы такой творец когда-то был, то он бы непременно деградировал, не испытывая вообще никаких трудностей ни с чем.
Часто значение уже устоявшихся терминов меняется. Нас уже не удивляет умный дом, умный автомобиль, умный город… Так почему бы и бактерии не назвать умными, т. е. интеллектуальными: «Наблюдения за эволюцией бактерий в пробирке: … тело многоклеточного организма (сома) могло возникнуть благодаря кооперации клеток, жертвующих собственным репродуктивным потенциалом ради блага колонии, а половые клетки (герма) образовались из клеток-обманщиков, которые пользовались преимуществами жизни в колонии, но не делали личного вклада в ее процветание».

Почему бы не считать интеллектуальным вирус СПИДа?
Вирус СПИДа умеет быстро адаптироваться к иммунной системе конкретного инфицированного человека, а потому вакцины от этого вируса, даже если они и будут когда-то разработаны, придется постоянно совершенствовать…

… сравнение эволюции микробов в монокультурах и смешанном сообществе. В смешанной культуре произошло в целом больше эволюционных изменений, чем в монокультурах.
Эволюция в монокультурах (...) усилила взаимную нетерпимость бактерий. Судьба микробов, эволюционировавших в смешанной культуре, оказалась иной — в отношениях бактерий стало меньше антагонизма и больше кооперации.

«Сознательные» мутации
Наследственные изменения возникают не только за счет случайных мутаций. В некоторых случаях изменения генов имеют вполне осмысленный, можно сказать целенаправленный характер. Яркий пример – это так называемая конверсия генов, которая происходит, в частности, у болезнетворных бактерий.

Дестабилизация развития — путь к эволюционным новшествам
На примере механизма образования спор у бактерий удалось показать, что становление нового полезного признака в ходе эволюции может начинаться с мутаций, вносящих элемент хаоса в программу индивидуального развития.
Здесь уже можно задуматься об универсальности приницпа Ле Шателье — Брауна: система отвечает на изменение внешней среды реакцией, снижающей результаты воздействия на систему.

Найден организм, оказавшийся стабильным в течение 2 млрд лет в стабильной среде
(https://scientificrussia.ru/news/najdeny-neevolutionirovavshie-bakterii)
… обнаружены бактерии, оказавшиеся стабильным в течение 2 млрд лет. Находка подтверждает теорию Дарвина — бактерии не получали никаких вызовов от окружающей среды и, соответственно, не реагировали на нее.

Is eating behavior manipulated by the gastrointestinal microbiota? Evolutionary pressures and potential mechanisms
Является ли пищевое поведение результатом манипулирования желудочно-кишечной микрофлоры? Эволюционное давление и потенциальные механизмы.
onlinelibrary.wiley.com/doi/pdf/10.1002/bies.201400071
Microbes in the gastrointestinal tract are under selective pressure to manipulate host eating behavior to increase their fitness, sometimes at the expense of host fitness.
Микробы в желудочно-кишечном тракте, находящиеся под давлением отбора, манипулируют пищевым поведением хозяина, чтобы увеличить свою функцию приспособленности, иногда за счет функции приспособленности хозяина.

Бактерии-альтруисты помогают своим сородичам-каннибалам себя съесть
(https://elementy.ru/novosti_nauki/430139)
Микроб Bacillus subtilis умеет при необходимости отращивать жгутики и приобретать подвижность; собираться в «стаи» (swarming behavior); принимать решения на основе химических сигналов, получаемых от сородичей; при этом используется особое «чувство кворума» (quorum sensing) — нечто вроде химического голосования, когда определенное критическое число поданных сородичами химических «голосов» меняет поведение бактерий.

Бактерии обладают коллективным разумом
(https://ria.ru/20090408/167504355.html)
Согласно результатам совместного исследования Университетов Тель-Авива и Техаса, бактерии не только способны собирать информацию из окружающей среды, но и общаться друг с другом, принимая коллективные решения. Израильским ученым удалось обнаружить у бактерий коллективный разум, который контролирует их численность.

Вся природа обладает свойством отражения. Упомянутый выше принцип Ле Шателье-Брауна — одна из форм этого отражения. Интеллект тоже в этом ряду. Поэтому приведенные факты можно трактовать как признаки наличия интеллекта у бактерий, которые, конечно, этот интеллект не осознают. В нашем привычном понимании наличие у себя интеллекта осознается только человеком.
Интеллект — это большой спектр вещей, которые может делать человек, поэтому для интеллекта не может быть простого определения.
Можно себе представить интеллектуального агента, подключенного к некой внешней среде.
Агент должен:
1. Пассивно (пока) наблюдать среду и строить модель, отражающие в себе закономерности этой среды.
2. Иметь встроенный алгоритмический механизм мотиваций, оценивающий насколько хороша ситуация для агента в данный момент.
3. Постоянно искать наиболее выгодные стратегии поведения на разные периоды для достижения мотиваций.
Это в самом первом приближении, дальше все сложнее и сложнее.
Например, модели п.1 должны быть пригодны для решения задачи 3. При работе в рамках пункта 1 нужно отдавать предпочтение построению полезных для работы по пункту 2 моделей. Нужно уметь воплощать одну из лучших на текущий момент стратегий в реальность, сопровождая события в среде моделированием и выбирая оптимальные действия для направления реальности с область удачных стратегий. Нужно уметь активно воздействовать на среду с целью ее исследования и построения моделей ее реакции на воздействие.
И по-моему, это еще половина того что может мозг рыбы. Если перейти к человеку, то вообще все становится сложно…

Интеллект — способность объекта адаптировать свое поведение к окружающей среде НЕ с целью своего сохранения (выживания)

А с какой же целью, извините? То, что в основе — выживание, доказывается довольно легко.

С интеллектуальной целью: наукой заниматься (познавательная), музыку писать (творческая). А за выживание инстинкт самосохранения отвечает.

А попробуйте формально определить цели науки. Так или иначе все сводится к необходимости научного знания для нужд человека. Т.е. гелиоцентризм, например, существовал сильно задолго человека и совершенно от него независимо, все что изменилось с этим открытием — об этом прознали кожаные мешки =)

Не думаю, что заниматься научной деятельностью возможно только из страха перед неизвестным или борясь с природой.

Выживание, или более строго, — сохранение (существование, дление, бытие, жизнь) — на нем кончается цепочка вопросов: «Зачем/почему/с какой целью?», которые можно задать к любому поведению. Цепочка ответов: «Для того, чтобы...», закончится ответом — выжить, или более строго, — сохраниться (существовать, длиться, быть, жить). Это справедливо и для технических систем, для отраслей промышленности, для общества и для природы в целом. Выживают или умирают автомобили, выживает или умирает целая отрасль — гужевой транспорт, выживают или умирают научные гипотезы, выживают или умирают целые государства, даже цивилизации… А в природе, как в неживой (да, это тоже к ней относится!), так в живой (прошу прощения за тавтологию) — это вообще общий процесс.
Не уверен, что понимаю вас. После моего определения сразу можно начинать эксперименты: накормить, напоить, дать справить все нужды и поспать, спрятать от хищников, затем начать тыкать палочкой. Сразу навскидку, интеллект следует искать не вот в таком процессе: собачка хочет кушать и кушает, а вот в каком: собачка видит хозяина и радуется.
Собачка перестанет радоваться, если её перестать регулярно кормить, и помогать справлять нужду.

Именно! Не что иное как потеря интеллекта от голода.

Вторая часть точная. Первая может быть точнее. Адаптация поведения в общем не может однозначно подтверждать наличие интеллекта, если судить со стороны.

Способность объекта формулировать цели, в том числе и не связанные с целью выживания, и достигать их. Как простейшая иллюстрация — игра на бильярде, интеллект — это игра «с заказом», когда перед ударом объект указывает цель, которую планирует достичь ударом, и при несоответствии результата заказу удар не засчитывается.

Объекты, которые не могут подтвердить, что они формулируют цели, должны рассматриваться как клеточные автоматы.

Вообще, тезис про корреляцию интеллекта с выживанием — это крайне странное утверждение. Абсолютное число видов (и их представителей) на планете интеллектом не обладает вовсе, либо лишь зачатками, что не мешает им выживать и эволюционировать.

Интеллект — это НАДвыживание, способность изменять среду для облегчения выживания — это лишь базис интеллекта, именно НЕ СВЯЗАННЫЕ С ВЫЖИВАНИЕМ изменения среды могут являться признаками интеллекта.
Вообще, тезис про корреляцию интеллекта с выживанием — это крайне странное утверждение. Абсолютное число видов (и их представителей) на планете интеллектом не обладает вовсе, либо лишь зачатками, что не мешает им выживать и эволюционировать.
Полагаю, что стремление к выживаю — необходимое, но недостаточное условие. Без стремления к выживанию Интеллект таковым не будет. Но может присутствовать и до того как поведенческое разнообразие преодолеет количественно-качественную границу.
Объекты, которые не могут подтвердить, что они формулируют цели, должны рассматриваться как клеточные автоматы.
Множество интеллектуальных существ (людей) цели не формулируют. Живут импульсивно и «сейчас». В частности, дети до подросткового возраста. Сказать, что они не имеют интеллекта, или нарекание их клеточными автоматами — будет очень громким заявлением. Интеллект это все-таки шире, чем составление планов и всякие рассуждения.
Интеллект — это НАДвыживание, способность изменять среду для облегчения выживания — это лишь базис интеллекта, именно НЕ СВЯЗАННЫЕ С ВЫЖИВАНИЕМ изменения среды могут являться признаками интеллекта.
Возможно, это описан не просто интеллект, а «скучающий» интеллект? Многие животные каким-никаким интеллектом обладают, но творческим изменением среды от скуки вроде не занимаются.

"Без стремления к выживанию Интеллект таковым не будет"


Почему?

По аналогии — потому что без гравитации реки не будут иметь форму рек. Отсутствует формирующее начало.

Не совсем ясна причинно следственная связь. И по вашей логике, вы предлагаете сразу в случае добровольного осознанного принятия решения "уйти", считать человека в этот самый момент потерявшим интеллект? Если у него, например, в силу жизненных коллизий или любых других причин сломался инстинкт самосохранения.

И по вашей логике, вы предлагаете сразу в случае добровольного осознанного принятия решения «уйти», считать человека в этот самый момент потерявшим интеллект?
Нет. По «моей» логике интеллект просто не сформируется, не обучится как надо из окружающей среды, если не будет иметь необходимый минимальный набор мотиваторов (инстинкт самосохранения — один из основных).
определения, собственно, «интеллекта» (даже не искусственного, а вообще) — общепринятого, понятного, логично структурированного и глубокого до сих пор нет!
1. Универсального определения такого сложного понятия — нет, и вероятно никогда не будет. Потому что любое определение будет опираться на другие понятия, у которых тоже нет универсальных определений.

2. Рискну предположить, что такое универсальное определение по большому счету никому и не нужно. Биологам нужно свое определение, психологам — свое, физикам, неврологам, программистам и др. — свое. Попытавшись их «подружить» — вы или упустите важное для кого-то свойство, или придете к огромному мета-определению использовать которое будет настолько неудобно, что гипотетический рост определенности не будет оправдан чрезмерным повышением сложности восприятия.

Ведь определение — это фундамент, на котором выстраивается все остальное, верно?
Нет. Если посмотреть на историю изобретений, то последнее что появлялось в рамках работы над каждым значимым научным прорывом — это его «общепринятое, понятное, логично структурированное и глубокое» определение :)
Иногда на это требуется не одно поколение.
Уверен, когда будет создан ИИ, последнее что будет волновать его создателей — его определение. IMHO.

Интеллект — способность объекта адаптировать свое поведение к окружающей среде с целью своего сохранения (выживания)
Еще раз рискну предположить, но думается мне что вы вначале придумали это определение, а потом постарались подогнать под него исследование) И, выражаясь словами Юдковского, за это вам грозит «научный ад» :)

Согласно Вашему определению, человек, жертвующий своей жизнью ради кого-то или чего-то интеллектом не обладает?

Отчего же. Обладает конечно. Просто он ставит это что-то или кого-то выше по значимости, чем свое существование. Надо на эти процессы смотреть из надсистемы (да, цинично, но что поделать?) Гибнет условная единица, но зато выживает куда более многочисленная группа (которую, кстати, в данном случае можно и нужно рассматривать уже как Объект).
Отчего же. Обладает конечно

Тогда Ваше определение не совсем точно, поскольку в конце явно указано, что интеллектуальный объект действует с целью сохранения себя в окружающей среде. Но это не всегда так.

Эволюция так сформировала интеллект, что «сохранение себя» и «продолжение своего ДНК в потомках» присутствуют в почти равной степени. И порой эти два инстинкта конфликтуют. А там весь букет нервных последствий «борьбы с собой».

Чтобы понять, что из этих двух драйверов действительно первично для «интеллекта» — просто представьте организм без того и без другого. Организм с превалирующим инстинктом размножения — это бактерии, или насекомые, или даже некоторые рыбы (часто жертвуют своими туловищами ради потомства). А организм с превалирующим самосохранением — это эгоистичные теплокровные которые запросто жрут своё потомство. Какую из этих эволюционно успешных стратегий можно назвать интеллектуальной? Ну уж явно не бактериальную.

Для развитого интеллекта пресс инстинкта размножения — это помеха, атавизм, наследие безальтернативной в текущий момент эволюционной стратегии. А не часть интеллекта.
Еще раз… Мы можем говорить об интеллекте отдельного человека (коли уж завели речь о самопожертвовании). В этом случае человек является объектом, обладающим интеллектом и, глядя на предлагаемое определение, мы говорим — вот этот человек ведет себя интеллектуально. Дружит с головой, так сказать. :)

А потом мы поднимаемся по иерархической лестнице и наблюдаем, допустим, военнослужащих в составе взвода. Или даже возьмем выше — роты. ОК, полка. Дофига народу. И в этом случае мы не рассматриваем в качестве Объекта отдельного бойца. Мы смотрим на все подразделение, которое ведет бой — в мирное время жизнь любого полка — зрелище не сильно увлекательное… Так вот, именно его нужно теперь рассматривать как Объект. Проверим себя сразу же. Меняем в определении «Объект» на «Полк» и получаем:

Интеллект Полка — это набор способностей, которые используются при:
(1) Идентификации, формализации и запоминании (в форме модели) законов состояния и / или действий:
(1.1) Окружающей среды (боевой обстановки, действий противника и пр.), и
(1.2) Внутренней среды Полка (состояние л/с, наличие оружия, б/п, связи с подразделениями и пр.)
(2) Опережающего моделирования состояний и / или вариантов действий:
(2.1) в Окружающей среде (прогнозирование боевой обстановки и действий противника), и
(2.2) Внутренней среды Полка (состояние л/с, наличие оружия, б/п, связи с подразделениями и пр. — все это в перспективе).
(3) Создании описания состояния и / или реализации действий, адаптированных:
(3.1) к Окружающей среде (изменяющейся обстановке на поле боя), и
(3.2) ко Внутренней среде Полка (состояние л/с, наличие оружия, б/п, связи с подразделениями и пр.)
при условии максимизации отношения действий Подразделения (по выполнению боевой задачи к затратам на действия с целью сохранения (существования, дления, бытия) подразделения в боевой обстановке.

Красиво получилось. :) Логика не пропала. В данном случае каждый боец, если имеется боевая слаженность, взаимопонимание, взаимовыручка, т. н. «боевое братство» — тут человек уже может не воспринимать себя как индивид. Собственно, вся муштра в армии (всех стран, всех времен и народов) направлена на подавление индивидуальности. Человек перестает быть самим собой и видит себя как винтик в боевой машине. И вполне себе может быть (а так, собсна, и бывает), что в моменты наивысшего напряжения боя, в каких-то мега напряженных ситуациях, он может принять решение на «самоликвидацию», но с целью спасти все подразделение. В этом случае, как я уже сказал, человек идет на смерть не просто так, а ощущая себя частью чего-то большего.
В армии интеллектом обладает только командир, все остальные выполняют свои действия согласно правилам, автоматически.
Красиво получилось. :) Логика не пропала.

Еще как пропала. Мы задавали вопрос об одной сущности, а ответ получили совсем о другой.


Зачем нужно определение интеллекта? Затем чтобы определить обладает ли интеллектом конкретный объект или система.


Самопожертвование не единственный случай, где Ваше определение не работает. Можно придумать массу примеров, когда объект заведомо обладающий интеллектом действует не с целью сохранить себя, а как раз наоборот.

Обладает ли интеллектом один нейрон? Нет. Обладает ли интеллектом группа связанных нейронов? Возможно. То есть интеллект возникает, казалось бы, «из ниоткуда», как трансцендентное относительно нейрона свойство.

Есть, кстати, некая аналогия с «китайской комнатой»: у отдельного элемента, оператора, системного интеллекта нет, есть лишь набор простых правил (на своём уровне — тоже, возможно, интеллект), но в контексте всей системы — рождается «системный интеллект», трансцендентный для самого оператора.
(«Трансцендентность» тут используется для описания некой высшей функции системы, принципиально не укладывающейся в репертуар, в понятийность отдельного элемента, с точки зрения самого элемента. При более общем взгляде это свойство — просто «эмерджентное», принципиально отсутствующее у отдельного элемента.)

Вот зачем в клетку заложен механизм апоптоза? Зачем клетке «хотеть» умереть? Ей же это совсем не нужно. Она по-идее должна «хотеть» выживать. Но нет, этот механизм есть, и он работает, не спрашивая клетки. Потому что этот механизм выгоден системе, организму. При эволюционировании клетки как части «общности», в ходе развития появляется свойство, не логичное для самой клетки, но выгодное для «общности».
Примерно так же и с отдельным человеком, который, казалось бы вопреки инстинкту самосохранения, жертвует собой, ради возможно даже непонятных для него целей. Просто потому что человек эволюционировал как социальное существо, и имеет весь набор отпечатков «общественных» функциональных закладок. Они, конечно, каким-то образом в рамках понятийной системы человека как-то объясняются (неким альтруизмом), но индивидуалистской логике противоречить не перестаёт. Нам, на своём уровне, несмотря на наш развитый интеллект, сложно понять и принять логику «общности». Ну а что поделать…
Обладает ли интеллектом один нейрон? Нет. Обладает ли интеллектом группа связанных нейронов? Возможно.

Вот чтобы отвечать на подобные вопросы и пытаются дать определение интеллекта. Но тут есть большая проблема. Если дать слишком "широкое" определение, ему соответствует много такого, что интеллектом не обладает. А если слишком "узкое", то, наоборот, отсеивается то, что интеллект заведомо имеет.

По Вашей логике выходит, что дабы четко определить понятие интеллект, сначала надо определить понятие интеллект :)
Так далеко не уйдёшь. Продуктивнее просто принять за «аксиомы» наличие или отсутствие оного у определенных сущностей, которые имеют/не имеют на базе банальной очевидности, а далее уже двигаться и уточнять.
Слишком широкая трактовка бесполезна, как и суженная до одного лишь человека.

Согласно моей логике:


  1. Автор статьи дал неточное определение интеллекта.
  2. С определением интеллекта в целом есть проблема.
В силу весьма субъективной, «чёрно-ящичной» природы интеллекта, любое его определение для кого-то останется недостаточно точным, или просто всё равно будет чем-то не нравиться. Ещё очень долго.
Автор статьи просто дал ещё одно определение, как ему кажется, более точное.

Интеллект — это свойство информационной системы строить модель окружающей среды на основе входящей информации.

А почему свойство, а не способность?

А, ну да, я хотел "способность" написать. О чем-то другом думал видимо)

Тогда согласен с Вашим определением.
А где цель-то? Для чего информационной система строить модель на основе входящей информации?

А тут нет цели. Важно просто наличие способности. Сделали люди такого робота, просто посмотреть как он будет работать, значит у него есть интеллект. В данном случае цель есть у людей, а не у робота.

Первое впечатление о тексте-ахинея.Скомпилировать концепцию из умозрительных описаний к.то абстрактных сущностей, и при этом игнорируя устоявшиеся оценки исследователей /хоят бы например raai.org/library/books/aizenk/aizenk.htm или того же Стернберга Р. или хотя бы Пиаже /- не просто плохой путь это даже оскорбительно.
НЛО прилетело и опубликовало эту надпись здесь
P.S и да, опережающее отражение и воображение даже по функции !=
Например экспериментально точно установлено наличие опережающего отражения у высших животных /механизм акцептора поведенческого акта/ но НИКАКИХ свидетельств наличия воображения у животных -нет. Не путайте с представлением, что как раз и является компонентом опережающего отражения
но НИКАКИХ свидетельств наличия воображения у животных -нет

Вы никогда не слышали про то, как щенята во сне перебирают лапами как будто бегут, или скулят или рычат? Это означает, что им снятся сны, а это и есть воображение.

что???!!! быстрая фаза сна с репродукцией энграмм это воображение??? )))

Сновидения это воображение. Воображение происходит от слова "образ". Щенок видит во сне образы и на них реагирует.

нет
это ничего не значит применительно к двигательной активности. А сравнив сигнатуру ЭЭГ при решении задачи на воображении у человека и "… щенят во сне", делают вывод что Там даже области высокого вольтажа не коррелируют.

А почему они должны коррелировать?

только остается вопрос, кем пожертвует автомобиль, при чрезвычайной ситуации: пассажиром или пешеходом
Автомобиль будет выполнять указания управляющего алгоритма: неукоснительно соблюдать ПДД при перемещении из п. А в п. Б… Автомобиль НЕ ЗНАЕТ, есть у него пассажир или нет. Ему надо создать в салоне определенный микроклимат, включить музыку, ТВ или что там еще, и доехать из А в Б согласно действующим правилам дорожного движения. ВСЁ. Вопроса о жертвенности не стоит вообще. Все эти фантазии и разглагольствования о том, кого авто будет спасать, а кого — убивать — это все наши представления, привычка приписывать неодушевленному объекту человеческие свойства.

Уже писал где-то, что решение проблемы «убивающего автономного транспорта» лежит не в увеличении сложности управляющих алгоритмов такого авто, а в создании умной (читай — интеллектуальной) транспортной системы (НАДсистемы для всех автомобилей), которая в принципе не допустит появления тех же пешеходов на проезжей части.

И почему, кстати, мы осуждающе смотрим исключительно на умный автомобиль? Какие к нему могут быть претензии, если он попал в аварию не по своей вине, а по вине другого участника дорожного движения? Пешеход, кстати, это тоже полноценный участник дорожного движения и относиться к нему нужно точно так же — со всей строгостью закона. Нарушил правила — неси ответственность. Вылез на дорогу — сам виноват. Только так.
ага вы попробуйте опубликовать это в академическом журнале… впечатление такое что тут эталоном качества публикации служит постомдернизм — как например в данной публикации.
Я видел такую хорошую пару определений, которые, ИМХО, хорошо применять и к интеллекту =)
1) Эпистемологическая рациональность — это о том, как составлять модель реальности, которая как можно лучше в плане прогноза недостающих данных. Условно, если Вася предсказывает, что завтра на градуснике будет 5 градусов, а Петя — что 10, и на практике оказалось 6 градусов, то у Васи больше эпистемической рациональности (надо проводить очень много таких тестов и усреднять результат, но суть теста именно такая — измерить погрешность прогноза).
2) Инструментальная рациональность — способность достигать целей. Вася и Петя играют в шахматы, оба стараются победить. Вася победил? У него выше инструментальная рациональность. Вася и Петя открыли по забегаловке и задались целью заработать как можно больше. За месяц Вася заработал 1000 долларов, а Петя — 1200. Значит, Петя более инструментально рационален (тут тоже надо проводить много тестов, чтобы отсеять различия в начальных условиях, случайность и прочие внешние факторы).

Первое определение ссылается на такие области математики, как регрессионный анализ и теорвер, второе — на теорию принятия решений.
При нынешних попытках сделать ИИ (то есть reinforcement learning) разработчики отталкиваются именно от этих двух задач, особенно от второй.

К человеку эти определения применимы ограниченно. Человек не всегда идёт к конкретной цели, у человека цели меняются, что контрпродуктивно с точки зрения инструментальной рациональности. И это, похоже, «не баг, а фича».
Тут есть вопрос — считать ли целеустановочные, мотивационные функции неотъемлемой частью интеллекта, или выделять из общей системы, и фокусироваться исключительно на «исполнительной» части? Мне кажется, что ограничиваться «исполнительной» частью неверно. Такой интеллект просто не сможет полноценно адаптироваться и саморазвиваться, или вообще действовать самостоятельно. Именно мотив «выживания» (набора условий, ограничений, и «чувств») может быть двигателем для развития этой части интеллекта.

Но для поддержания ИИ-хайпа и в коммерческих целях интересна именно «исполнительная» часть. General AI с одной стороны — очень интригует и интересен, а с другой — очень пугает. Но это уже отдельный разговор.
Тут есть вопрос — считать ли целеустановочные, мотивационные функции неотъемлемой частью интеллекта, или выделять из общей системы, и фокусироваться исключительно на «исполнительной» части? Мне кажется, что ограничиваться «исполнительной» частью неверно.
— я полагаю, это вопрос проведения границ, и его можно решать произвольно. Я сейчас поясню, почему.

Такой интеллект просто не сможет полноценно адаптироваться и саморазвиваться, или вообще действовать самостоятельно. Именно мотив «выживания» (набора условий, ограничений, и «чувств») может быть двигателем для развития этой части интеллекта.
— тут вопрос в том, что считается под «полноценно» и «самостоятельно».
Давайте я приведу упрощённую модель такого ИИ-исполнителя. Он похож на игрока в компьютерную игру, который играет плохо, но умеет загружаться. И загружается до тех пор, пока не получит приемлемый результат. Мы наблюдаем за тем его поведением, которое вошло в «финальную версию». И делает он это не в игре, а реальности.
Так вот, допустим мы такому ИИ ставим банальную цель — сделать больше скрепок.
Будет ли он адаптироваться? А это важно для производства скрепок? Если важно, то будет. Допустим, мы решили отключить этот ИИ. А он, согласно нашей модели, просмотрел варианты будущего, и увидел, что во-первых, мы его реально отключим, во-вторых, скрепок от этого не прибавится. Значит, он выбирает такую линию поведения, где его не отключили по любой причине, либо он успел скопироваться. Например, решение может быть такое: он уговорил людей его не выключать. Он загипнотизировал людей. Он сломал выключатель. Он убил людей. Он взял заложников, и сказал, что они умрут, если выключить ИИ. Это адаптация? Со стороны может выглядеть именно как адаптация (ну то есть если бы мы увидели такое поведение со стороны животного, мы бы сказали: это адаптация), но на уровне кода это просто хорошо прокачанные 2 вида рациональности (особенно первый).
Будет ли он саморазвиваться? Зависит от определения саморазвития. Он точно будет улучшать и свою модель мира, и способность выигрывать — для этого достаточно быть современным RL. Будет ли он целенаправленно делать то, что улучшит его модель мира? И снова да — для этого достаточно быть современным RL, ничего больше не нужно.
Будет ли он действовать самостоятельно? Зависит от того, что вы понимаете под самостоятельностью. Но если задать вопрос «что будет, если мы попытаемся сменить его цель на какую-то другую?» ответ очевиден. Не даст он вам этого сделать. Он уже перемотал время вперёд и видел, что скрепок выходит меньше. Так что он каким-то образом не даст это сделать.
Выживание? Допустим, мы не дали нашему ИИ цель выжить. Будет ли он стремиться к выживанию? Ну, он же перемотал время вперёд и увидел: нет бота — нет скрепок. Всё элементарно, надо защищать себя, во имя высшей цели.

Насчёт General AI — есть такие 2 определения:
«Artificial general intelligence (AGI) is the intelligence of a machine that can understand or learn any intellectual task that a human being can. „
и
“Соответствующим образом запрограммированный компьютер с нужными входами и выходами и будет разумом, в том смысле, в котором человеческий разум — это разум.»
ru.wikipedia.org/wiki/%D0%A1%D0%B8%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B8_%D1%81%D0%BB%D0%B0%D0%B1%D1%8B%D0%B9_%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%8B
en.wikipedia.org/wiki/Artificial_general_intelligence

Таким образом… Есть, условно, два разных термина — компьютерный-интеллект-типа-человеческого и интеллект-как-машина-результатов. Обычно первый называют сильным ИИ, а второй — AGI, но это не строго.
То, что я описывал выше — это машина результатов.

В общем, мой тезис (может, вам удастся оспорить?): я полагаю, что ИИ-машина-результатов может делать всё, что может делать человек, если это релевантно задаче. И все отличия ИИ-типа-человека от машины результатов бесполезны с деловой точки зрения, хотя, возможно, ценны с точки зрения исследования людей.
я полагаю, что ИИ-машина-результатов может делать всё, что может делать человек, если это релевантно задаче.

Она не ставит задачи. Даже если его структура будет настолько же ёмкой и обучаемой как и мозг человека, это не обеспечит её интеллектом.
Не бывает сферического интеллекта в вакууме. Ни компьютерного, ни «влажного». В лучшем случае есть алгоритмы, схожие с теми, которые используются интеллектом.
Адаптивная функция «мозга» не сможет развиваться, и дойти до стадии «интеллекта», если для неё не будет внешнего давления обстоятельств, и «внутреннего» давления потребностей.

Я, например, очень сомневаюсь, что без «социальности» интеллект вообще возможен. Социальность, как внутренняя потребность в коммуникации с другими, и развивает то что потом можно назвать интеллектом.

«ИИ-машина-результатов» — ни разу не интеллект. Это просто особая разновидность калькулятора. Причём проблема с реализацией такого недоинтеллекта в том, что он просто не сможет быть полноценно натренирован для решения всех задач. Каких-то простых, ограниченных — да. Но и всего.
Так что это не ИИ, а ИН. Искусственный недоинтеллект.
«Она не ставит задачи» — задачи вшиты жёстко. Верхнеуровневые. Нижнеуровневые инструментальные — почему бы и не ставить? Кого, «ставить задачи» — нерелевантно задаче. Самонаводящаяся ракета, которая меняет цель без прямой команды сверху — это… Обычно это плохо

«Не бывает сферического интеллекта в вакууме. Ни компьютерного, ни «влажного». В лучшем случае есть алгоритмы, схожие с теми, которые используются интеллектом.
Адаптивная функция «мозга» не сможет развиваться, и дойти до стадии «интеллекта», если для неё не будет внешнего давления обстоятельств, и «внутреннего» давления потребностей.» — а как же DQN и AIXI?
Не, конечно внешние обстоятельства и мотивации будут — иначе это не может быть" машиной результатов". Если нет ракеты и нет мишени — нет и управления. Но все же, как ваш комментарий соотносится с этими двумя основополагающими подходами в ИИ?

«Я, например, очень сомневаюсь, что без «социальности» интеллект вообще возможен.» — что вы подразумеваете под этим? Социальность — это склонность общаться или способность? Если способность, то в чём проблема для «машины результатов» освоить эту способность на уровне, достаточном для решения задач?
Да, на практике сейчас это не сделано, но не потому, что люди недостаточно точно воспроизводят архитектуру мозга, а по множеству чисто математических причин, которые сейчас потихоньку решаются

«Причём проблема с реализацией такого недоинтеллекта в том, что он просто не сможет быть полноценно натренирован для решения всех задач. Каких-то простых, ограниченных — да. Но и всего.» — какие именно задачи такой «ИН» решать не сможет?
Небольшое отступление. Я видел много неграмотных высказываний вроде «ИИ не может ставить задачи», «ИИ не может чувствовать», «ИИ не может заниматься искусством», «ИИ не может создать ничего нового». Высказывания неграмотные, потому что нигде не было поставлено конкретного измеримого критерия успеха. В таких случаях это не ИИ не может решить задачу — это мы её не можем понятно сформулировать. Инопланетянин ровно так же эту задачу не решил бы — потому что не знает, что именно решать. А вот нерешаемые задачи выглядят так: обычной нейросетью нельзя экстраполировалировать трансцедентные функции — экспоненту, например, или синус.
задачи вшиты жёстко. Верхнеуровневые.

Тут вот в чём дело. У Интеллекта нет никаких вшитых задач. Есть «инстинкты», которые интеллекту не подчиняются. Это внутренние точки давления, и по логике автора это — выжить индивидуально, выжить как вид (размножиться).
А «задача» — это формализованная условность, она образуется сама, в попытках найти баланс между внешним давлением обстоятельств и ограничений, и внутренним давлением «драйверов»-инстинктов, в число которых входит и социальный. Органическая жизнь изначально появилась как гомеостатическая система.
AIXI это нетривиальное внутреннее давление упрощает до некоего награждения из среды.
Если нет ракеты и нет мишени — нет и управления. Но все же, как ваш комментарий соотносится с этими двумя основополагающими подходами в ИИ?

«Cамонаводящиеся ракеты» — неудачный пример для применения AGI. Им интеллект вообще не нужен. И AIXI/DQN — это подход не к ИИ а ИН (искусственному недоинтеллекту, об этом ниже).
что вы подразумеваете под этим? Социальность — это склонность общаться или способность? Если способность, то в чём проблема для «машины результатов» освоить эту способность на уровне, достаточном для решения задач?

Это не просто способность, и даже не просто склонность, это ПОТРЕБНОСТЬ общаться.
В таких случаях это не ИИ не может решить задачу — это мы её не можем понятно сформулировать.

Я бы сказал, что мы и не совсем пытаемся формулировать задачу, которая отличает Интеллект от Недоинтеллекта. Нас и этот недоинтеллект вполне устраивает. Людям, в общем-то, нужна умелая и надёжная «обязьяна», натренированная классифицировать и реагировать в рамках поставленной _сверху_ задачи, и собранных паттернов. Она не должна задаваться вопросами, менять цели, и, не дай бог, протестовать. Ей интеллект не нужен, он для нее даже вреден.
У человека за интеллект/рассудок отвечает лобная доля. Именно она получила существенный рост, сравнивая с теми же обезьянами. Именно она во сне пассивна, а в осознанном сне — активна. И вот это автоматическое зомби-поведение, действие в рамках обстоятельств по заученным паттернам — прекрасно происходит и без участия интеллекта. Хотя, для внешнего наблюдателя может выглядеть вполне логичным и разумным, но это лишь в силу уже имеющегося багажа поведенческих реакций. И именно в ней работают функции постановки задач, торможения запущенных стереотипных действий, и само-перепрограммирования. Именно в этой зоне наблюдается нестандартная механика пластичности, когда для переобучения необходимы дополнительные компоненты, в то время как в других зонах переобучение происходит само, за счет многократного повторения.

И я хочу выделить, что эти мои рассуждения никак не вписываются во всякие DQN/AIXI, или какие-то другие искусственные нейросети. Сумматорно-сигмоидные нейросети на такое если и способны, то лишь в соотношении один к нескольким [десяткам/сотням] тысячам (один биологический нейрон на тысячи искусственных). Мне бы просто не хотелось тратить время на рассуждения в рамках DNN. Я понимаю, что именно они могут дать практическую реализацию «хоть чего-то», но это «хоть что-то» не перспективно для AGI (И об этом неоднократно говорили сами отцы DeepLearning).
И я хочу выделить, что эти мои рассуждения никак не вписываются во всякие DQN/AIXI, или какие-то другие искусственные нейросети.
— вообще, нейросети в DQN присутствуют «постольку поскольку», и если выкинуть нейронки и заменить их… Деревьями? KNN? Полиномиальными регрессиями? Алгоритмической индукцией? Концепция не изменится. В AIXI нейросетей вообще по умолчанию нет. Reinforcement Learning — это не про нейросети и не про классификацию, это про максимизацию подкреплений (то есть достижение целей). Я не рассуждаю в терминах DNN, у меня большинство Reinforcement Learning работают на других принципах машинного обучения, но всё на тех же принципах оптимального управлениям

Тут вот в чём дело. У Интеллекта нет никаких вшитых задач. Есть «инстинкты», которые интеллекту не подчиняются. Это внутренние точки давления, и по логике автора это — выжить индивидуально, выжить как вид (размножиться).
— ну, значит, эти «инстинкты» и есть сигнал подкрепления. В некотором приближении.
Я бы скорее сказал не что у интеллекта нет вшитых задач, а что у человека не только интеллект, а ещё система целеполагания =) Но это вопрос определения, я полагаю его достаточно произвольным. Вы ведь сейчас тоже разделили мотивации («драйверы»-инстинкты) и механику планирования.

AIXI это нетривиальное внутреннее давление упрощает до некоего награждения из среды.
— оно выносит за кадр механику вознаграждения. Какие хотим инстинкты, такие и можем поставить, это выглядит намного проще, чем сделать нормальный планировщик. Нет, если мы сделаем инстинкты по-простому, у нас не выйдет что-то типа человека, это может быть… Интеллект сверхразумного червя, например.

«Cамонаводящиеся ракеты» — неудачный пример для применения AGI. Им интеллект вообще не нужен.
— я полагаю, аналогия ограниченно полезна. Она отражает то, что у нас интеллект не на изолированном компе находится и не символьными вычислениями занимается, а работает в риалтайме, с датчиками и моторами, и не просто абстрактно «думает», а достигает проверяемой цели. Аналогия получше — чувак с машиной времени, который перематывает назад неудачные эпизоды. Но это не учитывает обучение, а только оптимальное управление

Это не просто способность, и даже не просто склонность, это ПОТРЕБНОСТЬ общаться.
— это потребность правда нужна для достижения целей? Неужели хитрый планировщик не догадается, что общение нужно, безо всякой потребности к нему? Вы уверены, что эта потребность релевантна достижению целей?

Людям, в общем-то, нужна умелая и надёжная «обязьяна», натренированная классифицировать и реагировать в рамках поставленной _сверху_ задачи, и собранных паттернов. Она не должна задаваться вопросами, менять цели, и, не дай бог, протестовать. Ей интеллект не нужен, он для нее даже вреден.
— мммм… Не совсем. Людям нужен исполнитель желаний. Штука, которая сможет составить более дальновидный и надёжный план, чем это делают люди, и получить что-то, что люди получать не умеют. Это не про классификацию. Реагирование… Очень грубо — человек тоже в каком-то смысле «реагирует», только на входе у него вся история взаимодействий со средой, а на выходе — план произвольной длины. Тут задача такая же — это не грубое реагирование на локальные стимулы — это такое поведение, которое заканчивается результатом, независимо от того, было ли оно реагированием, или нет.
И да, с практической точки зрения понятно, зачем нужен такой «нагибатор реальности».
А «искусственный человек», которого вы описали — он для чего полезен? Я вижу только то, что он применим для исследования людей, либо как что-то типа чат-бота. Плюс на него можно валить вычислительно сложные задачи, которые он будет лучше понимать, чем машина, потому что знает человеческий язык. Но… Он менее управляем.

У человека за интеллект/рассудок отвечает лобная доля. Именно она получила существенный рост, сравнивая с теми же обезьянами. Именно она во сне пассивна, а в осознанном сне — активна. И вот это автоматическое зомби-поведение, действие в рамках обстоятельств по заученным паттернам — прекрасно происходит и без участия интеллекта. Хотя, для внешнего наблюдателя может выглядеть вполне логичным и разумным, но это лишь в силу уже имеющегося багажа поведенческих реакций. И именно в ней работают функции постановки задач, торможения запущенных стереотипных действий, и само-перепрограммирования. Именно в этой зоне наблюдается нестандартная механика пластичности, когда для переобучения необходимы дополнительные компоненты, в то время как в других зонах переобучение происходит само, за счет многократного повторения.
— ну… Да, видимо, есть, а как это это связано практической эффективностью?
Ну, допустим, тезис. У человека есть часть мозга, которая перепрограммирует мозг, в результате мозг отвлекается и хуже справляется с изначально поставленными задачами. Так что роль есть, она отрицательная.
Или другой тезис. У человека есть часть мозга, которая перепрограммирует мозг, и в результате обучение требует меньше примеров, становится более sample-efficient. Так что роль есть, она положительная, перенести в программный код наверное, можно, но непонятно как (нет, мы не будет передирать сложные нейросети, мы постараемся понять их математику и передрать её, если это полезно).
Либо ещё вариант тезиса. Вот эта вот механика перепрограммирования не важна с точки зрения достижения целей, но она является неотъемлемым качеством интеллекта, потому что мы так определили интеллект. Определили бы иначе — эта особенность была бы не особенно важна.

У человека за интеллект/рассудок отвечает лобная доля
— а почему мы вообще к человеку привязались? Ну, почему не берём в качестве эталона интеллекта… Скажем, дельфинов, волков, крыс, попугаев и ворон? И, среди прочих, человека. Перечисленные животные довольно сильно соответствуют бытовому понятию слова «умный». И… Чтобы отобрать пример несоциального интеллекта… Пусть будут медведи.
Мы так просто решили? Или человек чем-то качественно отличается от перечисленного множества?
Судя по моим данным, различия скорее количественные, но большие.
это потребность правда нужна для достижения целей? Неужели хитрый планировщик не догадается, что общение нужно, безо всякой потребности к нему? Вы уверены, что эта потребность релевантна достижению целей?
Эта потребность — как раз проявление «трансцендентной» логики. Над-индивидуальной. Необходима для развития человечества как вида. Цели в общем-то неизвестны, возможно, отсутствуют. Просто эволюционно так сложилось. Но смысл в том, что человек как отдельная особь, без соответствующего социального окружения не сможет нормально ни обучиться, ни функционировать. Даже дети-маугли имели социальное окружение в виде животных. Люди — крайне эусоциальны.

Людям нужен исполнитель желаний. Штука, которая сможет составить более дальновидный и надёжный план, чем это делают люди, и получить что-то, что люди получать не умеют.

Чтобы план был надёжный, должна быть сверхточная модель всего общества, всех животных, всех вирусов и бактерий, с каждым индивидуальным членом, со всей психологией каждого. Фактически нужно детально симулировать всю планету. Боюсь, что это невозможно.

А «искусственный человек», которого вы описали — он для чего полезен? Я вижу только то, что он применим для исследования людей, либо как что-то типа чат-бота.
Чтобы спрогнозировать все факторы, достоверно составить план, нужно учитывать всех, кто может повлиять на других, нужна довольно точная «модель личности» каждого. Про эффект бабочки слышали? По надёжным планам такого уровня я рекомендую расслабиться.

ну… Да, видимо, есть, а как это это связано практической эффективностью?
Я бы сказал — неотъемлемо связано с «интеллектуальностью». Без этого управляющего модуля интеллекта как такового и не получится.

Либо ещё вариант тезиса. Вот эта вот механика перепрограммирования не важна с точки зрения достижения целей, но она является неотъемлемым качеством интеллекта, потому что мы так определили интеллект. Определили бы иначе — эта особенность была бы не особенно важна.
Опять — «достижение целей». Каких целей? Откуда они взялись? Интеллектуальность подразумевает максимальную самостоятельность. Умелый исполнитель, не умеющий передумывать, менять цель, или даже отказываться от неё, в общем-то не имеет полноценного интеллекта. Он зомби.

а почему мы вообще к человеку привязались? Ну, почему не берём в качестве эталона интеллекта… Скажем, дельфинов, волков, крыс, попугаев и ворон?
Потому что это имеющаяся данность — очевидность высокоразвитого интеллекта у человека. И какие-то элементы интеллекта у перечисленных животных. Просто приходится иметь с этой данностью дело.

Чтобы отобрать пример несоциального интеллекта… Пусть будут медведи.
А кто сказал что медведи — не социальны? У них очень сложные социальные навыки. Вообще, любые существа, заботящиеся о потомстве, и имеющие какие-то брачные ритуалы, социальны. По-другому разве что одноклеточные функционируют.

Человек на личном уровне не сильно далеко ушёл от животных. Но всё же ушел. Сформировал очень крепкую связь с обществом, образовал цивилизацию, коллективный разум. Вынь человека из цивилизации — будет неспособный выжить примат. Как муравей без муравейника.
Отсюда и вывод про важнейшую социальную часть. За счёт социального развития, кстати, лобные доли человека и «расширились». Т.е., основное их наполнение шло за счёт лавинообразных усложнений социальных взаимодействий. Для эффективного действия в обществе необходим «theory of mind», и эта способность «интуитивно моделировать» должна постоянно усложняться. Такова уж специфика имеющегося у нас для анализа интеллекта.

Чтобы получить некий рафинированный интеллект, не уступающий человеческому, необходимо всё это учитывать. Понятно что «мокрая реализация» — не единственно возможная. Но она такой интеллектуальной стала только в ходе эволюции во всем этом социально-ориентированном контексте.

И я боюсь, что привести в пример какое-то гипотетическое интеллектуальное существо, эволюционировавшее без сложного общественного влияния, не получится.
Чтобы план был надёжный, должна быть сверхточная модель всего общества, всех животных, всех вирусов и бактерий, с каждым индивидуальным членом, со всей психологией каждого. Фактически нужно детально симулировать всю планету. Боюсь, что это невозможно.
— не нужно планировать идеально, достаточно планировать лучше, чем люди. И… Я внедрял RL для управления продажами в условиях большого города. Людей там было немерянно, а моделька влезала в пару гигабайт. И рулила достаточно хорошо, чтобы придумывать планы, которые эффективнее, чем то, что придумывали люди. И в модельке не было ничего похожего на людей — она работала чисто со статистикой. Это было именно то, что вы называете невозможным. Она в среднем работала лучше аналогов. И да, мы слышали об эффекте бабочки и видели его, и с ним можно справиться.

Опять — «достижение целей». Каких целей? Откуда они взялись?
— это находится за кадром, потому что поставить цель — это достаточно тривиально. Цель — это вообще, любое правило, по которому одни состояния реальности считаются «лучше», чем другие. Инстинкты, сформированные эволюцией, являются частным случаем целей (не факт, что все, но многие). Сознательные цели — тоже такой же частный случай. Целевая температура на термостате — точно такая же цель

Потому что это имеющаяся данность — очевидность высокоразвитого интеллекта у человека. И какие-то элементы интеллекта у перечисленных животных. Просто приходится иметь с этой данностью дело.
— это значит, что вы интеллект определяете через человека =) Можно иначе, например, интеллект — эта такая форма поведения, что обладает такими-то свойствами. Они есть у всех животных, начиная с амёб, но у некоторых животных эти свойства выражены сильнее. Например, у белок очень мощный интеллект в плане ориентирования на местности, а у человека — мощный социальный интеллект.
Но это вопрос определения, тут как договорились, так и правильно.

Эта потребность — как раз проявление «трансцендентной» логики. Над-индивидуальной. Необходима для развития человечества как вида. Цели в общем-то неизвестны, возможно, отсутствуют. Просто эволюционно так сложилось. Но смысл в том, что человек как отдельная особь, без соответствующего социального окружения не сможет нормально ни обучиться, ни функционировать. Даже дети-маугли имели социальное окружение в виде животных. Люди — крайне эусоциальны.
— ну это понятно, что люди действуют как коллектив, и группа людей тоже обладает вычислительной мощностью и целями, которые не совпадают с теми, что есть у людей.
Вопрос был в другом. Допустим, я взялся делать «машину результатов». И тут слышу: для интеллекта важна социальность. И я думаю. Я хотел ему поставить цель «привези мне кусочек Плутона». А что, мне надо ещё ставить ему ценность «пообщаться»? Неужели тогда он быстрее сгоняет до Плутона? Понятно, что лучше бы, чтобы ИИ умел манипулировать людьми — он так явно лучше справится с любой задачей. Но… Ставить это в качестве цели? Серьёзно? А он сам не поймёт, что эти двуногие штуки можно как-то использовать, и не догадается, что для этого надо изучить их язык? Вроде как ИИ догадывается использовать людей, даже если это просто RL внутри онлайн-игры. Кажется, идея довольно прозрачна…

А кто сказал что медведи — не социальны?
— в сравнении с

ля эффективного действия в обществе необходим «theory of mind», и эта способность «интуитивно моделировать» должна постоянно усложняться.
— если ИИ будет обитать в среде, где люди — это часть среди — разве он не научится их моделировать? Просто потому, что эти люди влияют на его сверхважную цель (запрограммированную на этапе разработки) — ресурсы то дают, то отбирают, мешают производству, иногда подмогают — в общем, сильно воздействуют на то, что для ИИ дорого.
Я понимаю, что у человека моделирование других людей — это полунатурное моделирование. Потому что мозг всегда при себе, а эмулировать ещё один мозг… Надорвёшься. Поэтому можно просто попытаться поставить себя на место другого. И довести это до автоматизма. Но в чём принципиальная невозможность сделать это моделирование полностью софтовым, если в частных случаях RL это уже делают?
не нужно планировать идеально, достаточно планировать лучше, чем люди. И… Я внедрял RL для управления продажами в условиях большого города. Людей там было немерянно, а моделька влезала в пару гигабайт. И рулила достаточно хорошо, чтобы придумывать планы, которые эффективнее, чем то, что придумывали люди.
И это была просто _абстрактная_ «групповая» модель. Да, машинным обучением можно какие-то вещи калькулировать, подгонять, решать уравнения об эффективности на big data. Но это не имеет отношения к интеллекту от слова совсем. Это ситуационная калькуляция.

это находится за кадром, потому что поставить цель — это достаточно тривиально.
Вот когда у Вас будет ИИ-агент, который помимо исполнения «выученных» на ограниченный класс задач (это то что сейчас «ИИ» умеет), будет сам ставить цели (не рандомные, а именно уметь их ставить максимально эффективно) и доучиваться в части их исполнения, анализируя изменяющиеся обстоятельства, тогда можно будет уже говорить о каком-то интеллекте.

это значит, что вы интеллект определяете через человека =) Можно иначе, например, интеллект — эта такая форма поведения, что обладает такими-то свойствами. Они есть у всех животных, начиная с амёб, но у некоторых животных эти свойства выражены сильнее.
Нет у амёб интеллекта. У амёб присутствует просто адаптация (за счёт смерти при ошибочных действиях) и сформированные этой эволюцией вшитые реакции, модифицировать которые за рамки прошивки они не могут.

Но это вопрос определения, тут как договорились, так и правильно.
Да, главное только не путать одно с другим. Интеллект с эволюционной адаптацией.

Я хотел ему поставить цель «привези мне кусочек Плутона». А что, мне надо ещё ставить ему ценность «пообщаться»? Неужели тогда он быстрее сгоняет до Плутона?
Очевидно, что ему необходимо изучить весь имеющийся опыт в этой сфере (а возможно и смежные, или какие-то еще). Также необходимо научиться экспериментировать в земных условиях (ибо цикл проб-ошибок должен минимизироваться), и развить науку, пользуясь всеми ресурсами (включая других людей).

если ИИ будет обитать в среде, где люди — это часть среди — разве он не научится их моделировать?
А для чего? Вот в этом весь «дравер». Без него он ничего не будет делать. Какие-то невесть откуда взявшиеся цели без кучи остальных драйверов ничего хорошего не дадут.

Поэтому можно просто попытаться поставить себя на место другого. И довести это до автоматизма. Но в чём принципиальная невозможность сделать это моделирование полностью софтовым, если в частных случаях RL это уже делают?
Так оно и работает — «ставить себя на место». И без наличия полноценного человеческого «я» — подставить себя на место другого тоже не выйдет. Социопаты испытывают с этим огромные проблемы, несмотря на то что интеллектом обладают. Ограниченно.
Вот когда у Вас будет ИИ-агент, который помимо исполнения «выученных» на ограниченный класс задач (это то что сейчас «ИИ» умеет), будет сам ставить цели (не рандомные, а именно уметь их ставить максимально эффективно) и доучиваться в части их исполнения, анализируя изменяющиеся обстоятельства, тогда можно будет уже говорить о каком-то интеллекте.
— а как вы цели оценивать собираетесь на предмет эффективности? И если у вас есть критерий оценки цели на эффективность, то почему вместо цели не поставить сразу этот критерий? Будет же то же самое.

Вообще-то есть похожий тест на интеллект, для ИИ. Обучаем на серии задач, а потом помещаем внутрь новой задачи. И смотрим, решит или нет. Без масштабного обучения.

Нет у амёб интеллекта. У амёб присутствует просто адаптация (за счёт смерти при ошибочных действиях) и сформированные этой эволюцией вшитые реакции, модифицировать которые за рамки прошивки они не могут.
— вы хотите сказать, что они никогда, ни при каких обстоятельствах не умеют адаптироваться при жизни хотя бы по одной переменной? По одной переменной — это адаптация на уровне термостата, когда мы измеряем одну переменную, меняем одну переменную, целевая точка одна.

Очевидно, что ему необходимо изучить весь имеющийся опыт в этой сфере (а возможно и смежные, или какие-то еще). Также необходимо научиться экспериментировать в земных условиях (ибо цикл проб-ошибок должен минимизироваться), и развить науку, пользуясь всеми ресурсами (включая других людей).
— и почему из этого следует, что ему надо ставить цель «общаться»? Вы же сами написали, что оптимальная траектория проходит через общение. Почему нельзя просто сказать «найди оптимальную траекторию»? И он научится общаться, потому что такой план, а не потому что это ему ценно.

А для чего? Вот в этом весь «дравер». Без него он ничего не будет делать. Какие-то невесть откуда взявшиеся цели без кучи остальных драйверов ничего хорошего не дадут.
— вы предлагаете общение делать целью. Я полагаю, что достаточно, чтобы оно было инструментом. Мы задаём вопрос: как легче достичь цели, с общением или без? Если с общением, то ИИ станет учиться общаться. А как иначе? Какой у него выбор? Зачем в таком случае ещё какая-то мотивация?

Так оно и работает — «ставить себя на место». И без наличия полноценного человеческого «я» — подставить себя на место другого тоже не выйдет. Социопаты испытывают с этим огромные проблемы, несмотря на то что интеллектом обладают. Ограниченно.
— вы смотрите на недостатки людей и обобщаете на любые интеллекты. Вы можете доказать, что «без наличия полноценного человеческого «я» — подставить себя на место другого тоже не выйдет»? Что такого особенного в задаче общения, чего принципиально нельзя добиться большими данными, правильными моделями и целями, которые требуют общения в качестве одной из ступенек? Я вот не вижу в этом ничего такого — просто сложная задача и всё
а как вы цели оценивать собираетесь на предмет эффективности? И если у вас есть критерий оценки цели на эффективность, то почему вместо цели не поставить сразу этот критерий? Будет же то же самое.
По аналогии с тезисом «практика — критерий истины».
В том и дело, что Реальный Интеллект не имеет никаких целей, и не имеет критериев эффективности кроме позитивных или негативных последствий от решений.
Но имеет кучу ограничений, и ряд «неуёмных беспокойств». В этих обстоятельствах он и лавирует.

вы хотите сказать, что они никогда, ни при каких обстоятельствах не умеют адаптироваться при жизни хотя бы по одной переменной?
Я написал что не умеет адаптироваться за пределы вшитых реакций. Термостат — это вшитая реакция. Их там есть энное количество, но и всё. Никакого развития этих реакций в ходе жизни (то есть полной итерации) нет. Интеллект же подразумевает возможность развития, и эволюционирования реакций в течение жизни «особи». Потому-то мозг в такой пластичной архитектуре и оказался выгоден для эволюции.

и почему из этого следует, что ему надо ставить цель «общаться»? Вы же сами написали, что оптимальная траектория проходит через общение. Почему нельзя просто сказать «найди оптимальную траекторию»? И он научится общаться, потому что такой план, а не потому что это ему ценно.
Во-первых, это априорно, что «надо общаться». Эволюция в архитектуре коннектома уже вшила социальные инстинкты, и потребность в общении, потому что иные стратегии оказались гибельными (ну, эволюция это на практике доказала). Во-вторых, некий абстрактный «убер-интеллект» теоретически может вообще никаких предпрошитых предрасположенностей не иметь. Но ему понадобится немало итераций проб и ошибок, пока до него не дойдёт, что развитые навыки общения практически неизбежны для исполнения «миссии» (абсурдность самого наличия такой «миссии» для такого интеллекта оставим за скобками).

Мы задаём вопрос: как легче достичь цели, с общением или без? Если с общением, то ИИ станет учиться общаться. А как иначе? Какой у него выбор? Зачем в таком случае ещё какая-то мотивация?
Штука в том, что «ИИ» не может знать как легче достичь цели, пока не пройдёт весь маршрут до цели каждой(!) стратегией. Даже в A* алгоритме, в отличие от алгоритма Дейкстры существует некая эвристика, для сокращения вариантов. Считайте, что эта эвристика и оказалась коррелирована с социальным взаимодействием, оттого и оказалась вшита в коннектом.

Что такого особенного в задаче общения, чего принципиально нельзя добиться большими данными, правильными моделями и целями, которые требуют общения в качестве одной из ступенек? Я вот не вижу в этом ничего такого — просто сложная задача и всё
Это не просто сложная задача, это переусложнённая задача. Это миллионкратное переизобретение велосипеда, напрасная трата огромных ресурсов на то, что и так известно.

вы смотрите на недостатки людей и обобщаете на любые интеллекты. Вы можете доказать, что «без наличия полноценного человеческого «я» — подставить себя на место другого тоже не выйдет»?
На какие недостатки людей я смотрю? Вы о чём? Я смотрю на непреодолимые недостатки ИИ, а не людей. И доказывать, что такой ИИ может быть эффективным не менее, чем человек (во всех задачах) нужно утверждающему подобное.

Разговор, насколько я понимаю, о том, что именно Интеллект (не ИИ а вообще) должен иметь, чтобы таковым являться. Чем он оПРЕДЕЛяется. Чтобы выяснить, что именно уже делает его не-Интеллектом, а рефлексом, автоматизмом, чем угодно.
Автор заявил, что фактор борьбы за выживание — неотъемлем для формирования Интеллекта. В целом я скорее согласен, чем нет. Но я также ещё добавил к этому, что фактор наличия социальных навыков (и всё что с ними связано) не менее важен.

Гипотетический Убер-ИИ, который вы выдвигаете в качестве платформы, без этих факторов не будет ни выглядеть, ни ощущаться как интеллект. Вы предположили что траектория через «общественные» может оказаться оптимальной. Я же предлагаю исключить из его траекторий всё социальное. Пусть обходится один. Никто ничего ему объяснять не будет. Далеко он уйдет? Не думаю. Он неизменно будет приходить на траекторию «социального», очеловечиваться. Но будет тратить на это кучу ресурсов. Хотя мог бы изначально стартовать с этой «человечностью».
"… Реальный Интеллект не имеет никаких целей, и не имеет критериев эффективности кроме позитивных или негативных последствий от решений." Голословно. Очень. Вообще непонятно откуда это Вы вывели.
Методом исключения. Посмотрите на новорождённого. Рафинированный, очищенный от паттернов и предрассудков. Ещё ничему не научен. Какие там цели и критерии? По сути всё поведение сводится к получению удовольствия и избеганию неприятностей (а это и есть последствия решений). Всякие смыслы и цели уже берутся от общества.
Да, но у новорожденного нет интеллекта. Более того, если он не будет жить в социуме (с паттернами и предрассудками), то останется животным маугли. Более того, если первые два года не уделять должного внимания социализации ребенка (говорить с ним, играть, трогать, давать трогать себя, знакомить с другими людьми), то ребенок останется недоразвитым интеллектуально. Так что в вопросе паттернов и предрассудков не всё так однозначно.
У новорожденного есть «базовый» интеллект. Не развитый, но со всеми прошитыми предрасположенностями, и парой первичных инстинктов. Потом взросление добавляет еще парочку.
Развитие мозга ребенка идёт по генетически прошитой программе: формируется некий «скелет» с направляющими (в частности те же социальные зоны), и в ходе этого наполняется «мясом» из окружающей среды. Должны быть оба компонента для его полноценного раскрытия. Как я понимаю первичные это инстинкт любопытства, инстинкт (или даже рефлекс) подражания, социальный инстинкт (пассивно-материнский), инстинкт голода/страха/самосохранения — направлены на стимулирование самообучения и выживания. Ну и дальше на их основе и на базе опыта формируются другие, более сложные. А потом и инстинкт размножения, и активно-материнский добавляются.

Они, конечно, частью интеллекта как такового не являются, но они помощники в его формировании. Так сказать «направляющие». Без них интеллект формируется не совсем как надо. В частности, без первичных может получиться совсем не то.

А можно ли «кривой» интеллект считать интеллектом? Конечно. Но тут уже вопрос не наличия, а качества (оцениваемого не просто скалярным значением). А неполноценный интеллект как-то и называть таковым не хочется (не интеллект, а тупость, например). Интеллект в понимании людей — это нечто скорее эталонное, прокаченное. Но это уже чисто субъективная оценка. Нам же интересно найти семантические границы и пределы этого понятия.
Нет. Прошиты только инстинкты. Всё прочее находится в социуме и культуре. Обезьяны очень мало отличаются от людей по «прошивке», а вот культуры у них нет, поэтому интеллект в зачаточном состоянии.
Не могли бы вы уточнить что именно «нет»?
Потому как я не вижу противоречий со своими словами. Прошивка, набор инстинктов у шимпанзе почти совпадают с людскими. Разница минимальна. И не она определяет итоговую развитость интеллекта, а гены «количества», — те самые социальные области (и связанные с ними лобные) у человека на порядок «мясистее», хотя общая структура в целом идентична.
Если бы Вы видели противоречия в том, что говорили — это была бы серьезная проблема. )))

Вы отрицаете факт того, что человек, выросший ВНЕ человеческого общества остается животным? И (если не отрицаете) какое объяснение этому согласно Вашей модели?
Я там не увидел противоречий между своими и Вашими словами.

Человек и есть животное (Animalia) в любом случае. То что он в таком случае будет диким, не цивилизованным — дык это и так варьируется среди людей. Интеллект у таких остается не раскрытым. Ну, тупые в нашем понимании, адаптированы под дикие обстоятельства. А сокращенное окно пластичности — это просто биологический факт конкретной реализации (сокращенного окна могло бы и не быть, и интеллекта бы это не лишило). Теоретически, окно это можно было бы переоткрывать, и дообучать человека (если были бы созданы соответствующие препараты и процедуры).
Да, я понял, просто это не были «мои слова», я просто приводил факты. Железные. )))

Нет. Насколько я понял исследования, дообучать нельзя. Есть такой момент, называется «кризис трехлетия», это когда человек «обретает» сознание и «я». После него уже слабоумие, если нет социализации. В этом именно проблема и есть, что интеллект — это не персональный феномен, а коллективный. Как mainframe и терминалы. )))
Человеческий интеллект — феномен социальный. Да.
Ограниченность времени обучения — особенность биологии, а не интеллекта как такового. Расширять окно при соответствующих процедурах теоретически можно. Просто надежные процедуры и препараты пока не придуманы. Есть исследования о препаратах, увеличивающих пластичность мозга до степени, когда взрослые могут обучиться абсолютному слуху (который усваивается только в раннем детстве). Но это к обсуждению не относится. Вы смешиваете конкретную реализацию с ограничениями, с самим явлением.
Реальный Интеллект не имеет никаких целей, и не имеет критериев эффективности кроме позитивных или негативных последствий от решений.
— это и есть цели. Если у интеллекта есть хоть какие-то предпочтения по поводу чего угодно — это и есть его цели. Если для него хоть в чём-то есть термины «позитивно и негативно» — у нас уже есть цели, ценности, метрика качества, сигнал подкрепления — можно называть как угодно. У DQN ровно так же. И промежуточные цели он в некотором смысле тоже ставит — это следует из уравнения Белмана.
Итак, если привести ваши высказывания в этом направлении к чуть более стройному виду, я вижу следующее. Человек ставит цели! Но не «конечные», а только инструментальные. ИИ-машина-результатов не ставит цели! Но только конечные. Промежуточные может ставить, в зависимости от архитектуры. DQN — да, AIXI — нет.
Если человек меняет «конечные», верхнеуровневые цели, это значит одно из следующего:
1) Это произошло не специально (по голове ударили — шоколад перестал давать сигнал подкрепления)
1.1) Человек — не совсем целеустремлённый агент. В смысле, эта абстракция ощутимо расходится с реальностью, например… Человек взрослеет — хотелки меняются, просто из-за изменения гормонального фона и из-за того, что они автоматом подстраиваются под окружение.
2) Это произошло под давлением других верхнеуровневых целей (меня тянет к шоколаду, но от него портятся зубы. Я прошу Васю, чтобы он ударил мне по голове так, чтобы шоколад утратил привлекательность, но остальное осталось).

некий абстрактный «убер-интеллект» теоретически может вообще никаких предпрошитых предрасположенностей не иметь. Но ему понадобится немало итераций проб и ошибок, пока до него не дойдёт, что развитые навыки общения практически неизбежны для исполнения «миссии»
— да, тут согласен на все 100. Но это не то же самое, что ИИ не сможет обучиться общаться, если у него не будет к этому тяге. Это скорее… ИИ потребуется избыточно много данных, чтобы построить theory of mind, если у него «mind» не будет похож на человеческий и не будет предзаданной модельки человеческого mind. И это не про мотивацию.

Штука в том, что «ИИ» не может знать как легче достичь цели, пока не пройдёт весь маршрут до цели каждой(!) стратегией.
— не совсем. Точные циферки можно узнать и правда лишь из эксперимента. Но приблизительные…
Есть уравнение Белмана. На нём работает DQN и современная космонавтика. Только в космонавтике матмодель рукописная, а в DQN матмоделью является нейросеть. И нет, никто не пытался провести все возможные полёты в космос — уравнение Белмана позволяет принимать оптимальные решения и без этого. Уравнение Белмана само строит эти эвристики по определённому закону.

Я написал что не умеет адаптироваться за пределы вшитых реакций. Термостат — это вшитая реакция. Их там есть энное количество, но и всё. Никакого развития этих реакций в ходе жизни (то есть полной итерации) нет. Интеллект же подразумевает возможность развития, и эволюционирования реакций в течение жизни «особи».
— я тут вижу не чёткую границу, а кучу градаций. Первый вариант — у нас есть термостат. Второй вариант — у нас есть… ну пусть автопилот, цель которому выдаёт следящая система, то есть двух-уровневая архитектура. Уровней управления может быть и больше… И если у нас штук 5 управляемых уровней, и только один самый-самый главный и не адаптирующийся, то мы будем видеть, что почти все системы динамические, перенастраивамые и адаптивные. И можно будет подумать. что это качественно отличается от термостата. Но реально отличие в числе уровней.
Можно сделать вообще рекурсивный интеллект — он может менять в своих внутренностях что угодно. Число уровней как бы бесконечно. Но только во-первых, человек не такой, во-вторых, даже у этой системы должен быть какой-то признак цели, потому что иначе она будет развиваться в рандомном направлении (обычно через пару итераций скатится в полную неработоспособность).
Или вы где-то в природе видите системы, которые не сводятся к иерархии из термостатов (не «не знаю, как свести», а «есть доказательства, что не сводятся») — пожалуйста, расскажите.

На какие недостатки людей я смотрю? Вы о чём? Я смотрю на непреодолимые недостатки ИИ, а не людей.
— ваш тезис: «Люди используют theory of mind, ставя себя на место других. Поэтому люди, не умеющие ставить себя на место других, не способны эффективно общаться. Следовательно, ИИ, не умеющий себя ставить на место других, не сможет эффективно общаться.»
Я его полагаю голословным. Это у людей есть проблема — они не могут смоделировать другого человека одной только математикой (как мы моделируем полёт камня, например), а вынуждены использовать полунатурное моделирование. Не вижу причин, почему это строго необходимо для ИИ. Вижу это утверждение крайне сильным. Нулевая гипотеза выглядела бы так «а чёрт его знает, желание общаться вроде важно, но не факт, что необходимо. Для людей скорее необходимо, но не факт, что это корректно переносить на ИИ». Соответственно, как только появляется строгая необходимость, я прошу сильных подтверждений =)
В теории ИИ есть вещи, которые достаточно строго необходимы — например, память. Или сенсоры. Или Тьюринг-полнота. И там есть довольно мощные подтверждения и примеры задач, которые можно решить без соответствующей способности, но мы упрёмся в предел эффективности, независимо от того, сколько соберём статистики и насколько много времени потратим на обучение.
И доказывать, что такой ИИ может быть эффективным не менее, чем человек (во всех задачах) нужно утверждающему подобное.
— вообще, мой тезис не такой, а тот, что выше.
Но допустим. Если ИИ соответствует уравнению Белмана, то он уже автоматом эффективен на всех задачах не хуже человека. Если, конечно, мы эти задачи корректно поставили — но сами награды он выбивать будет. И тут вопрос скорее к тому, как сделать такой ML, который даст достаточно точную модель мира, чтобы его уравнение Белмана корректно переносилось на реальность. Нет, не так, у нас есть такой ML, и не один (AIXI и Neural Turing Machine). Вопрос в том, как их сделать достаточно быстрыми и достаточно sample-efficient.
Да, есть эффекты бабочки, но если люди с ними как-то справляются, значит, это физически возможно, значит, можно найти такую конфигурацию, скажем, NTM, где задача решена. Вопрос в том, как её найти за разумное время и за малое число статистики.

Гипотетический Убер-ИИ, который вы выдвигаете в качестве платформы, без этих факторов не будет ни выглядеть, ни ощущаться как интеллект. Вы предположили что траектория через «общественные» может оказаться оптимальной. Я же предлагаю исключить из его траекторий всё социальное. Пусть обходится один. Никто ничего ему объяснять не будет. Далеко он уйдет? Не думаю. Он неизменно будет приходить на траекторию «социального», очеловечиваться. Но будет тратить на это кучу ресурсов. Хотя мог бы изначально стартовать с этой «человечностью».

«Я же предлагаю исключить из его траекторий всё социальное» — это интересная постановка задачи. Допустим. Тогда ИИ не должен контактировать с людьми — ни специально, ни случайно, люди не должны быть его средой обитания. И это довольно сложно достижимо. Если поместить такой ИИ… Скажем, на Северный Полюс и поставить ему «простую» задачу долететь до Луны, то ИИ достаточно быстро станет напрягать людей своими опытами по физике. Ему же надо будет осваивать конструирование чего-то, что запускает объекты вверх. Добывать ресурсы. Выбрасывать мусор. Всё это без понимания, что ресурсы кому-то принадлежат, что ракеты или даже пушки на полюсе — это достаточно стрёмно для России и США. Поэтому люди придут и станут на него влиять. А ИИ станет как-то адаптироваться. Это уже сделает его социальным — не в смысле, что он заговорит, а в смысле, что он с людьми будет взаимодействовать (пусть даже это будет стрельба друг в друга).
Но допустим, мы поместили ИИ в дальний космос или в симуляцию, которая хорошо изолирована от людей. Ему для успешных действий надо будет с нуля освоить науку, которую люди осваивали… Научным методом лет 300. До этого систематизировали и записывали опыт ещё лет… Ну пусть 10-20 тысяч. До этого была эволюция, и там тоже была настройка моделей, хотя и с крайне низкой sample-efficiency. Ну да, надо очень много опыта. Надо провести кучу экспериментов, кучу наблюдений, и займёт это гору времени. Из каких-то локаций (например, из чёрной дыры) достичь целей будет, наверное, вообще невозможно. Для других — непонятно, как, но «непонятно» не значит «невозможно».
Я всё ещё не вижу, где тут невозможность достичь целей. Да, будет долго. Но значительно быстрее, чем эволюция.

Он неизменно будет приходить на траекторию «социального», очеловечиваться. Но будет тратить на это кучу ресурсов. Хотя мог бы изначально стартовать с этой «человечностью».
— я в данной ситуации описываю минимальный интеллект. Если он чего-то может достичь — значит, на старте необязательно заряжать в него эту способность (хотя, наверное, полезно). Это относится и к общению, и к выживанию — если ИИ достигает целей, не связанных с выживанием, то стремление выжить у него появляется побочным эффектом, потому что обычно в живом виде легче достигать целей.
Вы описываете… Не «дистрибутив интеллекта, минимально возможный», а «продакшн-версию, хорошо работающую в плюс-минус земных условиях». Тогда я бы ещё докинул хороший анализ видеоряда =) Потому что в нашей трёхмерной вселенной это довольно полезно.
— это и есть цели. Если у интеллекта есть хоть какие-то предпочтения по поводу чего угодно — это и есть его цели.
Не очень хочется смешивать и путать понятия «оценки» и «цели». Это совсем не одно и то же. Цели — нечто планируемое и формализованное. А оценки — это достаточно абстрактные мотивирующие, или демотивирующие векторы.
Это скорее… ИИ потребуется избыточно много данных, чтобы построить theory of mind, если у него «mind» не будет похож на человеческий и не будет предзаданной модельки человеческого mind.
Когда заходит речь про избыточно много данных — это означает крайне невысокую эффективность. Эффективность текущих решений не намного больше ноля, но оно компенсируется использованием огромных вычислительных мощностей (количеством итераций), и избыточным количеством данных.
Есть уравнение Белмана. На нём работает DQN и современная космонавтика. Только в космонавтике матмодель рукописная, а в DQN матмоделью является нейросеть.
Я очень сомневаюсь что уравнение Белмана применимо к многомерному пространству вероятностей развития сверхсложного клеточного автомата (каковой в некотором приближении можно считать реальность).
Или вы где-то в природе видите системы, которые не сводятся к иерархии из термостатов (не «не знаю, как свести», а «есть доказательства, что не сводятся») — пожалуйста, расскажите.
Очень много хороших и правильных рассуждений, но я говорил конкретно про одноклеточную амёбу, что её поведенческий репертуар крайне узок и не динамичен, и ни про какой интеллект речи быть не может.
Это у людей есть проблема — они не могут смоделировать другого человека одной только математикой (как мы моделируем полёт камня, например), а вынуждены использовать полунатурное моделирование. Не вижу причин, почему это строго необходимо для ИИ.
Может, потому что других интересных интеллектов просто не существует, и ИИ обязан опираться на человеческий, иначе его просто как интеллект невозможно будет классифицировать? Ну, взять тот же тест Тьюринга. Без theory of mind его не пройти.
Если ИИ соответствует уравнению Белмана, то он уже автоматом эффективен на всех задачах не хуже человека.
Только штука в том, что полноценного ИИ не существует, и уж тем более нет ИИ по уравнению Белмана в разрезе нашей реальности.
Да, есть эффекты бабочки, но если люди с ними как-то справляются, значит, это физически возможно, значит, можно найти такую конфигурацию, скажем, NTM, где задача решена.
Нет, люди с ним не справляются. И это физически практически невозможно. В целом возможны только краткосрочные прогнозы (более-менее надежно — пары секунд), в частных, хорошо заученных моментах — бывает подольше.
Я всё ещё не вижу, где тут невозможность достичь целей. Да, будет долго. Но значительно быстрее, чем эволюция.
Если учитывать, что ему где-то нужно брать ресурсы для работы, для репарации, для развития мощностей, и никаких волшебных (невидимых) фей, которые бы всем этим снабжали — нет, то очевидно «никогда». Эволюция потому в так долго, и в такой форме всех нас и развила — потому что не было никаких и волшебных вмешательств и помощи. Выживали как могли, но 99.999999999% — не выжили.
Это относится и к общению, и к выживанию — если ИИ достигает целей, не связанных с выживанием, то стремление выжить у него появляется побочным эффектом, потому что обычно в живом виде легче достигать целей.
Стремление выжить может появиться только в ходе эволюционного развития, когда не стремящиеся выжить просто выпиливаются. В ходе отногенеза обрести такое стремление (если его изначально не было) практически невозможно. Без инстинкта выживания все экземпляры будут достаточно быстро случайно самовыпиливаться, в ходе выяснения законов. Ведь изначально даже нет такого понимания как «перестать существовать». Фактически необходимо будет еще и навешивать эволюционную модель со множеством ИИ, для формирования этих самых базовых инстинктов. То есть это уже выходит за рамки функционирования интеллекта без инстинктов. Так что это все-таки входит в «минимум». Рассматривать ИИ а ля Mr.Meeseeks — не очень интересно.
Не очень хочется смешивать и путать понятия «оценки» и «цели». Это совсем не одно и то же. Цели — нечто планируемое и формализованное. А оценки — это достаточно абстрактные мотивирующие, или демотивирующие векторы.
— ок, тогда предлагаю целями называть какие-то локальные штуки (я хочу попасть на ту планету!), а более произвольные мотивации — ценностями или метриками (я хочу попасть на любую планету больше Луны + выпить воды + погладить кошку).

Когда заходит речь про избыточно много данных — это означает крайне невысокую эффективность. Эффективность текущих решений не намного больше ноля, но оно компенсируется использованием огромных вычислительных мощностей (количеством итераций), и избыточным количеством данных.
— тут несколько сложнее. Да, в каких-то реализациях будет именно так. А если ИИ может в metalearning, то будет так: он дофига долго собирает данные и медленно наращивает скилл общения — медленнее, чем люди, намного медленнее. А потом доходит до человеческого уровня. И продолжает медленно наращивать этот скилл. Конкретные решения и мелкие уточнения не требуют много данных — много данных требует построение модели с нуля, но она строится один раз в жизни.

Если учитывать, что ему где-то нужно брать ресурсы для работы, для репарации, для развития мощностей, и никаких волшебных (невидимых) фей, которые бы всем этим снабжали — нет, то очевидно «никогда». Эволюция потому в так долго, и в такой форме всех нас и развила — потому что не было никаких и волшебных вмешательств и помощи.
— эволюция — это вполне конкретный набор механик. Сделать перебор умнее — результат будет быстрее. Но да, это всё равно не сравнится со временем обучения одного человека.

Я очень сомневаюсь что уравнение Белмана применимо к многомерному пространству вероятностей развития сверхсложного клеточного автомата (каковой в некотором приближении можно считать реальность).
— в каком месте оно ошибается?

Только штука в том, что полноценного ИИ не существует, и уж тем более нет ИИ по уравнению Белмана в разрезе нашей реальности.
— есть ИИ на уравнении Белмана в меньших реальностях. Иногда они хороши, иногда нет. И я ни разу не видел аргумента за то, что они недостаточно справляются именно из-за их базовой математики. Везде, где я видел, люди указывают, что проблема в машинном обучении — именно в обучении с учителем. Оно или недостаточно sample-efficient, или недостаточно точное, или недостаточно Тьюринг-полное, или недостаточно быстрое. И поэтому придумывают всякие костыли. Но про неправильность и неприменимость уравнения Белмана ни разу не слышал. Можно более сильную детализацию?

Может, потому что других интересных интеллектов просто не существует, и ИИ обязан опираться на человеческий, иначе его просто как интеллект невозможно будет классифицировать? Ну, взять тот же тест Тьюринга. Без theory of mind его не пройти.
— ну, а интеллект крысы? Я вижу кучу кейсов, где интеллект на уровне крысы уже решал бы деловые задачи, и был бы умопомрачительно эффективен на фоне человеческого — потому что его легче «киборгизировать», чем человека. И его можно гонять с удесятерённой скоростью.
Кстати, как крысы (кошки, собаки) общаются с людьми, если у них theory of mind явно не адаптирован под человека?
Ну а тест Тьюринга — это, конечно, круто, если ИИ будет уметь его проходить. Но вижу много практической выгоды и от ИИ, не умеющего это делать. ИИ, не умеющий вести обычный диалог, но умеющий выигрывать на бирже и изобретать лекарства — это недостаточно интеллект?)

Нет, люди с ним не справляются. И это физически практически невозможно. В целом возможны только краткосрочные прогнозы (более-менее надежно — пары секунд), в частных, хорошо заученных моментах — бывает подольше.
— ну тут явно есть контр-примеры)
Я сейчас говорю о прогнозах, которые не идеально точны, а которые достаточно хороши, чтобы принимать решения, которые в среднем будут выигрышными.
AIXI эти прогнозы делает в явном виде. Он строит модели мира. Много моделей. И всем присваивает вероятности. А потом каждой моделью строит прогноз. И у него много прогнозов. AIXI создаёт вероятностное распределение вариантов будущего. По этому распределению сразу понятно, когда есть эффект бабочки, а когда — нет. И можно просто посмотреть, с какого действия начинаются те планы, у которых наибольшая средняя эффективность, по куче прогнозов.
Есть DQN, который в явном виде не строит модель всего этого сложного бардака, а он запоминает что-то типа: «в этой хаотической зоне средняя полезность около 5 баксов». И при каждом новом попадании в эту зону он будет обновлять оценку. А есть зоны без ярко выраженного эффекта бабочки, там даже простая точечная оценка будущего работает.

Без инстинкта выживания все экземпляры будут достаточно быстро случайно самовыпиливаться, в ходе выяснения законов. Ведь изначально даже нет такого понимания как «перестать существовать».
— отчасти согласен. Да, это проблема агентов, обучающихся на опыте — они немножко солипсисты.
Но. Мы можем шарить таблицу опыта между несколькими ИИ-агентами. Например, один убился — сделали второго, и в таблице либо прописали наказание за смерть, либо записали смерть как безвыходное состояние, из которого во все стороны нулевые награды. Примерно так происходит обучение в open ai gym.
В смысле, я проводил такой эксперимент, и сделать смерть состоянием, после которого все награды всегда нулевые — действительно можно.

Я всё ещё не вижу, где тут невозможность достичь целей. Да, будет долго. Но значительно быстрее, чем эволюция.

Если учитывать, что ему где-то нужно брать ресурсы для работы, для репарации, для развития мощностей, и никаких волшебных (невидимых) фей, которые бы всем этим снабжали — нет, то очевидно «никогда». Эволюция потому в так долго, и в такой форме всех нас и развила — потому что не было никаких и волшебных вмешательств и помощи. Выживали как могли, но 99.999999999% — не выжили.
— почему это должно быть проблемой? Какое-то время обучаем в симуляции, регулярно делаем бэкапы. В какой-то момент выпускаем «в поле» — подключаем к реальным исполнительным органам. ИИ рано или поздно убивается. Но мы его продолжали бэкапить. Скачиваем его таблицу state-action-reward, прописываем конец эпизода, задаём новому ИИ такую же память. Он обучает нейросеть (как вариант), либо берёт из бэкапа и дообучает. С концепцией «конец эпизода» ИИ знаком.
А если ИИ может в metalearning, то будет так: он дофига долго собирает данные и медленно наращивает скилл общения — медленнее, чем люди, намного медленнее. А потом доходит до человеческого уровня. И продолжает медленно наращивать этот скилл. Конкретные решения и мелкие уточнения не требуют много данных — много данных требует построение модели с нуля, но она строится один раз в жизни.
Окей, я возьму на себя смелость сократить лишние ответвления.
1. Речь про не гипотетический интеллект. Разводить океаны рассуждений по поводу искусственного — непродуктивно. Когда он дойдёт по возможности его обследовать на нашем уровне до уровня естественного — тогда можно будет брать его во внимание.
2. Речь идёт про ОПРЕДЕЛЕНИЕ интеллекта, т.е. границы его наличия/отсутствия. Соответственно, приводить в качестве примеров гипотетические цифровые эволюции, которые лишь в теории приводят к genuine интеллекту, т.е. долгие и нудные накопления big data в рамках существующей цивилизации, ещё и в куче итераций (т.е. втихаря примешивать эволюционные алгоритмы) — немного не вписывается в то что хотелось бы видеть под «базовым интеллектом». Это в лучшем случае _платформа_, которая в определенный момент развития и огромных вложений МОЖЕТ образовать какой-то щупаемый интеллект. А может и не образовать. До сих пор не образовывала. Увы. А было бы весело.
— в каком месте оно ошибается?
Это Вы мне скажите, почему это уравнение до сих пор не привело к созданию AGI, с которым можно общаться голосом и решать задачи тысячелетий. :)
Везде, где я видел, люди указывают, что проблема в машинном обучении — именно в обучении с учителем. Оно или недостаточно sample-efficient, или недостаточно точное, или недостаточно Тьюринг-полное, или недостаточно быстрое.
Да-да, недостаточно хорошие данные, недостаточно умные и расторопные учителя. Но уравнение тут не при делах.

А может быть это оно — неполное, не учитывающее реальность, раз создаёт столько отговорок?
ну, а интеллект крысы? Я вижу кучу кейсов, где интеллект на уровне крысы уже решал бы деловые задачи, и был бы умопомрачительно эффективен на фоне человеческого — потому что его легче «киборгизировать», чем человека. И его можно гонять с удесятерённой скоростью.
Интеллект крысы это интеллект крысы. Если Вам нужно решать конкретные прикладные задачи — интеллект Вам не нужен. Вам нужен универсальный вычислитель/подгонятель под имеющийся набор вопросов-ответов.
Кстати, как крысы (кошки, собаки) общаются с людьми, если у них theory of mind явно не адаптирован под человека?
Никак они с человеком не общаются. Человеку лишь кажется, что эти животные с ним общаются. Банальная склонность к антропоморфизму. Одно из неотъемлемых когнитивных предосуждений человека.
Я сейчас говорю о прогнозах, которые не идеально точны, а которые достаточно хороши, чтобы принимать решения, которые в среднем будут выигрышными.
Просто напомню — речь о человеческой способности справляться с «эффектом бабочки», которую Вы, почему-то, обозначили. Я лишь сказал, что человек с этим по факту _не справляется_. И существующие компьютерные мощности — тоже.
Да, это проблема агентов, обучающихся на опыте — они немножко солипсисты.
Но. Мы можем шарить таблицу опыта между несколькими ИИ-агентами.
Нет не можем. Вы же говорили про «разворачивающийся минимум», не имеющий инстинктов. Вот он пусть в единичном экземпляре, без инстинктов, и разворачивается в полноценный интеллект, не трогая другие инкарнации. Я при этом утверждал, что эти инстинкты как раз необходимы, т.к. они учитывают опыт иных инкарнаций. Ку? :)

Хотя если вы под «интеллектом» подразумевали всю цивилизацию, а не отдельного человека… Это уже другой разговор.
Выживали как могли, но 99.999999999% — не выжили.
— почему это должно быть проблемой?
Потому что речь про одноинтеративный минимальный интеллект.
Да-да, недостаточно хорошие данные, недостаточно умные и расторопные учителя. Но уравнение тут не при делах.

А может быть это оно — неполное, не учитывающее реальность, раз создаёт столько отговорок?
— у вас есть какие-то конкретные аргументы? Я пока ни от вас, ни от кого-либо ещё их не видел. Все аргументы, что я видел от других людей, касаются конкретных математических проблем с моделью, но не самого подхода.

Это Вы мне скажите, почему это уравнение до сих пор не привело к созданию AGI, с которым можно общаться голосом и решать задачи тысячелетий. :)
— пока что всё, что я вижу — это то, что такое уравнение может накладывать высокие требования на нейросеть-или-что-там-у-нас. Высокие — значит нейросеть или не обучится (решение есть, но Adam его найти не может), или будет переобучение (либо надо слишком много данных), либо у нейросети должно быть слишком дофига слоёв, либо ещё какие-то проблемы, завязанные чисто на особенности нейросети. Потому рассчитывай то же самое другим способом (Model-Based алгоритм) — всё заработает. И будут совершенно другие проблемы.
А если модель написать руками и уравнение полезности вывести аналитически, то оба эти метода будут давать одинаковый результат. Во всяком случае, контрпримера я пока не видел.

Никак они с человеком не общаются. Человеку лишь кажется, что эти животные с ним общаются. Банальная склонность к антропоморфизму. Одно из неотъемлемых когнитивных предосуждений человека.
— сильное утверждение =) Вы полагаете, что абсолютно никогда крысы и люди не обмениваются информацией никакими путями?

Просто напомню — речь о человеческой способности справляться с «эффектом бабочки», которую Вы, почему-то, обозначили. Я лишь сказал, что человек с этим по факту _не справляется_.
— вы сказали, что человек не способен предсказывать будущее больше, чем на пару секунд, потому что эффект бабочки. Я сказал, что не всегда он есть, а если его не очень много, то надо делать прогноз не точечным, а через вероятностные распределения. И вообще, есть куча кейсов, где у человека есть план больше, чем на минуты вперёд, и человек ему достаточно неплохо следует.
Да, можно придумать кейсы с очень сильным эффектом бабочки и задрать планку точности прогноза в небеса. А можно сказать, что хороший прогноз — это тот, что лучше полного рандома, и отталкиваться от этого. Если можно повысить точность — отлично, если нет — то и ладно.

Нет не можем. Вы же говорили про «разворачивающийся минимум», не имеющий инстинктов. Вот он пусть в единичном экземпляре, без инстинктов, и разворачивается в полноценный интеллект, не трогая другие инкарнации. Я при этом утверждал, что эти инстинкты как раз необходимы, т.к. они учитывают опыт иных инкарнаций. Ку? :)
— если мы будем использовать «реинкарнации», но не будет использовать инстинкты (явное вмешательство в систему ценностей), то система всё ещё будет учитывать перспективу смерти.
Я использую тот подход, который использует Open AI. Там есть «перезапуск» ИИ в случае смерти, но с сохранением опыта. Про то, что система должна быть одноитеративной, я вроде явным образом не говорил. Если этих ИИ будет несколько, даже одновременно существующих, но при этом все — «базовая платформа», и у них происходит обмена памятью после каждого тестового эпизода — это не сильно уходит от концепции. Если у них система ценностей не плывёт, если мы не меняет правила вознаграждения — но всё как было.
Проблема солипсизма ИИ — это проблема, я согласен. Из неё вытекает недостаточная самозащита. У минимального одноэпизодного ИИ я… Не то, чтобы не вижу, как это пофиксить, о все фиксы выходят за рамки минимальной платформы. Но сделать что-то типа эволюции всё ещё можно, если основная механика будет «достигай конкретной цели» без явных хаков вроде «а ещё защищай себя общайся»

Хотя если вы под «интеллектом» подразумевали всю цивилизацию, а не отдельного человека… Это уже другой разговор.
— в той ситуации я подразумевал интеллект человека, но человек использует довольно много опыта цивилизации, причём какой именно опыт используется — определить сложно.

Речь идёт про ОПРЕДЕЛЕНИЕ интеллекта, т.е. границы его наличия/отсутствия.
— определение можно составить… Достаточно произвольно. Как запишем в словарь, так и будет. Вот скажем, что система целеполагания является частью интеллекта — и всё, все RL больше не интеллект. А напишем, что интеллект — это про адаптацию, но мотивации в него не входят — и RL становится интеллектом.
Я в общем-то не спорю с вашим определением. Ну чуть-чуть, по мелочи. Я спорю с практическими выводами. Типа такого «интеллект, решающий задачи на уровне человека, не может существовать без априорной мотивации к общению». Или «интеллект не может стремиться к самосохранению без априорной мотивации к самосохранению».
Да, и чтобы совсем уж не быть твердолобым фанатиком уравнения Белмана =)
Я допускаю, что оно — неудачная абстракция. Правильная, но неудачная. Есть подходы к решению задач, которые в каком-то смысле эквивалентны (Model-Based) или эквивалентны в пределе (Policy Gradient).
Так вот, я вижу, почему DQN не равен перебору стратегий, какие бы модели не использовались. И почему перебор стратегий неоптимален (хотя и хорош на практике).
Но… Тут вопрос скорее в том, а на каком примере DQN явно хуже какого-то иного «общего» алгоритма, и почему он хуже не из-за ограниченного ML, а из-за своей глубинной математики
Забавно… Т.е. в принципе любая колония вирусов (единственная возможность которых адаптироваться к окружающей среде — мутация) в принципе — обладает интеллектом?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории