Не отдалённо похожее, а то же самое. Вот, например, результаты исследования и реконструкции нейронной сети дождевого червя (C. Elegans): http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1001066
> Сравнение не очень удачное
Сравнение крайне поверхностное.
> для того чтобы создать ИИ нужно понимать что это такое и самим запрограммировать его
Зачем? Чтобы понять и объяснить структуру связей естественной нейронной сети, если это сеть по масштабам сопоставима с мозгом человека (~86 млрд нейронов, ~180 трлн синапсов), уйдут сотни лет. А вот воспроизвести эту сеть, смоделировать процесс её обучения — во много раз проще. Именно поэтому и используют нейронные сети — они учатся на обучающих выборках и способны затем эффективно решать поставленные задачи. При этом нет никакой необходимости изучать, какие в результате обучения образовались веса у связей.
Нейроны и синапсы мозга делают то же самое, что делает искусственная нейронная сеть.
Собственно нейронные сети и были созданы как модель того, что происходит в настоящем мозге. В рамках множества экспериментов было показано, что искусственные нейронные сети описывают поведение реальной нервной ткани достаточно адекватно. То есть искусственные нейронные сети, получая какие-то электрические потенциалы на входах (такие же, как настоящая нервная ткань получает от клеток-рецепторов), на выходах генерируют такие же заряды, как и реальная нервная ткань.
Если у вас есть претензии к адекватности описания работы реальной нервной ткани при помощи нейронной сети и вы сможете эти претензии продемонстрировать в экспериментах — то это тянет если не на нобелевку, то уж точно на публикацию в Nature.
Существования чего? Конкретной испытанной инженерной схемы уничтожения Земли при помощи фиксированного числа бомб? Я где-то говорил о её существовании?
Я высказал оценку возможности уничтожения Земли таким количеством бомб, они ± вписываются в пределы оценок интервалов некоторых физиков. Точного показателя никто не знает, т.к. пока нет точных оценок статико-динамических прочностных характеристик не только мантии и ядра, но даже земной коры. Вы пытаетесь придраться к второстепенному суждению, при этом заведомо непроверяемому и высказанному только в качестве иллюстрации определённого тезиса.
> Касательно определения AI: прочтите сначала Джеффа Хокинса
Вы не читали и Хокинса, т.к. если бы читали, то знали бы, что Хокинс у себя в книге не даёт определения ИИ. По тексту книги он говорит об ИИ, понимая под этим AGI. Проблема в том, что книга эта писалась 12 лет назад, что для computer science — целая эпоха. Хокинс у себя говорит, что современные компьютеры могут демонстрировать «интеллектуальное поведение», при этом для обозначения того, что сейчас называют AGI или strong AI Хокинс употребляет термин «обобщённый интеллект»:
«… Затем были большие телодвижения насчет «экспертных систем», БД фактов, которые могли отвечать на вопросы, заданные человеком-пользователем. Например, медицинские экспертные системы могли диагностировать болезнь пациента по заданному списку симптомов. Но снова оказалось, что она имеет ограниченное применение и не проявляет чего-либо близкого к обобщенному интеллекту» (курсив мой — С.М.)
Термин AGI устоялся в этой области после работ Гёрцтеля, но и раньше — Сёрль и мн. др. употребляли понятие strong AI.
Вот вам статья из Британники: http://global.britannica.com/technology/artificial-intelligence
Хокинс нигде и никогда не говорил о том, что applied AI не обладает интеллектуальным поведением и нигде не выступал против использования терминов applied/weak/narrow AI.
Я думаю, что VIP выберет «адванс» — т.е. ИИ помогающий водителю-профи. Ожидаемые показатели аварийности у ИИ заметно меньше, чем у водителей-людей, так что если решать, основываясь лишь на этом показателе, не имея никаких предубеждений против ИИ, разумный человек должен выбрать ИИ, а не белкового водителя)
Другое дело, что в ряде задач прикладного ИИ человек + ИИ по-прежнему эффективнее чистого ИИ. Т.е. сильный шахматист с помощью шахматной программы играет заметно сильнее «голой» программы, в вождении авто, скорее всего, будет также, особенно первое время.
> как вы выразились, высказан в статье, которя вам нравится (как я полагаю), и которую вы считаете
> достаточно «нацчной»
А вот если бы вы всё-таки внимательно прочитали статью, то знали бы, что лекцию эту готовил и читал я)
Если уж браться всерьёз и по существу критиковать содержание, то, наверное, стоит читать не через строчку?)
> _ученого_, а не популяризатора/лектора/фантаста
Я корпоративный учёный. Мой шахматный ИИ один из лучших в стране и входит в мировую тридцатку. Есть алгоритмы, названные моим именем (не мной). Системы, разработанные мною, принимают решения в рамках бизнес-процессов крупных банков. Этого всё ещё недостаточно?)
> в качестве примера полного BS
Вам убедительно показали, что данное утверждения не является полным BS. Но вы упорно продолжаете настаивать. Не очень понятно зачем.
> Ну, и про системы предупреждения о ракетном нападении: никаким «ИИ» там и не пахнет, «какой мэханызм, все ручное!»
Так ли это? В подобных системах задействованы сложные сети сенсоров, выдающие людям наборы сигналов. Т.е. первичная интеллектуальная обработка данных всё-таки происходит внутри этих систем в автоматическим режиме.
Вы не могли бы привести хоть какое-то подтверждение ваших слов? Вы тут сыплете кучами утверждений, не трудясь ничем их подтверждать. Давайте описание архитектуры такой системы или признайте, что просто ввернули свою залихватскую фразу ради красного словца)
> Не нужно навешивать модный ярлык ИИ на все, что шевелится!
Я так и не дождался от вас альтернативного определения AI (прикладного и AGI), приведённого в авторитетном источнике. Проблема в том, что его нет, а вы просто прикрываете многословием собственную некомпетентность.
>> процитирую такую фразу: «Если люди, составляющие алгоритмы ИИ, допустили баги или пропустили ошибочные
>> данные в обучающую выборку, поведение такого ИИ может быть весьма неожиданным. И доверять такой системе
>> принятие решений опасно. Кто-то окажется безответственным, одновременно с этим кто-то окажется глупым, и мы
>> получим сценарий в духе «Терминатора».»
Где вы в этой цитате увидели прогноз? Это не более чем описание гипотетического сценария, высказанного в ходе набрасывания идей для размышления. Если бы это был прогноз, то сам тезис был бы снабжён хотя бы оценкой вероятности. Но даже если вероятность такого сценария на деле и очень мала (лично я склонен считать именно так), это не значит, что мы не должны о нём говорить. Потому что в массовом сознании такой сценарий расценивается как весьма вероятный, и в деле внедрения ИИ в разные сферы человеческой жизни нам придётся иметь дело с такого рода предубеждениями публики. В том-то и дело, что нельзя сбрасывать со счетов Голливуд и относиться пренебрежительно к распространению тех или иных предубеждений. Это очень хорошо видно, например, по массовой истерии в отношении ГМО: сейчас публичные предрассудки реально мешают развитию целой отрасли. Если вы думаете, что вы напишете КАПСОМ что-то, и люди сразу вам поверят и перестанут тревожиться, то вы ошибаетесь. Потому что вам тут же, например, приведут такие факты:
> Но вот признавать за авторами право на абсолютную правоту и непогрешимость я, увы, не готов.
Хотелось бы увидеть на этот раз от вас ссылки на авторитетные источники.
> Оценки ученых из Лос-Аламоса, сделанные в 1945 году (sic!), и изложенные «желтоватым» болтологичным БизнесИнсайдером,
> как Вы сами, вероятно, понимаете, не могут считаться серьезным доводом :)
Серьёзным доводом в пользу чего? Как вы понимаете, я не физик, а у физиков оценки необходимой мощности зарядов для 1) физического уничтожения планеты, 2) нанесения непоправимого урона биосфере — разнятся. Вот, например, ещё один интересный источник:
«There are an estimated total of 20,500 nuclear warheads in the world today. If the average power of these devices is 33,500 Kilotons, there are enough to destroy the total earth landmass».
Честно говоря, у меня нет желания влезать в дискуссию по теме, в которой не являюсь профессионалом. Отмечу только, что какую бы оценку мы не приняли, от этого мой исходный тезис не утратит своего значения: в XIX веке у нас не было шансов уничтожить биосферу и самих себя, в XX веке наши возможность многократно возросли, и они продолжают расти. Вы хотите с этим поспорить?
Не согласен. Добро это некоторая целевая функция, которую мы формулируем. Она, вообще говоря, не всегда соответствует простой цели индивидуального выживания и размножения — есть множество нюансов. Во-первых, мы знаем, что люди в ряде случаев способны на самопожертвование. Тут возникают разные концепции, объясняющие подобного рода альтруизм: групповой отбор, родственный отбор (концепция «эгоистичного гена»). В ряде случаев разделяемые людьми ценности, могут напрямую противоречить их чисто биологическим интересам, и такой конфликт очень часто решается не в пользу «биологии». Для ИИ ситуация ещё более интересная, т.к. для всех прикладных ИИ целевую функцию формулирует разработчик. Способность устанавливать определение условного «добра» для интеллектуальной машины и определяет её практическую полезность для создателей. Но получится ли так же успешно управлять ценностями системы, которая по своей сложности будет превосходить человеческий разум? Множество сценариев фильмов-катастроф, связанных с ИИ, как раз основываются на том, что люди допускают ошибку в формулировке целей для машины, делают это недостаточно однозначно, что затем и проводит к тому, что машина, неверно истолковав заложенные в неё принципы, выходит из под контроля и наносит людям серьёзный вред.
Какой именно из прогнозов, приведённых в статье, вы считаете неподкреплённым?
> но в остальном это программа является полным «кретином»
Вы, наверное, не прочитали часть статьи, посвящённую определению ИИ.
> Ну, а фразы типа «для этого достаточно взять несколько десятков 200-тонных термоядерных бомб и сбросить их по экватору —
> земной шар расколется пополам»
Не полный. По высказанным учёными оценкам для уничтожения жизни на Земле достаточно 10—100 термоядерных бомб (пруф.: http://www.businessinsider.com/heres-how-many-super-nukes-it-would-take-to-destroy-the-world-2014-12)
Насчёт конкретно физического разрушения планеты, такие гипотезы также высказывались. Главным образом, рассматривался сценарий, в котором дейтерий, содержащийся в морской воде, вступит в цепную реакцию синтеза в результате взрыва сверхмощного термоядерного заряда. К счастью, экспериментов подобного рода не проводилось и, надеюсь, не будет проводиться в будущем.
Можете раскрыть свою мысль? Во-первых, что лично вы понимаете под ИИ? Во-вторых, если вы создали искусственную нейронную сеть, работа которой подчинена вполне определённым алгоритмам, но училась она самостоятельно (т.е. не вы прописывали веса в каждом искусственном синапсе, а они возникли в процессе обучения), то это, с вашей точки зрения, ИИ?
Это вопрос, который, наверное, не имеет однозначного ответа, т.к. всё зависит от того, насколько хороша текущая оценочная функция :)
Я веду исследования как раз в этом направлении: тюнинг как оценки, так и некоторых параметров поиска. Думаю, что за этим будущее, но там есть ряд серьёзных сложностей, конечно. Например, я много экспериментировал в попытках сделать более точную модель отсечений — пунктов 30, наверное, я на этом собрал, но там трудно правильно сформулировать целевую функцию, т.к. нужно правильно мерить негативный эффект от ошибки, а это весьма нетривиальная задача.
Хорошая статья. В SmarThink в своё время я пошёл примерно по тому же пути, только модель материала у меня имеет существенно больше параметров. Во-первых, для каждой фигуры есть отдельно миттельшпильная и эндшпильная оценки, а во-вторых добавлены ещё оценки отдельных подмножеств. Хотя, конечно, сейчас уже нужно эту часть переделывать, т.к. решая коммерческие задачи я вместе с коллегами написал большой фреймворк для автоматического построения предиктивных моделей по большим массивам…
Извини, поздно заметил коммент.
Первый баг — исправлен. Можешь просто загрузить сэйв, всё будет нормально.
Архимаги в дереве это что-то новенькое. Сэйв есть с этим безобразием? Если да, то пошли, пожалуйста, на sergei.markoff (собака) gmail.com.
Третье не баг, а просто мелкое хулиганство. Так и задумано — там несколько сделано таких просто так.
Не отдалённо похожее, а то же самое. Вот, например, результаты исследования и реконструкции нейронной сети дождевого червя (C. Elegans): http://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1001066
> Сравнение не очень удачное
Сравнение крайне поверхностное.
> для того чтобы создать ИИ нужно понимать что это такое и самим запрограммировать его
Зачем? Чтобы понять и объяснить структуру связей естественной нейронной сети, если это сеть по масштабам сопоставима с мозгом человека (~86 млрд нейронов, ~180 трлн синапсов), уйдут сотни лет. А вот воспроизвести эту сеть, смоделировать процесс её обучения — во много раз проще. Именно поэтому и используют нейронные сети — они учатся на обучающих выборках и способны затем эффективно решать поставленные задачи. При этом нет никакой необходимости изучать, какие в результате обучения образовались веса у связей.
Собственно нейронные сети и были созданы как модель того, что происходит в настоящем мозге. В рамках множества экспериментов было показано, что искусственные нейронные сети описывают поведение реальной нервной ткани достаточно адекватно. То есть искусственные нейронные сети, получая какие-то электрические потенциалы на входах (такие же, как настоящая нервная ткань получает от клеток-рецепторов), на выходах генерируют такие же заряды, как и реальная нервная ткань.
Если у вас есть претензии к адекватности описания работы реальной нервной ткани при помощи нейронной сети и вы сможете эти претензии продемонстрировать в экспериментах — то это тянет если не на нобелевку, то уж точно на публикацию в Nature.
Существования чего? Конкретной испытанной инженерной схемы уничтожения Земли при помощи фиксированного числа бомб? Я где-то говорил о её существовании?
Я высказал оценку возможности уничтожения Земли таким количеством бомб, они ± вписываются в пределы оценок интервалов некоторых физиков. Точного показателя никто не знает, т.к. пока нет точных оценок статико-динамических прочностных характеристик не только мантии и ядра, но даже земной коры. Вы пытаетесь придраться к второстепенному суждению, при этом заведомо непроверяемому и высказанному только в качестве иллюстрации определённого тезиса.
Существования чего?
> Касательно определения AI: прочтите сначала Джеффа Хокинса
Вы не читали и Хокинса, т.к. если бы читали, то знали бы, что Хокинс у себя в книге не даёт определения ИИ. По тексту книги он говорит об ИИ, понимая под этим AGI. Проблема в том, что книга эта писалась 12 лет назад, что для computer science — целая эпоха. Хокинс у себя говорит, что современные компьютеры могут демонстрировать «интеллектуальное поведение», при этом для обозначения того, что сейчас называют AGI или strong AI Хокинс употребляет термин «обобщённый интеллект»:
«… Затем были большие телодвижения насчет «экспертных систем», БД фактов, которые могли отвечать на вопросы, заданные человеком-пользователем. Например, медицинские экспертные системы могли диагностировать болезнь пациента по заданному списку симптомов. Но снова оказалось, что она имеет ограниченное применение и не проявляет чего-либо близкого к обобщенному интеллекту» (курсив мой — С.М.)
Термин AGI устоялся в этой области после работ Гёрцтеля, но и раньше — Сёрль и мн. др. употребляли понятие strong AI.
Вот вам статья из Британники: http://global.britannica.com/technology/artificial-intelligence
Хокинс нигде и никогда не говорил о том, что applied AI не обладает интеллектуальным поведением и нигде не выступал против использования терминов applied/weak/narrow AI.
Другое дело, что в ряде задач прикладного ИИ человек + ИИ по-прежнему эффективнее чистого ИИ. Т.е. сильный шахматист с помощью шахматной программы играет заметно сильнее «голой» программы, в вождении авто, скорее всего, будет также, особенно первое время.
> достаточно «нацчной»
А вот если бы вы всё-таки внимательно прочитали статью, то знали бы, что лекцию эту готовил и читал я)
Если уж браться всерьёз и по существу критиковать содержание, то, наверное, стоит читать не через строчку?)
> _ученого_, а не популяризатора/лектора/фантаста
Я корпоративный учёный. Мой шахматный ИИ один из лучших в стране и входит в мировую тридцатку. Есть алгоритмы, названные моим именем (не мной). Системы, разработанные мною, принимают решения в рамках бизнес-процессов крупных банков. Этого всё ещё недостаточно?)
> в качестве примера полного BS
Вам убедительно показали, что данное утверждения не является полным BS. Но вы упорно продолжаете настаивать. Не очень понятно зачем.
> Ну, и про системы предупреждения о ракетном нападении: никаким «ИИ» там и не пахнет, «какой мэханызм, все ручное!»
Так ли это? В подобных системах задействованы сложные сети сенсоров, выдающие людям наборы сигналов. Т.е. первичная интеллектуальная обработка данных всё-таки происходит внутри этих систем в автоматическим режиме.
Вы не могли бы привести хоть какое-то подтверждение ваших слов? Вы тут сыплете кучами утверждений, не трудясь ничем их подтверждать. Давайте описание архитектуры такой системы или признайте, что просто ввернули свою залихватскую фразу ради красного словца)
> Не нужно навешивать модный ярлык ИИ на все, что шевелится!
Я так и не дождался от вас альтернативного определения AI (прикладного и AGI), приведённого в авторитетном источнике. Проблема в том, что его нет, а вы просто прикрываете многословием собственную некомпетентность.
>> данные в обучающую выборку, поведение такого ИИ может быть весьма неожиданным. И доверять такой системе
>> принятие решений опасно. Кто-то окажется безответственным, одновременно с этим кто-то окажется глупым, и мы
>> получим сценарий в духе «Терминатора».»
Где вы в этой цитате увидели прогноз? Это не более чем описание гипотетического сценария, высказанного в ходе набрасывания идей для размышления. Если бы это был прогноз, то сам тезис был бы снабжён хотя бы оценкой вероятности. Но даже если вероятность такого сценария на деле и очень мала (лично я склонен считать именно так), это не значит, что мы не должны о нём говорить. Потому что в массовом сознании такой сценарий расценивается как весьма вероятный, и в деле внедрения ИИ в разные сферы человеческой жизни нам придётся иметь дело с такого рода предубеждениями публики. В том-то и дело, что нельзя сбрасывать со счетов Голливуд и относиться пренебрежительно к распространению тех или иных предубеждений. Это очень хорошо видно, например, по массовой истерии в отношении ГМО: сейчас публичные предрассудки реально мешают развитию целой отрасли. Если вы думаете, что вы напишете КАПСОМ что-то, и люди сразу вам поверят и перестанут тревожиться, то вы ошибаетесь. Потому что вам тут же, например, приведут такие факты:
https://ru.wikipedia.org/wiki/Случаи_ложного_срабатывания_систем_предупреждения_о_ракетном_нападении
http://calendarik.com/event/v-1983-godu-podpolkovnik-stanislav-petrov-predotvratil-potentsialnuyu-yadernuyu-voinu
И т.п.
> Но вот признавать за авторами право на абсолютную правоту и непогрешимость я, увы, не готов.
Хотелось бы увидеть на этот раз от вас ссылки на авторитетные источники.
> Оценки ученых из Лос-Аламоса, сделанные в 1945 году (sic!), и изложенные «желтоватым» болтологичным БизнесИнсайдером,
> как Вы сами, вероятно, понимаете, не могут считаться серьезным доводом :)
Серьёзным доводом в пользу чего? Как вы понимаете, я не физик, а у физиков оценки необходимой мощности зарядов для 1) физического уничтожения планеты, 2) нанесения непоправимого урона биосфере — разнятся. Вот, например, ещё один интересный источник:
http://gizmodo.com/5899569/how-many-nukes-would-it-take-to-blow-up-the-entire-planet
«There are an estimated total of 20,500 nuclear warheads in the world today. If the average power of these devices is 33,500 Kilotons, there are enough to destroy the total earth landmass».
Честно говоря, у меня нет желания влезать в дискуссию по теме, в которой не являюсь профессионалом. Отмечу только, что какую бы оценку мы не приняли, от этого мой исходный тезис не утратит своего значения: в XIX веке у нас не было шансов уничтожить биосферу и самих себя, в XX веке наши возможность многократно возросли, и они продолжают расти. Вы хотите с этим поспорить?
Не согласен. Добро это некоторая целевая функция, которую мы формулируем. Она, вообще говоря, не всегда соответствует простой цели индивидуального выживания и размножения — есть множество нюансов. Во-первых, мы знаем, что люди в ряде случаев способны на самопожертвование. Тут возникают разные концепции, объясняющие подобного рода альтруизм: групповой отбор, родственный отбор (концепция «эгоистичного гена»). В ряде случаев разделяемые людьми ценности, могут напрямую противоречить их чисто биологическим интересам, и такой конфликт очень часто решается не в пользу «биологии». Для ИИ ситуация ещё более интересная, т.к. для всех прикладных ИИ целевую функцию формулирует разработчик. Способность устанавливать определение условного «добра» для интеллектуальной машины и определяет её практическую полезность для создателей. Но получится ли так же успешно управлять ценностями системы, которая по своей сложности будет превосходить человеческий разум? Множество сценариев фильмов-катастроф, связанных с ИИ, как раз основываются на том, что люди допускают ошибку в формулировке целей для машины, делают это недостаточно однозначно, что затем и проводит к тому, что машина, неверно истолковав заложенные в неё принципы, выходит из под контроля и наносит людям серьёзный вред.
Какой именно из прогнозов, приведённых в статье, вы считаете неподкреплённым?
> но в остальном это программа является полным «кретином»
Вы, наверное, не прочитали часть статьи, посвящённую определению ИИ.
> Ну, а фразы типа «для этого достаточно взять несколько десятков 200-тонных термоядерных бомб и сбросить их по экватору —
> земной шар расколется пополам»
Не полный. По высказанным учёными оценкам для уничтожения жизни на Земле достаточно 10—100 термоядерных бомб (пруф.: http://www.businessinsider.com/heres-how-many-super-nukes-it-would-take-to-destroy-the-world-2014-12)
Насчёт конкретно физического разрушения планеты, такие гипотезы также высказывались. Главным образом, рассматривался сценарий, в котором дейтерий, содержащийся в морской воде, вступит в цепную реакцию синтеза в результате взрыва сверхмощного термоядерного заряда. К счастью, экспериментов подобного рода не проводилось и, надеюсь, не будет проводиться в будущем.
То же самое делает и человеческий мозг, обрабатывая данный, поступающие от органов чувств.
В чём по-вашему принципиальное различие?
На деле в самом понятии слово «искусственный» как раз значит — созданный человеком. Поэтому я вообще не понял в чём претензия.
Я веду исследования как раз в этом направлении: тюнинг как оценки, так и некоторых параметров поиска. Думаю, что за этим будущее, но там есть ряд серьёзных сложностей, конечно. Например, я много экспериментировал в попытках сделать более точную модель отсечений — пунктов 30, наверное, я на этом собрал, но там трудно правильно сформулировать целевую функцию, т.к. нужно правильно мерить негативный эффект от ошибки, а это весьма нетривиальная задача.
Первый баг — исправлен. Можешь просто загрузить сэйв, всё будет нормально.
Архимаги в дереве это что-то новенькое. Сэйв есть с этим безобразием? Если да, то пошли, пожалуйста, на sergei.markoff (собака) gmail.com.
Третье не баг, а просто мелкое хулиганство. Так и задумано — там несколько сделано таких просто так.