Как стать автором
Обновить
38
0
Danov @Danov

Dev UWP/Mobile, Data Scientist, EduTech

Отправить сообщение
Согласен, вопросы интересные, но я не зоопсихолог :)
Все вышеприведенное верно, за одной мелочью, вы сделали два допущения: завысили среднее количество синапсов и рабочую частоту, не учли эффективность модуляции, занизили информационную емкость синапаса. А еще одновременно все нейроны не могут работать, т.к. мозг вскипит за секунды от выделяемого тепла. Но оно на то и вышло. Производительность мозга оценивается в 10^(15...18). В этом я с Вами согласен. Но!!!
Интеллект это верхушка айзберга. И воспроизводимая память связана с этой верхушкой. Большая часть мозга занимается обслуживанием тела. Прежде всего моторикой. А ту часть мозга что занимается восприятием куда отнести? К интеллекту? Получается, что грубо говоря, «верхушку айзберга» можно раскинуть на восприятие, обработку и моторику (ввод, ЧЯ(BB), вывод). Первое и третье кое как мы научились моделировать. Что-то даже существено эфективнее, чем человек это может делать и меньшими вычислительными ресурсами. А вот со средней частью пока проблемы.
Кстати, для этих целей лучше использовать не GA, а GP — Genetic programming. Но там с эффективностью вообще труба.
Все до банальности просто :)
Научиться автоматически строить оптимальные операторы, собственно, это и есть первостепенная задача ИИ: Научиться ставить и решать задачи!
Оператор — это метод решения некоторой задачи. Например, «метод Ньютона» можно втиснуть в рамки оператора мутации (некая Ламарковская эволюция получается). А вот как система сама додумается до метода Ньютона?
На практике, построение оператора скрещивания еще более сложная задача (уже более одного исходного решения/особи). Т.к. на реальных задачах простые кроссоверы совмещают несовместимое и большая часть полученных решений нереализуемый хлам. Если большая часть — 60..90% Вам повезло. А часто бывает, что 99.9% и более хлам. Поэтому, грамотный математик всегда более производителен в своем креативе, чем GA. GA — это метод решения задач грубой вычислительной силой. Он чуть лучше, чем перебор. А степень его эффективности определяется эффективностью именно этих двух операторов. Можно даже только одну мутацию использовать, но это уже не GA, а _самодельный_ итерационный метод.
1) Если это не неосознаваемый плагиат, то точно моё :) Сегодня сформулировал. А мысли уже давно бродили. Придет время и Google все копирайты расставит.
2) Насчет книги сомнения меня берут, но пока спорить не буду.
3) Насчет стишка: если учить не вдумываясь, то это запоминание «без сжатия», «без опоры на существующие образы». По опыту, любой вам скажет, что это требует значительных усилий для запоминания. Следует ли из вышеизложенного, что для этого требуется больше памяти? Я считаю, что следует. Помните парадокс? «Чем я больше знаю, тем больше могу запомнить».
4) Каюсь, грешен. Меня напрягает, как мы вольно используем слово «бит». Правильнее подходит слово «символ». Но символ == образ.
Буду краток: я начал преподавать ИИ в областном тех_универе 10 лет назад :)
Писал много примеров, делали очень много курсовых и дипломных, много сравнивали и думку думали
Как измеряли? Много туманных разъяснений читал на этот счет. Встречались ссылки на исследования середины прошлого века. Суть сводилась к тому, чтобы человек высказал/записал/зарисовал все свои знания. Затем эта информация «пакуется». Получается некоторый оценочный объем. Затем домножается на некий коэффициент, учитывающий, что человек не все сразу вспомнит, т.е. процесс воспоминания завязан на другие образы (моторные, звуковые, тактильные …), которые в момент «выгрузки» отсутствовали.
Вы можете спросить, почему ограничились лишь только воспроизводимой памятью? Предполагается, что ее будет достаточно для построения простейшего ИИ.
Классическая отговорка: «Но ведь только один JPG весит более метра???». Мой любимый пример: посмотрите на батарею/дом/стоянку, отвернитесь и скажите, сколько там ребер/окон/ машин. Если особо не рассматривали объект, то и памяти о нем у вас считанные байты.
Информация в мозге не хранится в растровом виде, а в виде ассоциаций, связывающих образы. Если копать глубже, то можно докопаться, что образа вообще нет, есть только ассоциации. Цельное восприятие некоего подмножества ассоциаций порождает образ. Образ это миг между переходом от одного активного подмножества ассоциаций к другому. И вот тут мы чувствуем, что есть что-то трудно объяснимое, но не в состоянии объяснить в чем состоит трудность :)
>а сколько байт занимает прочитанная книга?
Если вы ее сможете воспроизвести слово в слово, то значительно меньше, чем размер сжатого самым сильным архиватором файла, т.к. он не учитывает Ваш контекст (словарь, модель мира). С вечеринкой сложнее.
Да, образ очень сложная и динамичная штука, но меньше его нет, потому и «бит» $-). Но емкость его точно больше 1 бита.
Вас должно быть удивит, что объем воспроизводимой памяти человека меньше 100Мб :)
Много было исследований, споров, оценок. Но даже если они ошиблись на два порядка, пусть будет 10Гб! Т.е. в компах уже значительно больше, а ИИ нет!
Отличия в организации и способе доступа к этой памяти. Тут даже толком не понятно куда копать. Ключевые слова «ассоциативная память». А как ее реализовать подобно человеческой памяти, хотя бы программно, непонятно, т.к. основной «бит» мозговой активности ОБРАЗ, который тянет за собой еще кучу образов. Образы связаны в граф. Переходы между образами — мыслительный процесс. Осознанный выбор следующего образа — интеллект (медленный переход), неосознанный — рефлекс (быстрый). Выработка устойчивого навыка — процесс формирования рефлексов. А далее куча проблем формализации.
С Вами согласен Роджер Пенроуз, в книге «Новый ум короля. О компьютерах, мышлении и законах физики».
Занимательное чтиво.
Собаки да, понимают зеркало.
А вот кошка моя не понимает. Она может проситься с балкона в комнату не у меня, а у моего отражения. А когда до нее доходит (по запаху, звукам), где я реальный на несколько секунд впадает в ступор (когнитивный диссонанс).
А в жизни, кошка (моя) просто игнорирует свое отражение в зеркале.
Генетический как раз и не дает гарантии результативного поиска!!!
И тем более, за фиксированное время.
А сам пробовал? Я вот сравнил, GA vs Backpropagation. GA на три порядка медленнее.
Кроме того, в GA очень много творческих настроек. Фактически скелет GA примитивен, а вся сложность реализации в выдумывании предметно-ориентированных операторов кроссовера и мутации.
Вот ежели научить GA самому _строить_ оптимальные операторы…
стратегия «контролируемого технологического отставания».
12 ...
96

Информация

В рейтинге
Не участвует
Откуда
Россия
Зарегистрирован
Активность