В точку. У Билла есть древняя книжка "Бизнес со скоростью мысли" — там все его идеи на блюдечке с голубой каемочкой от первого лица. Там же он спрогнозировал будущий взлет гугла и это было описано на секундочку еще в 1999 году, + предположил закат MS (примерно к 2030 году). Подробно показана политика MS и что, зачем и почему происходило в ней практически открыто написано. Но кому это все интересно, когда можно посплетничать.
Ок, попробуйте, никто же не против, но про "не взлетит" просто не забывайте — кто предупрежден, тот вооружен. Чтобы было более результативно, посмотрите в сторону рекомендательных систем. Там шансы на релевантность немножко повыше.
ЗЫ. Про "хороший тренер" — вы меня неверно поняли, это описание ситуации, а вовсе не о себе, любимом.
Допустим (гипотетически) ваша задача решена. В итоге что, будет по каждому направлению некий "победитель", т.е. все остальные окажутся не нужны? Ведь ясно же, что это просто утопия. В целом, ваша ключевая мысль сводится к самому кошмарному "вот мои деньги — я требую гарантии знаний".
Знания нельзя гарантировать, вам верно ниже пишут — главное, это мотивация. Тогда и фидбек найдете, и книги, и курсы, и научитесь всему. Не будет мотивации — не будет ничего. Хоть с деньгами, хоть на самообучении.
А "ого, я трачу время — не хочу так, хочу готовое, причем по своим критериям", это уж совсем на какие-то капризы больше похоже. Прокачка скиллов это очень большой труд. Хороший тренер поможет, но не заменит вам этого труда. Выбор курса — микрозадача в этом объеме.
Раз рекомендации вам не помогают, тогда готовьтесь — откройте любую профильную конфу — там очень узкая тусовка. Будут сразу ясны лидеры технологии. Послушайте их. После знакомства с темой выбрать курс/книгу/видео большого труда не составит, ну а личные вопросы тренеру "на старте" покажут его компетенции.
То что вы предлагаете — это какой-то очередной велосипед, извините. Не взлетит, могу поспорить. Смотрите. Я — хороший тренер, и могу гарантировать результат. Но сегодня я веду занятия в одной компании, а завтра в другой. А тут мне еще попался крутой проект и я вообще пропал. Как будет ваше решение отслеживать мои перемещения? Это же просто невозможно. А курс — это не контора, не стандарт, не программа, не оформление, курс — это человек который его проводит. В идеале автор технологии, но чаще просто профи. Но это персона, от которой зависит почти все, понимаете? Вот за ними, за персонами и стоило бы следить.
В общем нереальные планы у вас, как мне кажется. Извините.
Обертка, стандарты… Ох, как же это все достало. УМКД еще попросите.
Суммарно я провел тысячи часов лекций и, что интереснее, наверное около сотни проф. тренингов, могу вам твердо и доказательно гарантировать, что ни один из них не повторился. Всегда разная группа, разные люди, разные уровни, разные хотелки и возможности у аудитории. Это НЕВОЗМОЖНО стандартизировать. Любой стандарт приведет лишь к постоянному отклонению о него.
Поэтому. То что вы предлагаете — это просто облегчение поиска курса, и не более того. Микроскопическая задача, причем с неопределенным решением. Можно найти хороший курс и тупо "не включиться", а можно попасть на посредственный, но тематика "торкнет" и будет супер-результат. Все это очень индивидуально. Поэтому не взлетит такой рубрикатор, поверьте. Гугл круче.
А как же тогда быть? Вот вам три пути:
Лучше личной рекомендации (или критики) от человека, которого вы хорошо знаете, ничего не существует. В принципе. Найдите лучше такого человека, прошедшего интересующий вас курс, получите фидбек от него, а не от конторы/рекламы и будет вам счастье. И да, почти все и всегда зависит от личности тренера (а это у вас — на последней позиции), поэтому хорошая рекомендация — это все, что вам нужно для оффлайн-курса.
Это в меньшей степени касается онлайн-курсов, но они обычно довольно дешевы (т.к. как раз стандартны), видео записано, тесты напилены, там цена ошибки совсем невысока + есть рейтинги, отзывы. По сути — это уже ровно то, что вы хотите.
Есть еще онлайн а ля оффлайн (вебинары), на них обычно по первому занятию сразу все понятно. Так что проблемы как бы нет. А вот заполнять некий "чек-лист" даже не посетив курс — просто ну очень бестолковое дело.
И еще, это… Если даже искать курс и отзывы лень, и нужен некий готовый "центр поиска" — то такому слушателю будет трудновато учиться. Хоть где, хоть чему ;)
Про личности: а вот мне почему-то показалось это именно переходом на личности (если я это как троллинг воспринимаю, то как вы думаете). Поясню. Вы говорите, что я не понимаю прочитанное, затем приводите для чего-то ужасающий пример собственного непонимания прочитанного. Поэтому одно из двух: вы либо не учились, либо троллите. Судя по вашим предыдущим, вполне логичным и грамотным высказываниям, первое менее вероятно. Ну а троллинг — это же он и есть, переход на личности. Все дальнейшее — уже реакции. Я извиняюсь, если вас это задело, но я объяснил это же выше.
Про где я такое говорил. Вы утверждали, что мозг система которую можно изучить и сжать в силу его конечности — это спорно, но допустим возможно. Но сохранить это добытое знание в этот же мозг без потери данных вы не сможете. Емкости не хватит. Сможете лишь некое упрощение сохранить, а следовательно какая-то часть останется пропущенной, т.е. непознанной. Причем речь о сохранении, а не о познании, когнитивную сторону вопроса если рассматривать, то все еще усугубится. Второй момент — после сохранения мозг неизбежно усложнится, что не было описано в сохранении. И первый, и второй факт значат, что система сама себя познать не в состоянии. Анализ даже части знаний, а именно математики это явно доказывает. Пруф выше.
Вам должен быть по идее близок кодинг, ну так вот: напишите программу, которая без чтения себя из памяти/диска (т.е. алгоритмически) выведет свой же код на консоль — вот о чем идет речь в пруфе.
Наконец про компьютеры. Давайте без теорий. Амёба тоже прекрасно сама себя воспроизводит, на мой взгляд, это живое идеальное совпадение с вашим примером. Она интеллектуальна? Все про себя знает? Может других амеб инженерить? Не может. Не имеет даже в организме памяти для хранения и анализа моделей себя. Допустим на планете только амебы. На ней нет интеллекта. Но дальше веселее — после гугола итераций амеба может эволюционировать до, скажем, человека. Он будет точно сложнее в силу энтропии Шеннона. И внимание, после самоосознания в нем просыпается интеллект и когнитивная деятельность. А что там наша амеба — увы, она уж точно не будет дебажить человека. Причина все та же.
Но допустим амебу придумали мы. Что-то про полученный в итоге интеллект мы сможем сказать? Сможем его дебажить? Опять нет. Причина все та же.
Прочтите же, пожалуйста, статью серьезно, т.е. не с целью поспорить, а с целью уловить идею. Это важная идея. Она доказательно определяет границы познания, как бы пафосно это не звучало.
Поэтому-то у нас и нет шансов "дебажить" и полностью понимать сильный ИИ, хотя некий скайнет в ближайшие столетия при этом практически неизбежен. Это довольно печальный факт.
michael_vostrikov, с теорией информации у вас совсем плохо, надо вам учиться. "Пример который опровергает" — прямо вишенка на торте. "недостоверность этого источника, либо на ваше неправильное понимание" меркнет на его фоне. Хотя может троллите? Если так — то не смешно и очень тупо.
Давайте я тоже в таком ключе побеседую. Любая последовательность битов является информацией. Любую, согласно вашей же гениальной идее, можно "сжать". Вы не читаете всякие там глупости, пошел он этот Гильберт, а знаете все сразу и сами. Ок, вперед — сожмите RAR. А потом сожмите его еще раз. И т. д. До одного бита. Все же возможно ))). Бред же чистейший. Надеюсь донёс. На примере, как вы любите.
Не нравится RAR — понимаю. Но то, что несжимаемые последовательности существуют надеюсь понятно? То что ИНС с точки зрения данных чистый random, надеюсь тоже понятно? Сожмите веса сети если слова rar и random вас смущают. А потом положите полученное в эту же сеть.
Если вы в школе теоремы доказывали, то наверняка знаете, что означает означает чтд. На этом откланиваюсь, ибо ваш ответ я уже знаю.
Вы идете в известный парадокс. Система не может сама себя полностью познать, так как ее ёмкость меньше ее же компонентов. Следовательно, даже если допустить, что получить более сильный, чем человек ИИ мы можем, то отлаживать его, увы, не получится. Тьюринг не есть хороший тест, он неполон, но лучше пока никто ничего не предложил. Попробуйте. Ваши позиции близки к савельевским, поэтому я вряд ли вас смогу переубедить в чем либо.
Аргументация полемики пошла по третьему кругу, позиции сторон понятны, извините, но я пожалуй покидаю дискуссию.
Было интересно, спасибо. Хоть и не очень продуктивно.
Я с вами могу что-то обсудить. Т.е. у человека часть рефлекторного, но есть и систематизированное логическое мышление. На языке. С собакой я так обсудить что-то не могу, у нее в основном рефлекторное. Страх. Голод. Радость. С инопланетянином, если они общаются телепатически тоже не могу, но потому, что мне неизвестен их канал передачи информации, т.е. я языка не знаю, нужен переводчик на телепатический, а с собакой причина другая.
Если вы считаете, что двигать лапами и ловить мячик это все что нужно от ИИ, то я соглашаюсь, но этот ИИ не сильный. Сильный ИИ — это возможность генерации, и последующего обмена моделями и идеями. Тест Тьюринга — он для проверки возможности такого обмена, а не для проверки знания языка. Отладчик изначально подразумевает, что мы сильнее исследуемого ИИ. А было бы интересно получить хотя бы такой же по сложности, или выше человеческого. Если эта задача не стоит, то обсуждать нечего. ИИ готов. Это Boston Dynamics или просто банальный робот-пылесос.
Спасибо, но я боюсь, что ничего нового вам не сообщу. Если внимательно посмотреть все мои посты в ветке, то все они сводятся к первому посту, с небольшими вариациями. Включая этот.
Механизм валидации моделей должен иметь какие-то последствия. Для живых организмов это выживаемость. Один организм формирует, хранит и пробует миллионы моделей и умирает, чтобы попробовать другой их набор в потомках. Если для ботов сделать то же самое, то наверное пропадает смысл. От AI все ожидают бесконечный рост сложности системы знаний, а убивая бота и начиная каждый раз сначала легко теряется достигнутый прогресс. Что предложить взамен смерти бота — то даже тут у меня идей нет, не говоря о более тонких моментах реализации.
С учётом того, что вид модели — это инструмент, то снова приходим к вопросу постановки задачи. В вашей формулировке — решить вот этот пул примеров. В моей — выжить в любой предложенной среде. Отличий немного, но выжить это постоянный reset, если жизнь это один эксперимент, то дорого получается. Ресурсов не хватит.
Я не вижу пока тут выхода, и видел эту проблему на своем примере выше ИНС+ГА. Закончилось просто исчерпанием выч. ресурсов. Не решив даже такую простую задачу не вижу перспективы браться за более сложную. Нужно что-то вместо смерти бота. Что-то не приводящее в тупик. Что — вопрос открыт.
Я имею ввиду что линейки, бустинги, нейронки, knn-ки, символьные регрессии — это десятки, или максимум сотни видов моделей. А нужно чтобы их были миллиарды. Видов моделей, а не просто их параметров. В том числе и неизвестные нам сейчас. Ибо никто из нас не знает какой вариант верный в универсальности решаемых задач. Это реально похоже на жизнь. Технически сейчас — сильный ИИ просто утопия. Как если бы обезьяна человека изобретала. Но мы то от них все-таки произошли. И разница не потрясающая в количестве нейронов. Но в качестве — потрясающая. У нас модели мира лучше. Гибче. Точнее. И их больше на порядки.
Отвечая на вторую часть вопроса про ииии, что дальше. Дальше удачная модель, нет… не так, удачный генератор удачной модели, должен самовоспроизводиться с мутацией. ГА. У меня был fail с этим. Но кто-то когда-то нащупает, нас же миллиарды на планете, и это ключ.
Представьте, что мы встретили инопланетян. Как понять, что они разумны? Это все же будет, наверное, довольно близко к тесту Тьюринга. Мы будем пробовать общаться, и если не получится, то точно не будем считать их проявлением интеллекта.
Если сильный ИИ умеет играть в ЛЮБЫЕ игры лучше нас, но нас, придумавших эти игры не в состоянии понимать, то это как минимум странно. А скорее всего невозможно. Мы же понимаем как дрессировать животных, как с ними общаться. А они понимают нас. Вот и сильный ИИ должен нас так же понимать, а мы его.
RL — это тема, да, слежу, да нравится, но мы же тут немного про другое. Вопрос поиска хороших моделей в частности и построения ИИ в целом он скорее философский, чем технический. Интенсивно — да, можно искать модели на основе математики. И да, они будут найдены, но что? Частные случаи решения конкретных задач. Экстенсивно же можно нагенерировать максимально возможное нейро- или даже моделе-разообразие. Пространство поиска вырастет неимоверно, но и покрытие пространства поиска тоже вырастет так же. Давайте на примере — RL в целом от начала до конца определяется все-таки данными для обучения, а подкрепление дает лишь близость модели к наблюдаемому объекту, но не "угадывание заранее". Т.е. это сугубо техническая система — автомат. Сильный ИИ же подразумевает как бы два мира, реальный и модельный. Редкие (далеко не все) модели будут близки к миру реальному. Систему построившую (даже придумавшую) такую модель нужно пустить на следующий уровень познания, а иные отсеять. И вот тут самый сложный момент. Если нечего будет осеивать, то теряется, или сужается разнообразие решений. Эйнштейн построил СТО без данных по сути. Тысячи физиков пытались сделать то же самое. Повезло (и это ключевое слово) именно ему. Это повторяется. Всегда. Десятки тысяч народа нейронками занимались. Но у Лекуна взлетело чуть лучше и чуть раньше. Поэтому интеллект это все-таки игра. В ней должно быть много проигравших и мало выигравших, переходящих на следующий уровень. Если вы следите за идеей, то это момент получения знания, что имхо и есть сильный ИИ. Или даже просто любой интеллект. А далее все о чем мы говорили выше. Язык для передачи и фильтрации, тест Тьюринга как частная проверка, что это именно интеллект, и т. д.
Из известных способов получения реально сильного ИИ на данный момент в природе известен только один, тот что получился на человеке — вот я из этого и исхожу. Если мне был бы известен другой рецепт построения сильного ИИ, то я уже его бы использовал, не сомневайтесь.
А ваш вопрос можно переформулировать так, что лучше — много пробовать обучать разных людей и разному, или всего несколько, но реально предельно умному, точному, нужному и важному. Я думаю, что второй путь возможно и даст быстрый результат, но мало отличается от обычного ИИ, современного и узкоспециализированного, он неустойчив без внешних сил, а значит приведет к вырождению интеллекта. Даже искусственного. И вот, мы плавно переходим к первому посту этой ветки. С Венерой, наноботами и миллионами лет эволюции.
Конечно. Это необходимое условие, но недостаточное. Когда боты начнут "думать" в этих терминах и спорить друг с другом, без внешнего управления, экспоненциально наращивая число моделей мира — дайте знать ;)
Сильного ИИ нет. Каким он будет — неизвестно. Но пилить его будем именно мы. Поэтому, он более вероятно будет подобен нам, чем скажем дельфинам. А раз так, то "чисто" пройденный тест Тьюринга был бы огромным достижением. Тест не мой, он Тьюринга. Но я с Тьюрингом согласен.
Что касается ремарки о языке, то это уже софистика. Добавьте переводчика.
Это видимо для полных стекляшек — современные небоскребы часто так делают, особенно под офисы.
В точку. У Билла есть древняя книжка "Бизнес со скоростью мысли" — там все его идеи на блюдечке с голубой каемочкой от первого лица. Там же он спрогнозировал будущий взлет гугла и это было описано на секундочку еще в 1999 году, + предположил закат MS (примерно к 2030 году). Подробно показана политика MS и что, зачем и почему происходило в ней практически открыто написано. Но кому это все интересно, когда можно посплетничать.
Ок, попробуйте, никто же не против, но про "не взлетит" просто не забывайте — кто предупрежден, тот вооружен. Чтобы было более результативно, посмотрите в сторону рекомендательных систем. Там шансы на релевантность немножко повыше.
ЗЫ. Про "хороший тренер" — вы меня неверно поняли, это описание ситуации, а вовсе не о себе, любимом.
Допустим (гипотетически) ваша задача решена. В итоге что, будет по каждому направлению некий "победитель", т.е. все остальные окажутся не нужны? Ведь ясно же, что это просто утопия. В целом, ваша ключевая мысль сводится к самому кошмарному "вот мои деньги — я требую гарантии знаний".
Знания нельзя гарантировать, вам верно ниже пишут — главное, это мотивация. Тогда и фидбек найдете, и книги, и курсы, и научитесь всему. Не будет мотивации — не будет ничего. Хоть с деньгами, хоть на самообучении.
А "ого, я трачу время — не хочу так, хочу готовое, причем по своим критериям", это уж совсем на какие-то капризы больше похоже. Прокачка скиллов это очень большой труд. Хороший тренер поможет, но не заменит вам этого труда. Выбор курса — микрозадача в этом объеме.
Раз рекомендации вам не помогают, тогда готовьтесь — откройте любую профильную конфу — там очень узкая тусовка. Будут сразу ясны лидеры технологии. Послушайте их. После знакомства с темой выбрать курс/книгу/видео большого труда не составит, ну а личные вопросы тренеру "на старте" покажут его компетенции.
То что вы предлагаете — это какой-то очередной велосипед, извините. Не взлетит, могу поспорить. Смотрите. Я — хороший тренер, и могу гарантировать результат. Но сегодня я веду занятия в одной компании, а завтра в другой. А тут мне еще попался крутой проект и я вообще пропал. Как будет ваше решение отслеживать мои перемещения? Это же просто невозможно. А курс — это не контора, не стандарт, не программа, не оформление, курс — это человек который его проводит. В идеале автор технологии, но чаще просто профи. Но это персона, от которой зависит почти все, понимаете? Вот за ними, за персонами и стоило бы следить.
В общем нереальные планы у вас, как мне кажется. Извините.
Обертка, стандарты… Ох, как же это все достало. УМКД еще попросите.
Суммарно я провел тысячи часов лекций и, что интереснее, наверное около сотни проф. тренингов, могу вам твердо и доказательно гарантировать, что ни один из них не повторился. Всегда разная группа, разные люди, разные уровни, разные хотелки и возможности у аудитории. Это НЕВОЗМОЖНО стандартизировать. Любой стандарт приведет лишь к постоянному отклонению о него.
Поэтому. То что вы предлагаете — это просто облегчение поиска курса, и не более того. Микроскопическая задача, причем с неопределенным решением. Можно найти хороший курс и тупо "не включиться", а можно попасть на посредственный, но тематика "торкнет" и будет супер-результат. Все это очень индивидуально. Поэтому не взлетит такой рубрикатор, поверьте. Гугл круче.
А как же тогда быть? Вот вам три пути:
Лучше личной рекомендации (или критики) от человека, которого вы хорошо знаете, ничего не существует. В принципе. Найдите лучше такого человека, прошедшего интересующий вас курс, получите фидбек от него, а не от конторы/рекламы и будет вам счастье. И да, почти все и всегда зависит от личности тренера (а это у вас — на последней позиции), поэтому хорошая рекомендация — это все, что вам нужно для оффлайн-курса.
Это в меньшей степени касается онлайн-курсов, но они обычно довольно дешевы (т.к. как раз стандартны), видео записано, тесты напилены, там цена ошибки совсем невысока + есть рейтинги, отзывы. По сути — это уже ровно то, что вы хотите.
Есть еще онлайн а ля оффлайн (вебинары), на них обычно по первому занятию сразу все понятно. Так что проблемы как бы нет. А вот заполнять некий "чек-лист" даже не посетив курс — просто ну очень бестолковое дело.
И еще, это… Если даже искать курс и отзывы лень, и нужен некий готовый "центр поиска" — то такому слушателю будет трудновато учиться. Хоть где, хоть чему ;)
Тупик
michael_vostrikov
Про личности: а вот мне почему-то показалось это именно переходом на личности (если я это как троллинг воспринимаю, то как вы думаете). Поясню. Вы говорите, что я не понимаю прочитанное, затем приводите для чего-то ужасающий пример собственного непонимания прочитанного. Поэтому одно из двух: вы либо не учились, либо троллите. Судя по вашим предыдущим, вполне логичным и грамотным высказываниям, первое менее вероятно. Ну а троллинг — это же он и есть, переход на личности. Все дальнейшее — уже реакции. Я извиняюсь, если вас это задело, но я объяснил это же выше.
Про где я такое говорил. Вы утверждали, что мозг система которую можно изучить и сжать в силу его конечности — это спорно, но допустим возможно. Но сохранить это добытое знание в этот же мозг без потери данных вы не сможете. Емкости не хватит. Сможете лишь некое упрощение сохранить, а следовательно какая-то часть останется пропущенной, т.е. непознанной. Причем речь о сохранении, а не о познании, когнитивную сторону вопроса если рассматривать, то все еще усугубится. Второй момент — после сохранения мозг неизбежно усложнится, что не было описано в сохранении. И первый, и второй факт значат, что система сама себя познать не в состоянии. Анализ даже части знаний, а именно математики это явно доказывает. Пруф выше.
Вам должен быть по идее близок кодинг, ну так вот: напишите программу, которая без чтения себя из памяти/диска (т.е. алгоритмически) выведет свой же код на консоль — вот о чем идет речь в пруфе.
Наконец про компьютеры. Давайте без теорий. Амёба тоже прекрасно сама себя воспроизводит, на мой взгляд, это живое идеальное совпадение с вашим примером. Она интеллектуальна? Все про себя знает? Может других амеб инженерить? Не может. Не имеет даже в организме памяти для хранения и анализа моделей себя. Допустим на планете только амебы. На ней нет интеллекта. Но дальше веселее — после гугола итераций амеба может эволюционировать до, скажем, человека. Он будет точно сложнее в силу энтропии Шеннона. И внимание, после самоосознания в нем просыпается интеллект и когнитивная деятельность. А что там наша амеба — увы, она уж точно не будет дебажить человека. Причина все та же.
Но допустим амебу придумали мы. Что-то про полученный в итоге интеллект мы сможем сказать? Сможем его дебажить? Опять нет. Причина все та же.
Прочтите же, пожалуйста, статью серьезно, т.е. не с целью поспорить, а с целью уловить идею. Это важная идея. Она доказательно определяет границы познания, как бы пафосно это не звучало.
Поэтому-то у нас и нет шансов "дебажить" и полностью понимать сильный ИИ, хотя некий скайнет в ближайшие столетия при этом практически неизбежен. Это довольно печальный факт.
michael_vostrikov, с теорией информации у вас совсем плохо, надо вам учиться. "Пример который опровергает" — прямо вишенка на торте. "недостоверность этого источника, либо на ваше неправильное понимание" меркнет на его фоне. Хотя может троллите? Если так — то не смешно и очень тупо.
Давайте я тоже в таком ключе побеседую. Любая последовательность битов является информацией. Любую, согласно вашей же гениальной идее, можно "сжать". Вы не читаете всякие там глупости, пошел он этот Гильберт, а знаете все сразу и сами. Ок, вперед — сожмите RAR. А потом сожмите его еще раз. И т. д. До одного бита. Все же возможно ))). Бред же чистейший. Надеюсь донёс. На примере, как вы любите.
Не нравится RAR — понимаю. Но то, что несжимаемые последовательности существуют надеюсь понятно? То что ИНС с точки зрения данных чистый random, надеюсь тоже понятно? Сожмите веса сети если слова rar и random вас смущают. А потом положите полученное в эту же сеть.
Если вы в школе теоремы доказывали, то наверняка знаете, что означает означает чтд. На этом откланиваюсь, ибо ваш ответ я уже знаю.
Так решил вовсе не я. Ключевые идеи с позиции математика описаны тут https://elementy.ru/nauchno-populyarnaya_biblioteka/430319, но вообще это довольно известный парадокс.
Вы идете в известный парадокс. Система не может сама себя полностью познать, так как ее ёмкость меньше ее же компонентов. Следовательно, даже если допустить, что получить более сильный, чем человек ИИ мы можем, то отлаживать его, увы, не получится. Тьюринг не есть хороший тест, он неполон, но лучше пока никто ничего не предложил. Попробуйте. Ваши позиции близки к савельевским, поэтому я вряд ли вас смогу переубедить в чем либо.
Аргументация полемики пошла по третьему кругу, позиции сторон понятны, извините, но я пожалуй покидаю дискуссию.
Было интересно, спасибо. Хоть и не очень продуктивно.
Я с вами могу что-то обсудить. Т.е. у человека часть рефлекторного, но есть и систематизированное логическое мышление. На языке. С собакой я так обсудить что-то не могу, у нее в основном рефлекторное. Страх. Голод. Радость. С инопланетянином, если они общаются телепатически тоже не могу, но потому, что мне неизвестен их канал передачи информации, т.е. я языка не знаю, нужен переводчик на телепатический, а с собакой причина другая.
Если вы считаете, что двигать лапами и ловить мячик это все что нужно от ИИ, то я соглашаюсь, но этот ИИ не сильный. Сильный ИИ — это возможность генерации, и последующего обмена моделями и идеями. Тест Тьюринга — он для проверки возможности такого обмена, а не для проверки знания языка. Отладчик изначально подразумевает, что мы сильнее исследуемого ИИ. А было бы интересно получить хотя бы такой же по сложности, или выше человеческого. Если эта задача не стоит, то обсуждать нечего. ИИ готов. Это Boston Dynamics или просто банальный робот-пылесос.
Ок. Как? Мы поняли что собака понимает команду. Это все? Ну тогда ИИ готов. Окей Гугл.
Спасибо, но я боюсь, что ничего нового вам не сообщу. Если внимательно посмотреть все мои посты в ветке, то все они сводятся к первому посту, с небольшими вариациями. Включая этот.
Механизм валидации моделей должен иметь какие-то последствия. Для живых организмов это выживаемость. Один организм формирует, хранит и пробует миллионы моделей и умирает, чтобы попробовать другой их набор в потомках. Если для ботов сделать то же самое, то наверное пропадает смысл. От AI все ожидают бесконечный рост сложности системы знаний, а убивая бота и начиная каждый раз сначала легко теряется достигнутый прогресс. Что предложить взамен смерти бота — то даже тут у меня идей нет, не говоря о более тонких моментах реализации.
С учётом того, что вид модели — это инструмент, то снова приходим к вопросу постановки задачи. В вашей формулировке — решить вот этот пул примеров. В моей — выжить в любой предложенной среде. Отличий немного, но выжить это постоянный reset, если жизнь это один эксперимент, то дорого получается. Ресурсов не хватит.
Я не вижу пока тут выхода, и видел эту проблему на своем примере выше ИНС+ГА. Закончилось просто исчерпанием выч. ресурсов. Не решив даже такую простую задачу не вижу перспективы браться за более сложную. Нужно что-то вместо смерти бота. Что-то не приводящее в тупик. Что — вопрос открыт.
Я имею ввиду что линейки, бустинги, нейронки, knn-ки, символьные регрессии — это десятки, или максимум сотни видов моделей. А нужно чтобы их были миллиарды. Видов моделей, а не просто их параметров. В том числе и неизвестные нам сейчас. Ибо никто из нас не знает какой вариант верный в универсальности решаемых задач. Это реально похоже на жизнь. Технически сейчас — сильный ИИ просто утопия. Как если бы обезьяна человека изобретала. Но мы то от них все-таки произошли. И разница не потрясающая в количестве нейронов. Но в качестве — потрясающая. У нас модели мира лучше. Гибче. Точнее. И их больше на порядки.
Отвечая на вторую часть вопроса про ииии, что дальше. Дальше удачная модель, нет… не так, удачный генератор удачной модели, должен самовоспроизводиться с мутацией. ГА. У меня был fail с этим. Но кто-то когда-то нащупает, нас же миллиарды на планете, и это ключ.
Представьте, что мы встретили инопланетян. Как понять, что они разумны? Это все же будет, наверное, довольно близко к тесту Тьюринга. Мы будем пробовать общаться, и если не получится, то точно не будем считать их проявлением интеллекта.
Если сильный ИИ умеет играть в ЛЮБЫЕ игры лучше нас, но нас, придумавших эти игры не в состоянии понимать, то это как минимум странно. А скорее всего невозможно. Мы же понимаем как дрессировать животных, как с ними общаться. А они понимают нас. Вот и сильный ИИ должен нас так же понимать, а мы его.
RL — это тема, да, слежу, да нравится, но мы же тут немного про другое. Вопрос поиска хороших моделей в частности и построения ИИ в целом он скорее философский, чем технический. Интенсивно — да, можно искать модели на основе математики. И да, они будут найдены, но что? Частные случаи решения конкретных задач. Экстенсивно же можно нагенерировать максимально возможное нейро- или даже моделе-разообразие. Пространство поиска вырастет неимоверно, но и покрытие пространства поиска тоже вырастет так же. Давайте на примере — RL в целом от начала до конца определяется все-таки данными для обучения, а подкрепление дает лишь близость модели к наблюдаемому объекту, но не "угадывание заранее". Т.е. это сугубо техническая система — автомат. Сильный ИИ же подразумевает как бы два мира, реальный и модельный. Редкие (далеко не все) модели будут близки к миру реальному. Систему построившую (даже придумавшую) такую модель нужно пустить на следующий уровень познания, а иные отсеять. И вот тут самый сложный момент. Если нечего будет осеивать, то теряется, или сужается разнообразие решений. Эйнштейн построил СТО без данных по сути. Тысячи физиков пытались сделать то же самое. Повезло (и это ключевое слово) именно ему. Это повторяется. Всегда. Десятки тысяч народа нейронками занимались. Но у Лекуна взлетело чуть лучше и чуть раньше. Поэтому интеллект это все-таки игра. В ней должно быть много проигравших и мало выигравших, переходящих на следующий уровень. Если вы следите за идеей, то это момент получения знания, что имхо и есть сильный ИИ. Или даже просто любой интеллект. А далее все о чем мы говорили выше. Язык для передачи и фильтрации, тест Тьюринга как частная проверка, что это именно интеллект, и т. д.
Из известных способов получения реально сильного ИИ на данный момент в природе известен только один, тот что получился на человеке — вот я из этого и исхожу. Если мне был бы известен другой рецепт построения сильного ИИ, то я уже его бы использовал, не сомневайтесь.
А ваш вопрос можно переформулировать так, что лучше — много пробовать обучать разных людей и разному, или всего несколько, но реально предельно умному, точному, нужному и важному. Я думаю, что второй путь возможно и даст быстрый результат, но мало отличается от обычного ИИ, современного и узкоспециализированного, он неустойчив без внешних сил, а значит приведет к вырождению интеллекта. Даже искусственного. И вот, мы плавно переходим к первому посту этой ветки. С Венерой, наноботами и миллионами лет эволюции.
Конечно. Это необходимое условие, но недостаточное. Когда боты начнут "думать" в этих терминах и спорить друг с другом, без внешнего управления, экспоненциально наращивая число моделей мира — дайте знать ;)
Все что сегодня есть в сфере ИИ ровно на этом термине держится, если что. Критерий оптимальности наше все. И перфекционизм тут совершенно ни при чем.
Предложите свой вариант ;).
Сильного ИИ нет. Каким он будет — неизвестно. Но пилить его будем именно мы. Поэтому, он более вероятно будет подобен нам, чем скажем дельфинам. А раз так, то "чисто" пройденный тест Тьюринга был бы огромным достижением. Тест не мой, он Тьюринга. Но я с Тьюрингом согласен.
Что касается ремарки о языке, то это уже софистика. Добавьте переводчика.