Comments 19
Пролог умер, потому что он никогда толком не работал (за исключением научных статей). Идея этого "языка программирования" заключалась в том, чтобы заменить императивное программирование - декларативным. Вы пишете утверждения, а в каком порядке (и какие) надо применять к текущему набору фактов - решает пролог-система. На практике тут же оказалось, что оно работает а) долго; b) без гарантии что вообще даст ответ.
И начались попытки прикрутить к этому безобразию механизмы, направляющие систему в нужное русло (привет, "Турбо-пролог!"). Они были еще менее стандартизованы чем изначальный язык, а пользование ими напоминало борьбу с тенью - ибо теперь надо было страдать извращенным двоемыслием: и думать в терминах декларативного программирования чтобы писать выводные правила, и в терминах императивного - чтобы писать хинты. Плюс выяснилось, что описание живой физической системы в терминах фактов (вместо привычных формул и уравнений) - не просто дорого, а офигеть как дорого (в смысле количества памяти потребного для хранения описания системы)!
В результате, все восторги от пролог-систем собрали собственно математики - которым эти чудо системы доказали какие-то там теоремы...
Когда меня запрягли читать курс систем искусственного интеллекта в магистратуре, и вручили переходящий конспект лекций, не менявшийся с 70-х годов - я со злорадным наслаждением вычеркнул оттуда весь пролог (70% курса) которым мучали нас, и вписал генетические алгоритмы и нейронные сети...
Спасибо за комментарий! Но все же интересно, сможем ли мы в будущем придумать что то похожее)
Нет, потому что уже неоднократно раз проверено - в 99% случаев волшебные заклинания математиков работают только в ими же самими придуманном волшебном математическом мире. Логический вывод (исчисление высказываний) - это исчезающе малый процент задач, которые стоят перед ИИ. А на попытку объяснить, что на самом деле почти все можно свести набору высказывний и формальной логике - я отвечаю, что при должном уровне усердия, все можно свести к конечным автоматам, цепям маркова, алгебре групп - и по-видимому, на каком-то очень широком метафизическом уровне, все достаточно сложные абстракции эквивалентны (в том смысле что можно любую задачу и решение сформулированные в одной - без потери смысла перевести в другую).
Таким образом, математикам следовало бы показать, что не только можно любую задачу сформулировать и решить через алгебру высказываний в пролог-машине, но еще и то, что это можно сделать практичным способом. То есть - что это нужно/стоит делать. Но увы - математики вопросами практичности не занимаются...
Хотя... представляю уровень счастья в японских НИИ, когда правительство предложило осваивать/пилить деньги на пятом поколении ЭВМ... И какой там стоял стон когда денег давать перестали...
Почему генетические алгоритмы в курсе ИИ?
А куда их девать ? Давать как подраздел эвристических методов - в курсе мат.методов программирования (задач оптимизации) ? Ну так кафедра математики вообще в этом не заинтересована - им больше нравятся красивые производные и градиенты... И желательно в символьном виде, чтобы к компьютеру лишний раз не подходить.
Если подумать - задача об ИИ - это почти всегда задача оптимизации. Мы полагаем машину разумной, если она располагаемыми ресурсами (фигурами на шахматной доске, машинами на карте, и т.д.) распоряжается достаточно оптимально. И неразумной, если она их тратит не пойми как... Соответственно, почему бы и не генетические алгоритмы или отжиг, или муравьиная колония ? Я туда и клеточные автоматы воткнул, если что. Курс обзорный - если у студентов осталась в памяти: "О! А вот еще такой прикольный есть способ решать эти задачи..." - значит я свою задачу выполнил.
Ну и до кучи, начало 2000-х для ГА - довольно хайповое время. Ресурсы машин ограничены, и получить решение 85-95% оптимального затратив на порядки меньше вычислительных ресурсов - выглядит очень привлекательно. Лет через 5-10 вместо этого будет проще запустить числодробилку на базе CUDA...
Я понимаю вашу мотивацию. Увы, но у нее есть последствия - мне и сейчас эпизодически попадаются статьи/обзоры, где пишут про «интеллектуальные системы на основе генетических алгоритмов».
Но в принципе - в моем представлении это находится где-то в границах "широкого ИИ". Мы задаем целевую функцию - то есть правила: что считается хорошим, а что - плохим. И дальше предлагаем системе вырастить нам достаточно хорошее решение. ИМХО - "неважно какого цвета кошка, лишь бы она ловила мышей" (С) Китайская компартия. Требовать чтобы система ИИ была основана только на знаниях, или только на правилах, или только на байесовских вероятностях - это неуместная разборчивость... Если же говорить об "узком ИИ" - сиречь о машинном обучении и нейроноподобных системах, то ГА конечно из другой оперы...
Пытался изучать Пролог по книжке. Дальше первых пяти страниц ничего не понимал вообще и мне стало казаться, что я совсем тупой какой-то )))
А что будет если лопнет пузырь? Nvidia-пад? GPU будем покупать по цене пирожков? Куда они денут мильёны бездействующих gpu?
Лопнет ли пузырья мы узнаем примерно в 2027 году) Если пузырь все же лопнет, то Я начну покупать дешёвые карты для майнинга)
Если ИИ упрется в какой-то невидимый нам сейчас потолок, то того что уже наделали хватит лет на десять освоения, оптимизации и утилизации хотя-бы по минимуму. Так что дешевых бу видеокарт ждать не приходится. Наоброт - они могу появится если зима не наступит, и нейросети переедут на специализированные решения, как было с биткоином.
Ну на данный момент потолок вполне видимый. Для обучения GPT-5 OpenAi уже использовали синтетические данные, так как весь текущий интернет был использован, поэтому мы уперлись в ограничения архитектуры. Конечно, есть один человек (бывший сотрудник OpenAi), который основал свой стартап и уверяет, что он изобретет принципиально новый AGI.
Ещё видео и аудио данные остались, там объём на порядки больше. Всё это переварить сейчас вычислительных мощностей не хватит, даже близко. Архитектуры и алгоритмы обучения тоже совершенствуются.
в каком плане "обьема"? По петабайтам, очевидно, видео больше, чем текста, так как одно видео весит как миллиарды страниц текста. Но ведь вопрос в содержимом) Здесь я уже не уверен, что обьем аудио и видео на порядки больше
Как то очень кратенько по эпохе расцвета экспертных систем (и параллелям с нынешним бумом LLM и т.п.) прошлись. С одной стороны, есть похожие вещи - выход из исследовательских лабораторий в бизнес и появление специализированного железа (и то другое иллюстрируется возникновением Symbolics и LMI в недрах MIT AI Lab). С другой стороны, в нынешнем DL по сравнению с экспертными системами меньше человеческих ограничений - достаточно рутинной разметки силами не особо квалифицированного персонала, иногда можно и без этого обойтись. И современное железо для AI в первую очередь ориентировано на производительность, максимизируя число операций в секунду на чипе - в то время как в Лисп машинах железо оптимизировало высокоуровневые концепции, специфические для конкретного языка. Соответственно, проблемы того времени (развитие экспертных систем ограничивалось человеческими экспертами, железо по цене/производительности проиграло гонку с обычными рабочими станциями) вроде бы не грозят - но тем не менее любой пузырь рано или поздно схлопывается...
Логический вывод это интересно подсказали идею для agi системы. Только его будет строить llm а не человек.
Крах и новый рассвет ИИ: как он пережил вторую зиму и что нас ждет в будущем