Обновить

Искусственный интеллект: 70 лет провалов, надежд и революций

Уровень сложностиСредний
Время на прочтение30 мин
Охват и читатели6.2K
Всего голосов 8: ↑8 и ↓0+9
Комментарии14

Комментарии 14

Появились новые машины от Apple и IBM

Убийцами лисп машин были скорее юниксовые рабочие станции от Sun, HP и прочих.

Спасибо за такую подробную историю)

Спасибо за статью.

В ней, на мой взгляд, есть, конечно, здравое зерно, хайп AGI сейчас явно имеет место быть. Но настораживает и некоторое число передёргиваний, например

Снова и снова оказывается, что невозможно достичь 100% точности от машины

Очевидно, что 100% точности невозможно достичь и от человека, вопрос лишь в том, каково соотношение в проценте ошибок.

Новая зима ИИ вполне возможна, но вспомним крах дот комов в 2000 году. На сколько он задержал развитие IT отросли? По моей субъективной оценке, не более, чем пару лет, вряд ли и сейчас она будет продолжительнее. Короче, я всё же оптимист.)

Спасибо за отзыв.

Мой посыл как раз в том, что от машин не стоит ждать недостижимых 100% точности — ровно так же, как и от людей. Выделанная цитата была про необходимость управлять собственными ожиданиями. Мне регулярно приходится объяснять бизнесу, что даже очень хорошие модели неизбежно ошибаются, и важно смотреть на баланс качества, стоимости ошибок и пользы от продукта.


Сквозная идея статьи как раз в конфликте между завышенными ожиданиями и реальными возможностями технологий: ошибки моделей — это нормально. И в финале я специально акцентирую, что даже без сверхразума текущие модели уже приносят ощутимую пользу. Как с доткомами, они будут развиваться дальше независимо от возможной «ИИ-зимы» — она скорее охладит хайп, чем остановит прогресс.

Не статья, а целая монография по ретроспективе ИИ получилась.

С автором можно основательно поспорить по его отдельным субъективным выводам и прогнозам, но в комментарии это сделать получится по размерам статьи.

Поэтому остановлюсь только на очень значимых акцентах.

Во первых, надо учитывать исторический временной аспект развития вычислительной техники от середины 50'х XX- ого века до начала 2-ой четверти XXI-ого. В начале эпохи ЭВМ использовались исключительно для математических расчетов (Алгол, Фортран) до простых экономических расчетов (Кобол, PL/I) даже без СУБД в нашем понимании. Интерактивный текстовый диалог с помощью печатающей машинки (input-output) с начала 70'х считался проявлением ИИ-способности ЭВМ не говоря о первых шахматных программах. Только с появлением в начале 80'х персональных ЭВМ стал возможным человеко-машинный интерфейс. А без него имитация ИИ невозможна в принципе. Поэтому вывод "Первая зима ИИ (1974-1980) просто ошибочен.

Во-вторых, в целом ошибочен вывод о возможностях экспертных систем. Ошибка была у японцев, когда на эйфории языка предикатов Prolog они начали проект "ЭВМ 5-ого поколения" и надселись. Изначально было ясно, что это ложный путь. Экспертные системы как раз эффективный инструмент для моделирования интеллектуальных возможностей при решении КОНКРЕТНЫХ прикладных задач, ибо их технология позволяет строить по базе знаний логические выводы и обосновывать выдаваемый результат (решение). Сдерживание широкого использования ЭС обусловливалось не размерами БЗ (как утверждает автор), а инструментальными средствами разработки экспертных систем. Классические языки 70'х типа Prolog'а, Сlip'a и подобных не годятся. Они ориентированы на локальное программирование когда БЗ зашивается в код программы. Основным инструментом была (и пока остаётся) система G2 корпорации Gensym для управления техпроцесса и в реальном времени. Также разработки типа ExSys, но они ориентированы на локальное приложение. А ЭС должна быть компонентом (интеллектуальной подсистемой) информационной системы для поддержки принятия решений. Так что экспертные системы ещё не сказали своего последнего слова.

По современному хайпу ИИ связанному с LLM. Принципиальным здесь является то, что построенная по такой технологии модель в отличие от человека НЕ оперирует понятиями предметной области, а строит свои выводы с помощью зависимостей между словами (токенами) в тексте. Человек когда думает и принимает решение, он не оперирует словами, а оценивает имеющиеся факты и по ним (используя свои знания и интуицию) строит логические выводы. В этом принципиальное отличие человеческого интеллекта от машинного. Вот на основание этого и можно сделать вывод тупиковый ли путь к современных технологий по имитации человеческого интеллекта.

Только с появлением в начале 80'х персональных ЭВМ стал возможным человеко-машинный интерфейс.

Чего не хватает в терминалах мейнфреймов?

Операционные системы больших ЭВМ не расчитаны на массового пользователя и не имели с ним диалогового интерфейса.

То есть вопрос только в массовом доступе, а не в самом железе. Так то исследователи и студенты на тех машинах вполне могли работать интерактивно, в том числе и с графикой. Можно, скажем, посмотреть на сеанс работы SHRDLU - как раз таки пример ИИ первой волны (конец 60х - начало 70х).

Не забывайте их выч.характеристики и стоимость машинного времени измеряемого за час в долларах того времени. А насчёт упражнений, так мне при освоении микро-ЭВМ Наири-2 ещё в 1973г. через ее пишущую машинку пришлось написать программу для игры в крестики+нолики и не более того.

Не забывайте их выч.характеристики

Не хуже чем у персоналок начала 80х

и стоимость машинного времени измеряемого за час в долларах того времени

В периоды расцвета (до очередной "зимы") ИИ достаточно щедро финансировалось.

так мне при освоении микро-ЭВМ Наири-2 ещё в 1973г. через ее пишущую машинку

Кое где ещё в конце 80х перфокарты были в ходу. Но при этом у пионеров ИИ был нормальный интерактивный доступ в 60е. Если про игры - то вот что писали студенты в Иллинойсе в середине 70х на университетской большой машине.

Понятие AI (ИИ) того времени было примитивным. Если машина вела текстовый диалог, то это и принималось за ИИ. На счёт массовой доступности к терминалам Мэйн-Фреймов конца 70'х, так это, уважаемый, от лукавого. Повторяю, оно измерялось в десятках долларов за час машинного времени. О чем говорите, так это единичные студенты университета Стэнфорда или MTI где проводились основные исследования по AI. Именно с появлением в 70'х мини-ЭВМ типа серии PDP и IBM-PC пошли разработки по человеко-машинного интерфейсу которые дали импульс исследованиям по ИИ и в частности по разработке экспертных систем.

Если машина вела текстовый диалог, то это и принималось за ИИ. 

Современная LLM делает примерно то же самое, и в качестве интерфейса вполне достаточно телетайпа.

О чем говорите, так это единичные студенты университета Стэнфорда или MTI где проводились основные исследования по AI.

Именно так, ни про какой массовый доступ я не говорил.

разработки по человеко-машинного интерфейсу которые дали импульс исследованиям по ИИ и в частности по разработке экспертных систем.

Я бы не смешивал эти вещи. Экспертная система должна была в первую очередь решать конкретную задачу (скажем, определять болезнь по симптомам или наиболее вероятное место для разработки полезных ископаемых), интерфейс вторичен.

Спасибо, что прочитали статью и написали подробный отзыв!

Судя по комментарию, вы оцениваете ИИ ретроспективно — с позиции того, что мы сегодня считаем интеллектом. Отсюда ваш вывод, что без человеко-машинного интерфейса в персональных ЭВМ ИИ невозможен. Но в 60-х годах ИИ называли саму симуляцию элементов человеческого мышления. Исследователи обещали результаты (например, проект GPS) при имевшемся железе на тот момент — и не смогли их дать. Зима наступила не потому, что не было ПК, а потому, что деньги кончились после невыполненных обещаний.

Я не утверждал, что экспертные системы бесполезны — элементы их подхода возвращаются сегодня системы, где LLM комбинируется с формальными правилами. В блоке про вторую ИИ-зиму проанализированы причины экспертных систем взлёта и падения. Одна из причин (не единственная) — сложность поддержки базы знаний, что подтверждается отчётами исследователей XCON [1], [2]. За несколько лет число правил выросло с 250 до 6200, при этом не всегда было понятно, кто добавил то или иное правило, а удаление или изменение требовало долгого цикла согласований.

Про LLM согласен — в статье я пишу, что они предсказывают токены, а не оперируют понятиями. Это порождает галлюцинации и ставит вопрос о пределах текущего подхода.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации