Как стать автором
Обновить

Сверхчеловеческий ИИ на основе открытых систем: Утопия или антиутопия?

Уровень сложностиСредний
Время на прочтение16 мин
Количество просмотров2.9K
Всего голосов 12: ↑11 и ↓1+11
Комментарии3

Комментарии 3

Сейчас наверное "актуальнее" два типа статей про ии:

- как на них можно заработать и сколько? примеры, суммы, бюджеты.

- как сделать так, чтоб "ии" потреблял значительно меньше энергии и не требовал экспоненциального роста инфраструктуры

А про "открытые системы в ии" - не так актуально пока..., если это не поможет решить вот эти две "задачки"..., ибо это критично...

В статье многовато терминологии, которая не определяется. Например, что такое (в данном контексте) есть - артефакт?

Это какой-то специфический узкоспециализированный лексикон (просветите?), или забыли ввести определения, или гпт помогал генерить контент?

Статья хорошая и достаточно полная. Я так понял речь об объединении символьного ИИ, базирующегося на точных правилах, с генеративным (в основном, на основе LLM), способным генерировать новые знания и выявлять новые закономерности. Человеческий опыт, выраженный языком, является средством моделирования действительности, но он засорен и зашумлен ошибочными суждениями и фантазиями. Конечно, разработчики стараются следить чтобы обучение шло в первую очередь на более достоверных данных и проходило фильтры. Но это не всегда эффективно и не уберегает от галлюцинаций, которые иногда умножают на ноль ценность генеративных ИИ, требуют доработки человеком, обладающим разумом и опытом. Чтобы ИИ смог оценивать правдоподобность суждений - необходимо, как это делает человек, “думать” не словами, а моделировать описываемые процессы определённой предметной области. Причём, моделирование должно быть на математическом (формульном) уровне - у человека это выражается путём воображения (визуалиазции), в котором производится мысленный эксперимент над объектами с учётом их физических и прочих свойств. Именно в этом компьютеры могут значительно точнее человека, если не сказать точны абсолютно. Конечно, при моделирования гуманитарных процессов точность моделирования физических явлений может быть на порядки ниже, чем при моделировании технических процессов, а также точность может быть подстроена если первоначальный уровень точности определённых узлов модели оказался недостаточен. 

Далее сугубо моё мнение и выводы. Подавляющая часть математической модели может быть смоделирована единожды и многократно использована впоследствии и представлять базы данных для символьной части ИИ. Причём, объём этих данных относительно мал если сравнивать с данными для генеративного ИИ: для объективного понимания основных процессов (физических, химических, исторических, социальных и любых прочих) вполне может быть достаточно анализа Википедии и части справочников. Таким образом, наиболее точно будет смоделирован реальный мир нашей цивилизации и природы вообще. Такая модель может быть блоком системы обучения генеративного ИИ с подкреплением на основе обратной связи и корректировать галлюцинации - всё должно проходить через призму матмодели для максимального совпадения выводов с реальностью. Модель может всё так же быть описана естественным языком, но строгим сухим научным, и быть легко преобразована в визуальную и наоборот, подвергнута векторизации для более лёгкого соотнесения с обычными LLM. Наличие блока матмодели может дать возможность лёгкого и визуального контроля над процессами внутри генеративного ИИ, его галлюцинациями, обеспечить безопасность ИИ. 

Используя машинное зрение, ИИ будет фактически на лету понимать как устроено и работает проблемная среда, прогнозировать развитие процессов, наблюдать новые неизвестные процессы и дополнять собственные сведения, проводить над средой эксперименты, очищать основной концерт системы или объекта от малозначимых деталей. И далее работать как Теория решения изобретательских задач (ТРИЗ) - совершенствовать и создавать интересующие системы из доступных сырья и элементов для достижения поставленных целей, в том числе определённых самим ИИ.

В обученной модели источники, которые были использованы в качестве “сырья” для LLM, можно будет проверять на соответствие действительности (осуществит фактчекинг), причём с учётом контекста задаваемого вопроса: если в источнике допущена неточность в контексте заданного вопроса, то источник значительно теряет рейтинг своей достоверности, если неточность вне контекста заданного вопроса - теряет незначительно. Собственно, изучая вопросы фактчекинга при помощи GPT я и пришёл к этим выводам.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий