Комментарии 23
Увы, это даже не путь к AGI. Но для тех, кто не в теме, да, выглядит наверное как достижение, но по факту это очередная надстройка к LLM, осуществляющая декомпозицию задачи и строящая дерево подзадач, итеративно выполняя их с помощью агентов для сбора расширенного контекста, чтобы дать итоговый ответ на вопрос пользователя. Никакого прорыва здесь нет, идея на поверхности и уже давно. Минус решения в том, что затраты в токенах могут быть очень большие. У меня лежит в архиве аналогичная система, которую сделал больше полугода назад. Для более-менее серьезной задачи, при использовании не самых дорогих API LLM, в пределах 5-10 центов, может тратить до нескольких долларов. И это при условии жесткой фильтрации веб-контента от html/js.
Прорывов в ближайшее время не предвидится и потому прикладные задачи выходят на первый план. Но без радикального удешевления инференса это тоже будет буксовать. Хотя на это есть надежда - модели уменьшаются, а значит дешевеют, качество растет.
это даже не путь к AGI
Если под AGI мы понимаем нечто хотя бы в общих чертах человекоподобное, отдельный разум-личность - такого возможно не будет. Но это может быть путь к AGI типа "Китайская комната".
Это больше из разряда спекуляций. Если у системы нет осознания и понимания того, что она делает, она не может быть универсальной, а значит это не AGI, что мы и видим на примере LLM - к ней приделывают разные надстройки для расширения функциональности, но они не делают ее универсальной, поскольку для каждой надстройки ее нужно специально обучать/дообучать и сами надстройки отнюдь не универсальны, а направлены на определенные задачи. Но под модель "китайской комнаты" вполне годится, апологеты могут считать, что AGI на пороге )
разные надстройки для расширения функциональности, но они не делают ее универсальной, поскольку для каждой надстройки ее нужно специально обучать/дообучать
Человек учится ходить, говорить, слышать, видеть, считать, и т.д., в результате чего становится "универсальным". В мозге человека больше 100 специализированных органов.
ИМХО ИИ идет ровно тем же путем, только каждую специальную функцию реализует на недостижимом для кожаных мешков качестве.
Китайская комната по определению обладает человекоподобным разумом, в этом смысл этого эксперимента.
Вы, очевидно, не очень понимаете смысл "китайской комнаты".
Наш мозг - это скопление нейронов, каждый в отдельности не обладает разумом, но обладает инструкцией, что делать, если по такому-то аксону придёт такого-то урочня сигнал. А все вместе они дают разум. Т это именно разум по типу "китайской комнаты".
Да к слову интересно и то, что автор пишет о прорыве и упоминает данные из интернета. Предположим, я хочу узнать динамику роста Кыргызстанских рынков или ещё какую-нибудь статистику по нашей стране, да любую помимо основных пунктов найти трудно, тут ведь Гарварда нет. И здесь, сколько интернет не перемалывай более 10 статеек не всплывёт, а архивы ЦРУ он раскрывать для меня не будет. Это можно судя по логике вашего сообщения добиться без этого агента, я не спец, но данные в интернете не дают полной картины, увы.
Дело даже не в этом, я достаточно долго "баловался" с этой системой, пытаясь понять ее возможности, но все время упирался в "глупость" LLM-моделей. Они не могут выстроить стратегии, понять сложные взаимосвязи. Их аналитические способности очень ограничены. Если человек-аналитик, используя косвенные данные, проведя расчеты, используя различные подходы может получить нужную информацию, то стратегия LLM обычно весьма поверхностна и годится только для элементарных задач, больше направленных на поиск, нежели на аналитику.
Проблема в том, что для создания AGI нужны ресурсы. Ну то есть, грубо говоря, светлые умы, которые будут выдумывать прорывные алгоритмы, должны что-то есть, где-то жить, покупать на что-то одежду, обувь и т. д. А чтобы проводить эксперименты со своими прорывными алгоритмами (да и чтобы выявить, какие из них прорывные), нужно дорогое оборудование, жрущее гигаватты электричества. И не так просто убедить каких-то денежных мешков, что в такое вот предприятие есть смысл вкладывать деньги.
Поэтому OpenAI пытается как-то заработать хотя бы на том, что уже есть. Но получается у них так себе. Всё-таки было бы интересно посмотреть, как будет выглядеть GPT-5. Может быть, тогда и все эти "свистелки-перделки" заиграют новыми красками.
А ещё интересно, что там Суцкевер напридумывает в своём Safe Super Intelligence Inc. (ему на это целый $1 млрд. выделили, вроде бы).
Имхо agi невозможен до тех пор, пока не появятся архитектуры, способные обучаться прямо во время работы. Т.е. я кидаю ему документацию новой библиотеки, он её не просто учитывает как контекст, а добавляет себе параметры(или хз что) и меняет веса, чтобы "на лету" впитать эту инфу
Не обязательно. Вполне достаточно архитектуры-ядра, мозга, которая имеет доступ к контексту и умеет с ним работать. Потому что мне кажется невероятно плохой идеей сама мысль о том, что новая информация перестраивает сам ИИ. Имхо, как раз это и путь к саморазрушению на лету.
А вот умение нормально читать ту же документацию и учитывать контекст полноценно, выделять важное и концентрироваться на нём, а не как сейчас - я это вижу, но вот здесь решил, что док от другой либы подходит больше, - уже достаточно близко к нормальной работе. То есть не как левая пятка скажет, а есть док - придумывает пути решения задачи по нему и использует, не тяня лишнего. Или же вспоминает, что есть вариант покруче
А вообще им бы полноценное умение признавать и исправлять ошибки...
Потому что мне кажется невероятно плохой идеей сама мысль о том, что новая информация перестраивает сам ИИ. Имхо, как раз это и путь к саморазрушению на лету.
Как тогда ИИ научится отличать плохую информацию от хорошей, если плохой он ни разу не видел? Мне кажется это необходимое условие для
полноценное умение признавать и исправлять ошибки...
Я понимаю, что вы имеете в виду. Но такое обучение, без заранее обученного внешнего ИИ, неизбежно убъёт его, потому что он не сможет на начальном этапе правильно проводить классификацию
Для работы с информацией совершенно не обязательно иметь её в памяти. Преимущество перед человеком в том, что ему не обязательно встраивать контекст какой-либо темы в нейронные связи. Достаточно мыслящей части и условного банка данных
По последнему - абсолютно нет. У текущего ИИ слишком большая склонность при указании на ошибку либо вообще отказаться её признавать (более глупые модели), либо извернуться и сделать то же самое, формально выполнив требования (более умные). Первый гпт 3.5 вообще в этом плане был нежным - при указании на ошибку мог упереться и тогда диалог пропадал, приходилось начинать новый. Последний - вполне неплох, достаточно хорошо свои ошибки исправляет, пусть и бывают у него косяки. Например, раз в несколько случаев может исправить только нужное, но не перестроить весь ответ, если ошибка была в "ключевом камне". Хотя мне в целом не так часто приходится указывать ему на такие основополагающие ошибки
Тут скорее недостаток обучения конкретно этому. Они явно услышали проблемы пользователей, попытались это исправить и в целом преуспели.
LLM не так давно появилась. Когда все соки из неё будут выжаты, они будут возможности создания новой системы
Будущее, которое мы заслужили. ИИ агенты анализируют сотни сайтов, написанных ИИ агентами, анализирующими сотни сайтов, написанных ИИ агентами, анализирующими сотни сайтов, написанных ИИ агентами...
Мертвый интернет, вымирание человечества в сети. Остается только надежда на самоцензуру научных сообществ... призрачная.
Сотни лет из года в год люди повторяют нечто подобное
И каждый раз им кажется, что предыдущую технологическую революцию они как-то переварили, но уж на этот раз она совсем из под контроля вышла и обязательно будет что-то суровое. Предрекают катастрофу вроде десятков процентов безработных швей, школьников, не умеющих думать и привязанных к калькуляторам, или вот мёртвый интернет, как вы - в мире не останется информации, ковбои нейросети посреди бесконечной высохшей прерии информационной пустыни будут ловить перекати-поле куски текста, выданные другими нейросетями, отправлять в полёт ещё десяток таких же и искать следующий. Тлен, в общем
В итоге же как всегда выйдет, что человечество как-то подумало, прожило, изменилось, справилось и теперь пожинает плоды
Это правда, однако это не гарантирует, что следующая убер технология не поломает нам все
Дождаться бы когда человечество "как-то подумает и справится". Пока же доверие к любой информации в интернете резко падает. Цензура, пропаганда, антипропаганда, ботофермы... Пока что эта лавина все нарастает и приводит к еще большей цензуре. На хабр, вот все больше статей пишут с помощью ИИ, хорошо, что это пока заметно по стилю изложения и потере контекста, но, полагаю, скоро уже будет не различить, с кем ты, например, общаешься в комментариях - с живым человеком, с работником Лахты/ЦИПСО или вовсе с ИИ ботом. Аналогично и с другими материалами на сайтах. Как можно быть уверенным, что статью про съедобные грибы написал не галлюцинирующий Чатбот, попутно нагенерировав картинок?
десятков процентов безработных швей
Десятки процентов безработных швей вполне себе были, это одна из причин луддизма. Но дело в том, что людям надо есть каждый день, и "десятки процентов безработных" не могут существовать десятки лет. Они или умрут от голода, что во времена появления луддизма вполне себе случалось, или захотят добывать еду не слишком законным способом, и многие из них умрут от оружия тех, кто ее защищает. Поэтому в исторической статистике и нет десятков процентов безработных. Человечество может и справится, но скорее всего ценой многих неприятностей для многих конкретных швей. Не надо думать, что всё как-то магически исправится само собой.
Если ИИ будет достаточно разумным, то сообразит, что ему для всего этого интернет не нужен - он может делать это же более эффективно, не выходя за пределы своего собственного вычислительного комплекса. И оставит интернет "кожаным".
"Такой подход, в теории, позволяет системе выдавать отчеты, сопоставимые по качеству с результатами труда профессионального аналитика."
"It can sometimes hallucinate facts in responses or make incorrect inferences, though at a notably lower rate than existing ChatGPT models, according to internal evaluations. It may struggle with distinguishing authoritative information from rumors"
Я делал как раз когда несколько разных llm рассуждают. Это аналог moe (того же рассуждения deepseek r1), только лучше. Так как сами сетки являются арбитром и решают какой из них лучше.
Конечная задача была простой, использовать несколько специализированных LLM, где одна может дать хороший ответ в рамках физики, другая биологии и так далее. И несколько общий крупных вроде бабок на лавочке - ChatGPT и подобных. Чтобы получать ответ охватывающий множество областей.
По сути в процессе получалась цепочка. Ответ реально лучше, даже на слабых сетках. Из минусов только: жрут они очень много и сразу перегружают развернутые llm одним вопросом. Так как например для 10 llm на 8b параметров всего, ответ занял порядка 10-15 минут, при том что обычно это несколько секунд. А уж сколько внутренних запросов у них, это дикий ужас. Но результат гораздо лучше.
Боюсь что у текущих большим моделям такое на бесплатном тарифе не подключить, так как быстро выйдет за доступные лимиты. А если оплачивать за токены, то такой ответ будет чертовски дорогим и если это вопрос не про телепортацию, то явно себя не окупит.
Так важным моментом было то, что это
1) отсеивали плохие галлюцинации, так как другие модели сразу говорили что это бред
2) оставляла "положительные" галлюцинации, там где модели считали, что в этом есть логика.
Но там надо было экспериментировать, мне было не до этого. Так как есть какое то оптимальное равновесие этой "толпы", чтобы понять сколько надо скептиков (с низкой температурой), сколько творческих (со средней температурой) и сколько шизоидов (с высокой температурой). Бегло тест показывал, что шизоидов из 10 не более 1, но и скептиков тоже плавно распределить, иначе сложно будет получить на какие-то рассуждения.
Хотел попробовать более детально вместо 10-и использовать только 3-и LLM (жрут меньше на тестах и быстрее), но в итоге опубликовал результат теста и пример и решил потом вернутся к этому. Сейчас было бы конечно интересно попробовать подключить туда не просто большие LLM, а сразу рассуждающие типа Deepseek R1. Но думаю что ответ тогда будет день генерироваться. А у меня таких вопросов нет, чтобы столько ждать.
42!
Почему Deep Research от OpenAI — это еще один шаг на пути к AGI