на выходе можно будет получать значительно более качественный код
Извините, но "значительно более средний код из обучающей выборки". Насколько он подходит к именно к вашему решению, зависит от того, был ли именно ваш кейс в обучающих данных.
Так как раз и вопрос: почему вес одних и тех же обоснований в разных задачах - разный? Причём без объяснений причин этих перетасовок :)
П.С. Переделки будут и во втором вопросе, о чём говорится прямо, т.к. "качество среднее", и в четвертом... Но в четвертом вопросе вес переделок возрос, а вес укладывания в дедлайны - упал...
Хм... Странный пост, столько сразу к нему вопросов... Но задам тот, что сильнее задел: почему во второй задаче скорость бьёт качество, а в четвертой наоборот - качество скорость? :)
А можно узнать, как выход в топ статьи "Как я продал помидоры на маркетплейсе на 100 млн рублей в год", особенно, если там интересные детали про автоматизацию выращивания, или отражение другого реального опыта, навело вас на мысль:
Так что утверждать, что аудитория "все как один не глупая и не однобокая" я бы не стал
Ох, а давайте не будем? :) Ведь тогда придётся вывести полное и непротиворечивое определение слова "ум"... А потом как-то прикрутить к нему количественные показатели :(
Извините, но ваш сарказм строится на том, что тигр точно вырастет и может изменить своё поведение... Но про нейросетки такого сказать однозначно нельзя :)
так чем вы отличаетесь от компьютерного мозга, который будет делать то же самое?
Ничем :) Вот только компьютерного мозга, который будет делать то же самое не существует даже в теории пока.
Следуя вашей же логике, крокодилы ничем от нас не отличаются - у них тоже есть мозг, и они эволюционировали гораздо дольше нас... Но почему-то ни осознать себя, ни компьютер построить они не могут :)
Эм... Я вас правильно понял, вы только что приравняли LLM к человеку? О_о У вас реально есть основания утверждать, что LLM сможет, я даже не знаю как правильно сформулировать... обучиться до уровня AGI? О_о
Я должен обнаружить чистоту и порядок, потому что готовить с утра мне не надо (агент это сразу обнаружит, что меня нет!), и у него высвободился ресурс времени, который он может потратить на уборку квартиры, хотя задачи перед ним такой не стояло
Совершенно верно. Как только изобретут AGI, так и будет... Но в вашей парадигме, это будет не один агент, а два разных, узкоспециализированных. И чтобы отключить одного и расширить функции второго нужно будет решение человека :)
Можно, конечно, поставить над этими агентами ещё одного... Но если это будет не AGI, то он точно сгаллюционирует, приняв за вас кошку, облако, пыль, или словив ещё какое искажение, и вас по прибытию гарантированно будет ждать гора пропавших блинчиков :)
А вы упорный, хотя сами себе противоречите :) Ещё раз.
То, на чем они сейчас спотыкаются и где тупят, это остается скажем 10-20% опыта и они легко закрываются при самостоятельном дообучении на получаемом опыте
LLM может ошибаться. Но это не проблема. Проблема в том, что имея огромные знания, он может ошибаться в самом элементарном, в том, в чём человек никогда не ошибётся имея подобные знания. Вы же сами дали правильное определение AGI:
полностью автономного агента
агент начинает действовать самостоятельно, то есть способен начать устранять ошибки без участия человек
Т.е. AGI может понять, что ошибся и сам устранить ошибки. Действующие LLM это сделать в принципе не могут. В вашей статье за них это делают люди. Т.е., исключить человека из связки агент-человек невозможно. И как вы не масштабируйте эту модель, исключить из неё человека у вас не получится, значит, это не AGI ни в каком виде :)
агент начинает действовать самостоятельно, то есть способен начать устранять ошибки без участия человек
Вот это и есть AGI, вершина эволюции агента, о которой вы сами написали!
В этом определении главное - исключение человека, проверяющего результат или ставящего задачу :) И раз вы это написали сами, то суть AGI вам понятна...
Но в определении AGI, данном в статье, человек чуть ли не главный элемент, без которого невозможно функционирование распределённой AGI.
Поэтому я и хотел уточнить, если в такой системе человек - главное звено, то зачем вообще нужен агент? :)
Но теперь понимаю, что вы просто запутались в собственных рассуждениях :)
Оп :) Вот вы и попались :) Если долго философствовать не имея твёрдой базы, то обязательно споткнёшься о собственные рассуждения :)
А если эти инструменты сами усиливают и направляют волю человека, то достаточно их обучив мы не получим полностью автономного агента?
Вы консерватор, который не понимает, что если вы взаимодействуете с агентами для корректировки ошибок, то в какой-то момент времени агент начинает действовать самостоятельно, но есть способы начать устранять ошибки без участия человек?
Вот вы и дошли до определения AGI :) И, к сожалению, на этом шаге все ваши предыдущие рассуждения превращаются в пыль :) Как только агент сможет начать действовать самостоятельно, то он тут же станет AGI и другие "нейроны" для его определения станут не нужны :)
А если никогда не станет, то и смысла в агентах особо не будет. Связка агент-человек не сильно обходит связку человек-интернет. Если вообще обходит :)
Вы взяли за отдельный нейрон агента. Ок. Но агент не будет работать без человека. Поэтому получается связка человек-агент. Ок.
Вы утверждаете, что связка человек-агент эффективнее, чем просто человек... Но насколько упадёт эффективность этой связки, если вместо агента поставить хорошую индексированную вики с нормальным (но не LLM) поиском? На данный момент - не сильно, если вообще упадёт. И появляется вопрос, зачем в этой нейронной модели вообще агенты и LLM?
Что делать, если определение слова мешает написать статью? Придумать слову своё определение! :)
AGI - это искусственный интеллект, который должен размышлять без участия человека, а то, о чём вы пишите - это вариант взаимодействия людей в первую очередь, а не ИИ. А в вашем варианте, вообще можно убрать агентов и LLM, оставив только людей в интернете, и смысл не поменяется :)
Всё, что раньше я считал говнокодом — перестало им быть.
А как это получилось? Как код со временем становится говнокодом - это понятно. Постоянный, можно сказать, процесс. А обратный случай? Просто я не представляю.
Да, код может работать, но ведь от этого он не перестаёт быть плохим? Да, предположим, в нем может быть заложены выдающиеся паттерны и гениальные идеи... но они могут быть плохо реализованы и плохой код не становится лучше из-за внезапно обнаруженной глубины...
Извините, но "значительно более средний код из обучающей выборки". Насколько он подходит к именно к вашему решению, зависит от того, был ли именно ваш кейс в обучающих данных.
Тоже интересно :)
Мой опыт общения с ЛЛМ намекает, что для изменения цвета одной кнопки нужно переписать всё приложение целиком...
Так как раз и вопрос: почему вес одних и тех же обоснований в разных задачах - разный? Причём без объяснений причин этих перетасовок :)
П.С. Переделки будут и во втором вопросе, о чём говорится прямо, т.к. "качество среднее", и в четвертом...
Но в четвертом вопросе вес переделок возрос, а вес укладывания в дедлайны - упал...
Хм... Странный пост, столько сразу к нему вопросов...
Но задам тот, что сильнее задел: почему во второй задаче скорость бьёт качество, а в четвертой наоборот - качество скорость? :)
Тонко :)
Термоядерный синтез, вроде, начали всерьёз исследовать в 50х. И с тех самых пор говорили, что "вот-вот".
Это чем-то напоминает AGI :)
Нет, мне очень хочется увидеть ИИ, но я просто не могу представить, что надо сделать с вероятностной моделью, чтобы она, внезапно, начала мыслить....
А если AGI ещё не существует, если даже с полным определением возникают вопросы, то как вы пришли к этому утверждению? :)
А можно узнать, как выход в топ статьи "Как я продал помидоры на маркетплейсе на 100 млн рублей в год", особенно, если там интересные детали про автоматизацию выращивания, или отражение другого реального опыта, навело вас на мысль:
Вы знаете... Не могу придумать такой задачи, ведь они прогрессируют даже в самых неожиданных XD
https://habr.com/p/920924/
Ох, а давайте не будем? :)
Ведь тогда придётся вывести полное и непротиворечивое определение слова "ум"... А потом как-то прикрутить к нему количественные показатели :(
Извините, но ваш сарказм строится на том, что тигр точно вырастет и может изменить своё поведение... Но про нейросетки такого сказать однозначно нельзя :)
Ничем :) Вот только компьютерного мозга, который будет делать то же самое не существует даже в теории пока.
Следуя вашей же логике, крокодилы ничем от нас не отличаются - у них тоже есть мозг, и они эволюционировали гораздо дольше нас... Но почему-то ни осознать себя, ни компьютер построить они не могут :)
Эм... Я вас правильно понял, вы только что приравняли LLM к человеку? О_о
У вас реально есть основания утверждать, что LLM сможет, я даже не знаю как правильно сформулировать... обучиться до уровня AGI? О_о
Совершенно верно. Как только изобретут AGI, так и будет...
Но в вашей парадигме, это будет не один агент, а два разных, узкоспециализированных. И чтобы отключить одного и расширить функции второго нужно будет решение человека :)
Можно, конечно, поставить над этими агентами ещё одного... Но если это будет не AGI, то он точно сгаллюционирует, приняв за вас кошку, облако, пыль, или словив ещё какое искажение, и вас по прибытию гарантированно будет ждать гора пропавших блинчиков :)
А вы упорный, хотя сами себе противоречите :)
Ещё раз.
LLM может ошибаться. Но это не проблема. Проблема в том, что имея огромные знания, он может ошибаться в самом элементарном, в том, в чём человек никогда не ошибётся имея подобные знания. Вы же сами дали правильное определение AGI:
Т.е. AGI может понять, что ошибся и сам устранить ошибки. Действующие LLM это сделать в принципе не могут. В вашей статье за них это делают люди. Т.е., исключить человека из связки агент-человек невозможно.
И как вы не масштабируйте эту модель, исключить из неё человека у вас не получится, значит, это не AGI ни в каком виде :)
Эм... Вы же сами дали определение AGI:
Вот это и есть AGI, вершина эволюции агента, о которой вы сами написали!
В этом определении главное - исключение человека, проверяющего результат или ставящего задачу :) И раз вы это написали сами, то суть AGI вам понятна...
Но в определении AGI, данном в статье, человек чуть ли не главный элемент, без которого невозможно функционирование распределённой AGI.
Поэтому я и хотел уточнить, если в такой системе человек - главное звено, то зачем вообще нужен агент? :)
Но теперь понимаю, что вы просто запутались в собственных рассуждениях :)
Оп :) Вот вы и попались :) Если долго философствовать не имея твёрдой базы, то обязательно споткнёшься о собственные рассуждения :)
Вот вы и дошли до определения AGI :)
И, к сожалению, на этом шаге все ваши предыдущие рассуждения превращаются в пыль :)
Как только агент сможет начать действовать самостоятельно, то он тут же станет AGI и другие "нейроны" для его определения станут не нужны :)
А если никогда не станет, то и смысла в агентах особо не будет. Связка агент-человек не сильно обходит связку человек-интернет. Если вообще обходит :)
Ещё раз.
Вы взяли за отдельный нейрон агента. Ок.
Но агент не будет работать без человека. Поэтому получается связка человек-агент. Ок.
Вы утверждаете, что связка человек-агент эффективнее, чем просто человек... Но насколько упадёт эффективность этой связки, если вместо агента поставить хорошую индексированную вики с нормальным (но не LLM) поиском? На данный момент - не сильно, если вообще упадёт. И появляется вопрос, зачем в этой нейронной модели вообще агенты и LLM?
Что делать, если определение слова мешает написать статью? Придумать слову своё определение! :)
AGI - это искусственный интеллект, который должен размышлять без участия человека, а то, о чём вы пишите - это вариант взаимодействия людей в первую очередь, а не ИИ. А в вашем варианте, вообще можно убрать агентов и LLM, оставив только людей в интернете, и смысл не поменяется :)
А как это получилось? Как код со временем становится говнокодом - это понятно. Постоянный, можно сказать, процесс. А обратный случай? Просто я не представляю.
Да, код может работать, но ведь от этого он не перестаёт быть плохим? Да, предположим, в нем может быть заложены выдающиеся паттерны и гениальные идеи... но они могут быть плохо реализованы и плохой код не становится лучше из-за внезапно обнаруженной глубины...