Search
Write a publication
Pull to refresh
0
0.3
Send message

на выходе можно будет получать значительно более качественный код

Извините, но "значительно более средний код из обучающей выборки". Насколько он подходит к именно к вашему решению, зависит от того, был ли именно ваш кейс в обучающих данных.

Тоже интересно :)
Мой опыт общения с ЛЛМ намекает, что для изменения цвета одной кнопки нужно переписать всё приложение целиком...

Так как раз и вопрос: почему вес одних и тех же обоснований в разных задачах - разный? Причём без объяснений причин этих перетасовок :)

П.С. Переделки будут и во втором вопросе, о чём говорится прямо, т.к. "качество среднее", и в четвертом...
Но в четвертом вопросе вес переделок возрос, а вес укладывания в дедлайны - упал...

Хм... Странный пост, столько сразу к нему вопросов...
Но задам тот, что сильнее задел: почему во второй задаче скорость бьёт качество, а в четвертой наоборот - качество скорость? :)

Термоядерный синтез, вроде, начали всерьёз исследовать в 50х. И с тех самых пор говорили, что "вот-вот".

Это чем-то напоминает AGI :)

Нет, мне очень хочется увидеть ИИ, но я просто не могу представить, что надо сделать с вероятностной моделью, чтобы она, внезапно, начала мыслить....

А если AGI ещё не существует, если даже с полным определением возникают вопросы, то как вы пришли к этому утверждению? :)

Но что нужно, чтобы AI стал настоящим AGI?

Нужно объединить и замкнуть в себе (архитектурно) те три базовых фактора, о которых я писал выше: Грубую Силу, Качество и Эффективность.

А можно узнать, как выход в топ статьи "Как я продал помидоры на маркетплейсе на 100 млн рублей в год", особенно, если там интересные детали про автоматизацию выращивания, или отражение другого реального опыта, навело вас на мысль:

Так что утверждать, что аудитория "все как один не глупая и не однобокая" я бы не стал

Вы знаете... Не могу придумать такой задачи, ведь они прогрессируют даже в самых неожиданных XD

https://habr.com/p/920924/

Ох, а давайте не будем? :)
Ведь тогда придётся вывести полное и непротиворечивое определение слова "ум"... А потом как-то прикрутить к нему количественные показатели :(

Извините, но ваш сарказм строится на том, что тигр точно вырастет и может изменить своё поведение... Но про нейросетки такого сказать однозначно нельзя :)

так чем вы отличаетесь от компьютерного мозга, который будет делать то же самое?

Ничем :) Вот только компьютерного мозга, который будет делать то же самое не существует даже в теории пока.

Следуя вашей же логике, крокодилы ничем от нас не отличаются - у них тоже есть мозг, и они эволюционировали гораздо дольше нас... Но почему-то ни осознать себя, ни компьютер построить они не могут :)

Эм... Я вас правильно понял, вы только что приравняли LLM к человеку? О_о
У вас реально есть основания утверждать, что LLM сможет, я даже не знаю как правильно сформулировать... обучиться до уровня AGI? О_о

Я должен обнаружить чистоту и порядок, потому что готовить с утра мне не надо (агент это сразу обнаружит, что меня нет!), и у него высвободился ресурс времени, который он может потратить на уборку квартиры, хотя задачи перед ним такой не стояло

Совершенно верно. Как только изобретут AGI, так и будет...
Но в вашей парадигме, это будет не один агент, а два разных, узкоспециализированных. И чтобы отключить одного и расширить функции второго нужно будет решение человека :)

Можно, конечно, поставить над этими агентами ещё одного... Но если это будет не AGI, то он точно сгаллюционирует, приняв за вас кошку, облако, пыль, или словив ещё какое искажение, и вас по прибытию гарантированно будет ждать гора пропавших блинчиков :)

А вы упорный, хотя сами себе противоречите :)
Ещё раз.

То, на чем они сейчас спотыкаются и где тупят, это остается скажем 10-20% опыта и они легко закрываются при самостоятельном дообучении на получаемом опыте

LLM может ошибаться. Но это не проблема. Проблема в том, что имея огромные знания, он может ошибаться в самом элементарном, в том, в чём человек никогда не ошибётся имея подобные знания. Вы же сами дали правильное определение AGI:

полностью автономного агента

агент начинает действовать самостоятельно, то есть способен начать устранять ошибки без участия человек

Т.е. AGI может понять, что ошибся и сам устранить ошибки. Действующие LLM это сделать в принципе не могут. В вашей статье за них это делают люди. Т.е., исключить человека из связки агент-человек невозможно.
И как вы не масштабируйте эту модель, исключить из неё человека у вас не получится, значит, это не AGI ни в каком виде :)

Эм... Вы же сами дали определение AGI:

полностью автономного агента

агент начинает действовать самостоятельно, то есть способен начать устранять ошибки без участия человек

Вот это и есть AGI, вершина эволюции агента, о которой вы сами написали!

В этом определении главное - исключение человека, проверяющего результат или ставящего задачу :) И раз вы это написали сами, то суть AGI вам понятна...

Но в определении AGI, данном в статье, человек чуть ли не главный элемент, без которого невозможно функционирование распределённой AGI.

Поэтому я и хотел уточнить, если в такой системе человек - главное звено, то зачем вообще нужен агент? :)

Но теперь понимаю, что вы просто запутались в собственных рассуждениях :)

Оп :) Вот вы и попались :) Если долго философствовать не имея твёрдой базы, то обязательно споткнёшься о собственные рассуждения :)

А если эти инструменты сами усиливают и направляют волю человека, то достаточно их обучив мы не получим полностью автономного агента?

Вы консерватор, который не понимает, что если вы взаимодействуете с агентами для корректировки ошибок, то в какой-то момент времени агент начинает действовать самостоятельно, но есть способы начать устранять ошибки без участия человек?

Вот вы и дошли до определения AGI :)
И, к сожалению, на этом шаге все ваши предыдущие рассуждения превращаются в пыль :)
Как только агент сможет начать действовать самостоятельно, то он тут же станет AGI и другие "нейроны" для его определения станут не нужны :)

А если никогда не станет, то и смысла в агентах особо не будет. Связка агент-человек не сильно обходит связку человек-интернет. Если вообще обходит :)

Ещё раз.

Вы взяли за отдельный нейрон агента. Ок.
Но агент не будет работать без человека. Поэтому получается связка человек-агент. Ок.


Вы утверждаете, что связка человек-агент эффективнее, чем просто человек... Но насколько упадёт эффективность этой связки, если вместо агента поставить хорошую индексированную вики с нормальным (но не LLM) поиском? На данный момент - не сильно, если вообще упадёт. И появляется вопрос, зачем в этой нейронной модели вообще агенты и LLM?

Что делать, если определение слова мешает написать статью? Придумать слову своё определение! :)

AGI - это искусственный интеллект, который должен размышлять без участия человека, а то, о чём вы пишите - это вариант взаимодействия людей в первую очередь, а не ИИ. А в вашем варианте, вообще можно убрать агентов и LLM, оставив только людей в интернете, и смысл не поменяется :)

Всё, что раньше я считал говнокодом — перестало им быть.

А как это получилось? Как код со временем становится говнокодом - это понятно. Постоянный, можно сказать, процесс. А обратный случай? Просто я не представляю.

Да, код может работать, но ведь от этого он не перестаёт быть плохим? Да, предположим, в нем может быть заложены выдающиеся паттерны и гениальные идеи... но они могут быть плохо реализованы и плохой код не становится лучше из-за внезапно обнаруженной глубины...

1

Information

Rating
7,203-rd
Registered
Activity