Alex Gusev @flancer
Я кодирую, потому что я кодирую…
Information
- Rating
- 867-th
- Location
- Рига, Латвия, Латвия
- Date of birth
- Registered
- Activity
Specialization
Fullstack Developer
Lead
From 3,000 €
JavaScript
HTML
CSS
Node.js
Vue.js
Web development
Progressive Web Apps
PostgreSQL
MySQL
GitHub
Какой толк вообще от всего, если Тепловая смерть Вселенной наступит с вероятностью 100%? Но коммент свой вы всё-таки написали.
Полагаю, у всех есть поводы делать то, что они делают, просто остальные не все и не всегда могут эти поводы понять. Вернее, все всё понимают лишь на доступном им уровне. Включая и вас, и меня, и автора публикации.
"Современные" - не отберут, а вот из "ближайшего будущего" - возможны варианты.
Н-да, как-то неоднозначно выглядит. Лучше так:
Наше внимание - это тоже ресурс. И тратить его нужно эфффективно.
Спасибо за смелость, комментатор! Не каждому хватит духа публично признаться, что он чего-то там не понимает.
Если коротко, то автор хотел донести следующее:
Там ещё пара-тройка следствий из констатации этого факта, но это не всем интересно по причине, указанной выше.
Что характерно, в самом начале публикацию плюсовали - это были те, кто мониторят хабро-ленту и "держат руку на пульсе", пропуская через себя огромный объём информации. Это на них и их проблемы ориентирована публикация.
Через 30 с лишним часов после публикации (примерно в районе полутора суток) подтянулись люди, скажем так - с другим ритмом жизни, и пошли минуса и комментарии про "нейроговноконтент".
Вообще-то, если смотреть статистику, то эта публикация в целом чуть более интересная, чем последние 50 публикаций автора в среднем:
Люди разные и понимают, что хотел сказать автор, по-разному. В силу своих возможностей. Но я честно указал, что уровень материала "Сложный".
Я сформирую мнение о пересказе нейронкой идей автора. И на основании этого сформирую мнение, знакомиться ли с идеями автора ближе или мне это не нужно. В потоке информации для меня главное - резонанс. Если нет созвучия внешней идеи моей внутренней картине мира, я не буду даже пытаться втиснуть эту идею в мою картину.
Моё внимание - это тоже ресурс. И тратить его нужно эфффективно.
Я видел кучу роликов в сети, где водители путают педали тормоза с педалью газа. Вы уверены, что крутили руль, а не радиостанцию в приёмнике пытались поменять?
Вот пример "специально подобранной для LLM задачи". Причём, расширяющийся контекст - входной запрос меньше результата по размеру. Это потому, что Модель хорошо знает (типовую) предметную область и ей не надо ставить "якоря" для генерации.
P.S.
Там есть ошибка в постановке задачи - сервис должен называться `redis-server`. Но в моём проекте (группа диалогов без публичного доступа) аналогичный запрос дал рекомендацию по проверке имён сервисов:
Да, два ответа были разные, но оба задачу решили (в рамках постановки) - сушествующие сервисы запускаются и останавливаются.
Давняя история...
Приятно видеть, что DI все шире проникает в JS мир, пусть и в TS-версии его.
Будет зависеть от навыков "водителя" и от области применения. Кое-где кое с кем - да, выйдет на две девятки. Но это когда курсы нормальные сделают.
... для тех, кто окончил курсы вождения.
Может быть именно в этом дело - нужно для начала научить людей использовать LLM, а не "ездить на автомобиле по песку"? Автомобиль хорош в определённых условиях. Впрочем, как и любой другой инструмент.
Автомобиль - инструмент или нет? Но некоторые люди его не слишком хорошо контролируют и таки создают аварии. Учитесь контролировать LLM тщательнее и лучше понимать результат - будет и вам LLM инструментом.
А вот это интересно - TypeScript или JS?
Да, коллеги @meeliname и @TheHard правы - с подпиской Plus есть какое-то количество кредитов (раньше меня либо не лимитировали, либо я не доходил до лимитов), которые можно использовать с Кодексом в их облаке через веб-интерфейс. Всё, что нужно для работы с кодом в репозитории на GitHub'е - браузер. Можно даже из мобильного телефона ставить задачу и мониторить результат. Вот отчёт Кодекса о проделанной работе:
А это - этот же отчёт после слияния PR'а.
Так что IDE может быть любой (я перешёл на VSCode с PHPStorm), а можно и вообще без IDE. Я так в режиме эксперимента добавлял с мобильного странички на свой сайт прямо из поезда. Ставишь задачу через браузер Кодексу, мёржишь результат и выкатываешься через GitHub Actions, тоже через браузер. Если всё работает, то и ОК, а если что сломалось - то ты едешь в поезде и у тебя есть только мобильный.
энергосбережение на мобильных устройствах
Я просто показал, что в определённых пределах возможна воспроизводимость результата и в нейросетке. Да, Вы совершенно правы, что `echo $((2 ** 5))` гораздо экономнее по ресурсам. Но если бы человечество стремилось к экономному расходованию ресурсов, то мы бы ездили на лошадях, а не жгли невозобновляемое топливо в ДВС.
Считаю, что у подобной воспроизводимости, как и у много другого, есть свои границы применимости. Но мы их пока не знаем.
Храню. Только не промпты, а документацию - когнитивный контекст, который агент (и человек) может использовать для генерации/исправления кодовой базы.
Точно. Но ведь это же не важно. Вы же не смотрите, насколько точно совпадает бинарный код, сделанный различными компиляторами?
Я не утверждаю, что ситуация с бинарниками и исходниками идентичная, я лишь говорю, что она аналогичная. Можно при достаточно богатом воображении увидеть параллели. А можно не увидеть, при желании.
Для этого специально ввели seed & temperature, не так ли?
Попробуйте вот этот запрос в разных диалогах
Сколько будет два в пятой степени? Будь максимально краток. Результат выведи одним числом. Без знаков препинания и форматирования.
Возможно - да, но это надо проверить.
Вы хотите склонить меня к какой-то из сторон или просто поинтересовались на какой я стороне? Какую бы из сторон я б ни выбрал, с других сторон всегда прилетит возражение. Считайте просто, что я не функционалист.
Мышление - это процесс познания окружающего мира субъектом. Лично я считаю, что LLM не обладают субъектностью. Возможно вы встречались уже с признаками субъектности у LLM, я пока с таким не встретился. Как встречусь - сразу же изменю свою точку зрения. Мне не сложно.
У меня память включена, вся, что возможна. Но до какого-то момента контекст текущего диалога доминировал над контекстом остальных диалогов. Модель принимала во внимание другие диалоги но не игнорировала указания текущего. У меня в этом проекте под десяток диалогов в день получался, а то и поболее. И они постепенно становились типовыми, поэтому делались на основании шаблонов запросов (copy-paste) и поведение Модели было привычным. А тут не просто "отупение", а просто какая-то перепривязка контекста - к одному из предыдущих вместо текущего. Как будто текущий подмешан в старый контекст, а не старый контекст в текущий.
В общем, народ в OpenAI люто экспериментирует, что в целом хорошо, но делает это перманентно и без объявления чего-как, что создаёт ощущение внезапности.