Pull to refresh
48
11.3
Alex Gusev @flancer

Я кодирую, потому что я кодирую…

Send message

потом сделал свою с Dependency Injection

А вот это интересно - TypeScript или JS?

Да, коллеги @meeliname и @TheHard правы - с подпиской Plus есть какое-то количество кредитов (раньше меня либо не лимитировали, либо я не доходил до лимитов), которые можно использовать с Кодексом в их облаке через веб-интерфейс. Всё, что нужно для работы с кодом в репозитории на GitHub'е - браузер. Можно даже из мобильного телефона ставить задачу и мониторить результат. Вот отчёт Кодекса о проделанной работе:

А это - этот же отчёт после слияния PR'а.

Так что IDE может быть любой (я перешёл на VSCode с PHPStorm), а можно и вообще без IDE. Я так в режиме эксперимента добавлял с мобильного странички на свой сайт прямо из поезда. Ставишь задачу через браузер Кодексу, мёржишь результат и выкатываешься через GitHub Actions, тоже через браузер. Если всё работает, то и ОК, а если что сломалось - то ты едешь в поезде и у тебя есть только мобильный.

энергосбережение на мобильных устройствах

Я просто показал, что в определённых пределах возможна воспроизводимость результата и в нейросетке. Да, Вы совершенно правы, что `echo $((2 ** 5))` гораздо экономнее по ресурсам. Но если бы человечество стремилось к экономному расходованию ресурсов, то мы бы ездили на лошадях, а не жгли невозобновляемое топливо в ДВС.

Как Вы считаете, в случае более сложно запроса не придётся прикладывать к запросу БЯМ и её настройки целиком, чтобы гарантировать воспроизведение результата в будущем?

Считаю, что у подобной воспроизводимости, как и у много другого, есть свои границы применимости. Но мы их пока не знаем.

Вы храните промпты в системе контроля верси

Храню. Только не промпты, а документацию - когнитивный контекст, который агент (и человек) может использовать для генерации/исправления кодовой базы.

А во-вторых, на один и тот же промпт сегодня модель выдала такой результат, а завтра выдаст другой.

Точно. Но ведь это же не важно. Вы же не смотрите, насколько точно совпадает бинарный код, сделанный различными компиляторами?

Я не утверждаю, что ситуация с бинарниками и исходниками идентичная, я лишь говорю, что она аналогичная. Можно при достаточно богатом воображении увидеть параллели. А можно не увидеть, при желании.

результат работы нейросети по сути не воспроизводим.

Для этого специально ввели seed & temperature, не так ли?

Попробуйте вот этот запрос в разных диалогах

Сколько будет два в пятой степени? Будь максимально краток. Результат выведи одним числом. Без знаков препинания и форматирования.

Это не следующий уровень абстракции кода, а черти-что.

Возможно - да, но это надо проверить.

По этому вопросу нет консенсуса. 

Вы хотите склонить меня к какой-то из сторон или просто поинтересовались на какой я стороне? Какую бы из сторон я б ни выбрал, с других сторон всегда прилетит возражение. Считайте просто, что я не функционалист.

Мышление - это процесс познания окружающего мира субъектом. Лично я считаю, что LLM не обладают субъектностью. Возможно вы встречались уже с признаками субъектности у LLM, я пока с таким не встретился. Как встречусь - сразу же изменю свою точку зрения. Мне не сложно.

У меня память включена, вся, что возможна. Но до какого-то момента контекст текущего диалога доминировал над контекстом остальных диалогов. Модель принимала во внимание другие диалоги но не игнорировала указания текущего. У меня в этом проекте под десяток диалогов в день получался, а то и поболее. И они постепенно становились типовыми, поэтому делались на основании шаблонов запросов (copy-paste) и поведение Модели было привычным. А тут не просто "отупение", а просто какая-то перепривязка контекста - к одному из предыдущих вместо текущего. Как будто текущий подмешан в старый контекст, а не старый контекст в текущий.

В общем, народ в OpenAI люто экспериментирует, что в целом хорошо, но делает это перманентно и без объявления чего-как, что создаёт ощущение внезапности.

Вы абсолютно правы по всем пунктам. Т.е., Модели (не ИИ!!) нельзя использовать так же, как люди используют людей. Просто пока мало кто понимает, как их нужно использовать правильно. Но много уже кто понимает, как их не нужно использовать.

а ИИ формально перечисляет, что изменилось, т.е. тоже мусорит.

Иногда перечисление - не мусор, а просто сжатая информация.

 и с таким кодом потом невозможно работать.

Ну, вы же с бинарниками напрямую не работаете. Вот и вайб-кодеры так же. Кстати, для одноразовых программ вай-код - самое то. Повайбкодил, запустил, программка свою работу сделала - можно выкидывать. Shell-скрипты у Моделек отменно получаются. Да, нужно немного понимать, что за команды там используются. Ну или применять их в контейнерах.

Кто то ещё заметил изменения в своих сеансах?

Я заметил :( В ChatGPT есть "проекты" - группы диалогов с общим набором документов и общим системным промптом. Было очень удобно специализировать и группировать диалоги по темам. Но дня четыре назад заметил, что пошла мощная протечка контекста из других диалогов в текущий. Т.е., сказанное в предыдущих диалога не давало в новом диалоге исследовать другую гипотезу - модель упорно сворачивала на предыдущую тему и аргументировала это, что "ей кажется, что так будет лучше". Раньше share'ился только системный промпт и документы проекта. Была ещё какая-то выжимка из других диалогов проекта, но не такая "магнитная" - настолько сильно тему не сворачивала.

Создал другой проект и работаю в нём, а потом перекидываю диалоги в старый проект. В одном проекте разделяю контекст диалогов, в другом - храню сами диалоги.

А что касается интеллекта Модели, то он там настолько нестабильный, что я даже использую термин "эти дни", хоть он у меня и "он". В эти дни я переключаюсь на четвёрку.

Мы говорим Ленин ИИ, подразумеваем - партия LLM :)

LLM - это инструмент, как его использовать - зависит от пользователя, а не от того, кто требует, чтобы этот инструмент использовался. И - да, LLM не способны к мышлению, только к перестановке слов в предложениях. Хотя некоторые люди и этого толком не умеют.

Лично я пробую смотреть на исходный программный код, как на бинарники. Мы же не лезем в бинарники и не правим их напрямую - мы правим исходный код, а компиляторы создают бинарники.

Так и здесь - я правлю когнитивный контекст, который позволяет Моделям создавать исходный код, который выполняется интепретатором (я на JS). Получается отвратительно, но интригующе.

Нужно очень активное участие человека во всех процессах разработки, чтобы в этой замкнутой системе не росла энтропия.

Абсолютно верно. Человек должен по-другому управлять этим инструментом, чтобы получать нужный результат. И пока человеки ещё не осознают, как именно это делать и возможно ли это в принципе.

Но можно просто использовать Модели для создания комментов к коммитам - вот это у LLM получается прекрасно. И пусть хоть кто-то попробует сказать, что это не "использование ИИ в разработке"!!

Я таки надеюсь, что это на почве личной неприязни ко мне, а не иллюстрация к публикации, что "со-знание - социальный конструкт".

Если в общественном сознании укоренилась мысль, что "алгоритм - это что угодно, но только не то, что выполняет процессор", то я смогу лишь констатировать, что общество стало другим, чем было, когда я учился в универе.

Надеюсь, что всё-таки личная неприязнь - это хотя бы говорит о стабильности.

То есть теперь нам надо делить знания на трушные и на не-?

Ну так это всегда так было! Джордано Бруно сожгли за то, что его убеждения противоречили общественным. А так-то он был прав.

Очень похоже на то, что чатгпт не выдумал нового знания, а пережевал существующее.

Новые знания зачастую просто комбинация уже известного ("скорость" "света" "конечна" - каждое понятие было известно до Эйнештейна, но именно в такой комбинации до Эйнштейна её никто не применял к объяснению накопившихся противоречий). А комбинирование - это то, что делают нейронки.

Просто добавьте исключение на "Загрузка сознания" в gpt-чат по ссылке и нейронка сгенерирует другое "новое знание".

Я ни в коей мере не имел в виду, что это трушное знание, я показывал, как Модель может порождать новое знание. А насколько оно трушное - это к специалистам. Я в таком не разбираюсь.

Да, если бы за минус в карму кого-то пользователь платил своей кармой - минусов было бы значительно меньше.

Что у кого-то с кем-то есть значительные когнитивные противоречия. Как бы "карма" для того и введена, чтобы было понятно, насколько серьёзно лично вам нужно относиться к возникшим противоречиям с другими хабровцами. Стоит ли их игнорить или стоит внимательно обдумать возражения.

Если бы можно было заносить некоторых пользователей в ЧС - можно было бы сэкономить время. Зато в этом варианте можно прокачать иммунитет к оскорблениям :) Это и в оффлайне пригодится.

Интересно, как меньшая часть выживает большую? Почему "плохиши" могут объединиться, а "доброхоты" - нет?

Попробуйте применить "принцип добра": Добро всегда побеждает зло, кто победил - тот и добр!

Я всегда себя этим утешаю, если остаюсь в меньшинстве: просто я "зло" в глазах большинства, и всё. Достаточно найти ещё несколько таких же, как я, чтобы устроить эпичную битву, победить, самому стать "добром" и затем отбиваться от "зла". Но всегда находятся какие-то другие, более занятные вещи.

Настройте потоки в ленте. Уж от ИИ-то точно можно отписаться, если не интересно.

"тыкать", оскорблять, хамить, грубить - это задача админов не допускать таких вещей.

Это не входит в задачи админов. Люди разные бывают, кто-то общается на "ты" спокойно, кто-то не считает оскорблениями, хамством или грубостью то же, что и вы. Если вам неприятно общение с человеком - не общайтесь. Хабр для этого прекрасно подходит.

Раз ваш вопрос касался первой статьи, то вот ответ.

Зачем с вашей точки зрения на Хабре нужна ваша сгенерированная статья, если ее источник и так доступен всем, и узнать эту информацию я как читатель могу и без нее?

Затем, что сгенерированная нейросеткой статья поднимает вопрос о перспективах доступности нейросетей для людей с различным уровнем интеллекта в ближайшем будущем. Сейчас между крупнейшими разработчиками языковых моделей идёт борьба за "ресурс" - за людей, поставляющих их моделям "сырьё" для обучения (диалоги в чатах). Идёт бесплатное или дешёвое подсаживание пользователей на "иглу" нейросетей. Я предположил, что когда в массе своей народ "подсядет", владельцы нейросетей пересмотрят текущие правила доступа пользователей к сеткам. Я, пока у меня ещё есть доступ, попросил нейросеть смоделировать и изложить эти будущие правила доступа. Вы правы, что вы можете точно так же задать этот же вопрос нейросетке и получить от неё ответ. Но не раньше, чем этот вопрос возникнет у вас в голове.

Information

Rating
607-th
Location
Рига, Латвия, Латвия
Date of birth
Registered
Activity

Specialization

Fullstack Developer
Lead
From 3,000 €
JavaScript
HTML
CSS
Node.js
Vue.js
Web development
Progressive Web Apps
PostgreSQL
MySQL
GitHub