Pull to refresh
4
0
Send message

Мне интересно что является источником статьи, т.е. это оригинал написанный автором или все таки взятый откуда-то инфо-материал, обработанный в статью.

Момент тут в том, что текст как будто бы реклама инструмента, который он сам создал. Если зайти на сайт и спуститься вниз, то увидим такое описание:

Скрытый текст

И судя по статье, это как будто бы реклама этого инструмента, а именно что он работает и позволяет делать это с многими агентами. Я не говорю что автор рекламирует его, однако ощущение будто нечто такое присутствует.

половина работы над нейронкой это как раз как правильно подать ей информацию

Вообще да, но даже так, нужно добиться баланса компактности и понимания.

без вопросов анализировал 3 мегабайта переписки моего товарища, с цитатам и датами

А вот это интересно. Ибо не давно пробовал проанализировать XML файл с 13К строк и модель 5.2 в какой-то момент перестала отвечать и вовсе не выдала ответ в чат. А учитывая что текстовая информация имеет объем 3Мб, то строк там наверное за 50-70К. Интересно как GPT смогла это переработать.

Мне больше интересно как они победили окно контекста. Ведь агент это же по сути объект модели, который воспроизведён N раз. Всем им задали роли и они выполняют свои задачи.

Но ведь в отличии от человека, модель ограничена набором входных данных (код что она писала раньше + условие + суть задачи + новые правки + новый код), который она получает при каждой итерации и который нельзя увеличить до безразмерности. У человека в этом случае вступает абстракция, когда мы архивируем данные как бы "забывая" их цепляя за что-то (слово, звук, картинка и т.д.).

А учитывая что общий код занимает примерно 3М строк и даже если разделить его на отдельные функции и подсистемы, то с учётом инструкций и процесса работы над задачей, этот кусок все равно растет довольно быстро.

Возможно тут другой подход и в этом нет проблемы, что-то я могу не знать. Однако как у пользователя который немного работал с моделями как локально, так и через облачное API, этот вопрос в голове возник 🤔

Грубо говоря, система предпочитает кандидатов, которые на запрос «прыгай» не спорят о смысле прыжка, а уточняют: how high should I jump?

Статья не плохая, есть элементы на которые действительно стоит обратить внимание, однако в самом начале есть момент который смущает (цитата выше).

PhD это как раз таки начало карьеры, где начинающий учёный показывает задатки и способность к самостоятельности. Если показать покорность, можно погрязнуть в административных задачах, а при попытке из них выйти - не понравится факультету, ведь они заранее строили на вас именно такой план.

Так же не стоит забывать о формальных требованиях, из за которых так же могут отказать, которые Вам открыто не озвучат. Как например то, что часть кандидатов отбирается по договоренности ещё на магистратуре, а вакансия опубликованная на сайте это выполнение требования открытости (в реальности ее уже и нет). Или же очередность по гражданству, как это например делает Швейцария, из за чего университет будет не готов отстаивать вас перед страной.

Это интересная но сложная игра, в которую надо научится играть, а это приходит только с опытом 😁

Кстати да, как-то я про это забыл

10 ГБ с суммарной пропускной способностью 560 ГБ/с, а к процессору — 6 ГБ на 336 ГБ/с.

Там своя особенная память, типа GDDR, хоть и пропускная способность довольно высокая, но задержки очень не приятные. Поэтому сравнить ее с обычной не получится нормально, там спасает консольная оптимизация.

Я больше склонен верить, что Valve в случае с Steam Machine хочет продать позднее Pro версии с большей производительностью. Ну и конечно сначала посмотреть на массовость и первый опыт, делая упор на средний сегмент игроков.

Ситуация с 8Гб видеопамяти, как по мне, состоит только в том, что не все готовы заплатить дополнительную цену за +4-8Гб, а готовы понизить уровень графики. Из за этого компании и считают, что 8Гб юзерам хватит. Как раз таки рейтинги на площадках и показывают выбор покупателя, а реальные требования к железу совсем другие.

Посмотрим что будет дальше, ситуация с чипами памяти не очень веселая.

Мне сразу вспоминается ситуация с рынком видеокарт при буме майнинга. Все мы помним что потом была с картами и ценами на них.

Тут как мне кажется так же история. В какой-то момент надобность в такой памяти отпадет, ибо все конечно и мы упремся в потолок, где дело уже будет вообще не в памяти.

И начнется тогда обратная картина, но вот что потом делать с этой тонной памяти, которую в потребительском сегменте особо и не применишь - видимо производители особо не думают, хотя опыт у них уже был :)

По сути да, они многое смогут сделать с такими навыками.

Бюджетная охранная система охранять пакет с пакетами? ) Почему не просто камера в конце концов? Под тот же STM32H743. Больше вопросов, чем ответов.

Я думаю здесь работал принцип - "Дело было вечером, делать было нечего" и в какой-то момент кто-то сказал: "Hold my beer" 😁

Пока читал заметил что в начале информация повторяется. Например рассмотр плюсов и минусов и в разделе "кому подойдёт" - та же информация только другими словами. И такое же второе место немного раньше.

В целом не плохой обзор, но упустили ещё один вариант настройки доступа, а именно через туннель Cloudflare. Когда ставил свой сервер столкнулся с этим и когда искал способ наткнулся на этот вариант. Бесплатного пакета хватает для нужд домашнего сервера и в этом варианте затраты будут только на домен и интернет (который и так оплачивается).

Минус такого подхода это сам туннель. Для файлообменника, просмотра видео и подобного скорости может не хватить и придется настраивать все корректно или переходить на платные планы. Также будут проблемы с приложениями которые используют специфические протоколы и порты, как Minecraft.

К плюсам можно отнести гибкую защиту, простоту базовой настройки (добавить поддомен для сервиса можно в пару команд) и хорошая политика доступа с аутентификацией (Google OAuth например).

В остальном для самохоста отличный вариант. Понятно что если есть блокировки, то это не подойдёт, но это один из возможных и довольно простых вариантов.

Ну кстати да, соглашусь. Скорее всего замеряли линейкой с шкалой +- минус соседняя галактика 😁

Chat GPT это не Искусственный Интеллект, а нейронная сеть. Ее архитектура не позволяет ей получить интеллект или "манию" по определению. То что мы наблюдаем на скриншоте вполне может быть заранее подготовленным промптом в котором нейронку попросили вставить эти слова в ответ.

Мы так же не видим весь диалог, а лишь вырезанную часть, как и полный файл над которым выкопать работа, что бы на 100% подтвердить что этих текстов нет в нем изначально.

Пока что, это выглядит как заявление соседа что он жал руку НЛО, а в качестве доказательства он показывает фотографию рукопожатия с рукой в перчатке, ведь НЛО же в скафандре 👀

За Клод лично увы ничего не могу сказать. Из за того, что помимо задач кодинга есть рутинные в виде анализа/коррекции/поиска, поэтому решил фокусироваться на ГПТ. Хотя много слышу за Клод и его эффективность в коде. В какой-то момент думаю все таки заручусь и им 😁

начал писать документацию

У меня такой фокус с гпт не прошел, она начала в какой-то момент забывать правила и суть задачи (из за обрезки окна контекста, через переполнение). Поэтому в отношении Клод верю вам на слово, помечу себе на попробовать 😏

что gpt до 5 версии вообще не годится для работы

Для меня лично довольно хороша была 4о, много чего с ней получалось решить. Хотя и глупила она больше о3 довольно часто, если работать в одном диалоге довольно долго. Был некий баланс, но у всех задачи разные, для моих в большинстве случаев ее хватало.

Если расписать требование на 10-100 листов, возможно она и выдаст хороший результат, я не пробовал.

К сожалению нет (но тут не буду утверждать, может есть нейронки способные это сделать от начала до конца). Код на 1100 строк, к примеру, GPT не может полностью выписать в файл из за слишком большого количества текста. Очень многое зависит от окна контекста и оно не всегда достаточно для крупной задачи.

Уже больше года как ввел нейронки в процесс разработки и успешно использую как в личных так и открытых проектах.

Инструментов которые были бы в открытом доступе и реализовали действительно Искусственный Интеллект не встречал. Слышал о проекте который был на уровне мышления 3-х летнего ребенка, но то было давно. Сейчас в новостях революций в этой сфере лично не видел.

Возвращаясь к нейронкам, то в основном использую Chat GPT. Активно пользовался с версии 4о, затем о3, редко приходилось 4.1 . На данный момент часто использую 5 Thinking и иногда возвращаю о3. Что увидел за время использования:

Потеря нити речи, придумывание не существующих данных (функции которых нет или фрагменты которые не могут работать в принципе)

Трудность в выполнении комплексного запроса состоящего больше чем из 3-4 пунктов. Начинает сокращать, забывать, недоговаривать.

Был глюк, когда о3 в случайный момент отвечала на вопрос который был задан много ранее. В новой версии такого уже не видел.

На чем пробовал - скрипты для телеграмм ботов (aiogram), прошивки под ESP8266/ESP32, GUI для питоновских скриптов через PyQt5 и TKinter.

Пример на чем споткнулись: реализация модульности для отдельных тг ботов (загрузка/выгрузка доп функционала через скрипты, поддержка интервальных тасков, динамического импорта и т.д.) - в определенный момент начала терять связь с основным кодом, забывать правила оформления (даже и наличии примеров в том же диалоге) и изобретать то чего нет (во имя цели решить поставленную задачу).

1
23 ...

Information

Rating
6,235-th
Location
Германия
Registered
Activity

Specialization

Десктоп разработчик, Бэкенд разработчик
Младший
Python
Английский язык
Разработка программного обеспечения
Базы данных
PostgreSQL