Где тут GPT увидели то, тут даже знаки препинания после пробелов.
Единственный sus момент - точка с запятой, их gpt обожает. Но остальное - точно человек писал, я кстати поэтому не осилил...с первого раза, разучился рассказы читать. Gpt бы лучше справился с изложением фактов. Написал баш -> получил офер.
Pandas как in memory это сильно. Честно говоря, duckdb куда лучше пандаса и памяти ест меньше, а главное он такое же in memory если нужно, но так же может и на диск промежуточные писать.
Polars + duckdb - мне прям нравится, к сожалению одного инструмента не всегда хватает.
Это все на паркетах... т.е. если криво данные разложить... то будет так же больно.
Все, кто хоть немного в ml шарят(точнее я слушаю мнение про ИИ только тех, кто в ML работает), идут от обратного: жёстко проектируют архитектуру, добавляют качественные примеры кода и потом по выверенному плану запускают агента заполнить куски.
Такой паттерн легко объясним, если разобраться как работает attention и на чем модели учатся.
P.S. Второе мнение и возможность спросить всегда полезны, но это мнение, а не разработка.
Pps я для pet проекта смирился с багами - главное критические узлы задать, чтобы архитектура была, а не месево с кодом. Через полгода модели сделают х3 по скиллу и перепишут плохой код.
Да потому что каждый хочет написать статью и выложить. Раг раг раг раг... эта статья чем лучше "других"? Какую мысль она несёт? Не получилось?
Ответ супер прост: метрики, метрики и мметрики. Глупость какая эти метрики..циферки которые мешают (сарказм)
Далее, Смысл возвращаться чанк? Верните документ по чанку.
А делать раг на эмбедингах одних - это 2023 год, ну 2024.
Claude code и без рага найдет и ответит. Закинуть в гугл док свою библиотеку и спрашивать chatgpt.
А вообще начинать нужно с оценки LLM закинули документ и спросили вопрос. Или спросили вопрос которого нет в документе.
Ps там были какие-то метрики... но толку, как измерение "близости вопрос-ответ" вообще поможет? Есть классика: полнота возвращаемых документов, вернули 100% - значит дальше есть шанс получить правильный ответ. Вернули 10% - нет смысла дальше даже отвечать.
Лучше собирать пользовательский фидбек, чем неправильное исследование с непонятной гипотезой, вероятно людьми которые даже не пытались.
На конфах корпорации рассказывают, у них.по 10-20% сгенерированного кода идёт в прод. А там такие же скептик как вы сидят.
А по фидбеку: тут выше уже приводил ктото свой пример. Мой пример - это навайбкодить полезную Тулу за 3 часа, и отдать в пользование. Смог бы я быстрее? Нет. Я бы 3 часа в формат json втуплял, и кучу словарей. И вообще, моё свободное время - мне важнее.
Но вообще поражают отрицатели реальности, которые ссылаются на "исследование" непонятно кого вместо того, чтобы протестить самим хотя бы.
Может есть гении стучащие по клавиатуре 200 тыс клавиш в секунду.
Или "гении" считающие, что промт "почини баг" - достаточно понятен. Разработчикам не зря менеджерей ставят...первые же не могут в коммуникацию.(да-да, я тоже полуразраб).
Год работы это норм, особенно если ты это озвучиваешь.
Я тут видел 2-3 месяца скачки на протяжении двух лет. Вот это ред флаг. Хотя по остальному там - ну вообще норм, только вопросики было, что он забыл подаваясь на нашу позицию).
Я бы ответил на интервью - мой скрипт, как хочу - так и пишу.
Упадет - поправлю, это скрипт.
Где тут GPT увидели то, тут даже знаки препинания после пробелов.
Единственный sus момент - точка с запятой, их gpt обожает. Но остальное - точно человек писал, я кстати поэтому не осилил...с первого раза, разучился рассказы читать. Gpt бы лучше справился с изложением фактов. Написал баш -> получил офер.
Pandas как in memory это сильно. Честно говоря, duckdb куда лучше пандаса и памяти ест меньше, а главное он такое же in memory если нужно, но так же может и на диск промежуточные писать.
Polars + duckdb - мне прям нравится, к сожалению одного инструмента не всегда хватает.
Это все на паркетах... т.е. если криво данные разложить... то будет так же больно.
Лол (простите за лол).
Все, кто хоть немного в ml шарят(точнее я слушаю мнение про ИИ только тех, кто в ML работает), идут от обратного: жёстко проектируют архитектуру, добавляют качественные примеры кода и потом по выверенному плану запускают агента заполнить куски.
Такой паттерн легко объясним, если разобраться как работает attention и на чем модели учатся.
P.S. Второе мнение и возможность спросить всегда полезны, но это мнение, а не разработка.
Pps я для pet проекта смирился с багами - главное критические узлы задать, чтобы архитектура была, а не месево с кодом. Через полгода модели сделают х3 по скиллу и перепишут плохой код.
Вы сейчас всех js прогоаммистов задели. Как они посмели рисовать формочки и шаблоны непонимая что там происходит. (Я не шарю за js, не бейте меня).
Картинку режьте на стандартные кусочки и все.
Вы бы подсказали с какими метриками нужно возиться.
Вы сначала купите пару H100. Вы совсем от реальности оторваны.
А вы статью как назвали?
Я не согласен с метриками...они абсолютно бессмысленные...впрочем, это даже не метрики.
Да потому что каждый хочет написать статью и выложить. Раг раг раг раг... эта статья чем лучше "других"? Какую мысль она несёт? Не получилось?
Ответ супер прост: метрики, метрики и мметрики. Глупость какая эти метрики..циферки которые мешают (сарказм)
Далее, Смысл возвращаться чанк? Верните документ по чанку.
А делать раг на эмбедингах одних - это 2023 год, ну 2024.
Claude code и без рага найдет и ответит. Закинуть в гугл док свою библиотеку и спрашивать chatgpt.
А вообще начинать нужно с оценки LLM закинули документ и спросили вопрос. Или спросили вопрос которого нет в документе.
Ps там были какие-то метрики... но толку, как измерение "близости вопрос-ответ" вообще поможет? Есть классика: полнота возвращаемых документов, вернули 100% - значит дальше есть шанс получить правильный ответ. Вернули 10% - нет смысла дальше даже отвечать.
Лучше собирать пользовательский фидбек, чем неправильное исследование с непонятной гипотезой, вероятно людьми которые даже не пытались.
На конфах корпорации рассказывают, у них.по 10-20% сгенерированного кода идёт в прод. А там такие же скептик как вы сидят.
А по фидбеку: тут выше уже приводил ктото свой пример. Мой пример - это навайбкодить полезную Тулу за 3 часа, и отдать в пользование. Смог бы я быстрее? Нет. Я бы 3 часа в формат json втуплял, и кучу словарей. И вообще, моё свободное время - мне важнее.
Но вообще поражают отрицатели реальности, которые ссылаются на "исследование" непонятно кого вместо того, чтобы протестить самим хотя бы.
Кто наблюдал, какие разработчики? Какой язык?
Может есть гении стучащие по клавиатуре 200 тыс клавиш в секунду.
Или "гении" считающие, что промт "почини баг" - достаточно понятен. Разработчикам не зря менеджерей ставят...первые же не могут в коммуникацию.(да-да, я тоже полуразраб).
Я применяю гугловское решение: новая тема, нужно погрузиться - делаем 2-3 deepresearch -> грузим в notebooklm получаем отличный подкаст.
Разумеется, потом идём читать матчасть, если требуется.
На англ до 40 минут подкаста. На русском - оч слабо генерит.
Можно книгу загрузить и по дереву (mindmap - быстро посмотреть разделы, или посррашивать).
Если учишься или делаешь презентацию 10/10.
Ещё можно занудное видео ютуба скормить и получить интересный подкаст. Ну бывает так, что ведущего прям невозможно слушать, или он воду льёт.
В общем, если коротко: обучение, быстрое погружение в новую тему. Но на англ.
Год работы это норм, особенно если ты это озвучиваешь.
Я тут видел 2-3 месяца скачки на протяжении двух лет. Вот это ред флаг. Хотя по остальному там - ну вообще норм, только вопросики было, что он забыл подаваясь на нашу позицию).
Без конкретики...ничего не понятно. Сеньйор сеньйору рознь. И что за компания - тоже.
Казалось бы очевидные вещи..и сеньйор обычно переходит на +50%. 190к было. - чёт не сеньйорская зп.
У всех разные кейсы, но если хорошая работа, то в лотерею на новом месте никто не хочет играть за +10%.
Снять рутину плохо?
Я смог скинуть рутину до ИИ на другого. Производительность взлетела.
Что за бред с внимательностью. Вы еще проверку офогрпии отключите и заявите что это заьота о пользователях. У jira процесс не просто так фиксируется.
И что за "ускорение пользовательского опыта" - он куда-то спешит? Может ускорение собственной разработки?
Фигня какая-то. Зачем использовать это для агентов - совсем не понятно. Есть профильный опенсорс с куда более полезными возможностями.
Не убедил.
забавно что нужно прописывать Алиас чтобы эта чудо-тулза заработала.
Попробуйте переформулировать вопрос на русском.
Кисть не виновата, что художник слепой. (С) я.