Информация
- В рейтинге
- Не участвует
- Откуда
- Москва и Московская обл., Россия
- Зарегистрирован
- Активность
Специализация
Инженер по компьютерному зрению, Инженер электронных устройств
Средний
От 262 144 ₽
OpenCV
FPGA
UVM
RISC-V
Операционная система реального времени
ООП
google ai studio: n8n -> profiles -> share.
yandex ai studio: agent atelier -> статья автора.
Вот пример: гранты Яндекса на пользование их сервисом DataSphere для студентов.
Вот пример: гранты Яндекса на пользование их сервисом DataSphere для студентов.
Здравые люди, ну вы же понимаете, что все эти бенчмарки - ничего не значат на самом деле?
Любые новые бенчи, с любыми новыми абстракциями подстраивается через RL, добавив весов с новым респонсом.
PS: ARC - это не картинки, это матрица, там VL модели не нужны.
Попробуйте лучше научить LLM/"AGI" механизмам изоляции/атомарности без агентов. Только тогда она и сможет сама себя обучать.
Next level GPT6 - внедрение ONNX Runtime (нативное управление приложениями/сервисами внутри ОС). Глянем, но это сразу х100-x1000 по железу, чтобы продолжать вести RL
Извините, что не прочитал все комментарии: вайб-кодинг не вытеснет, а трансформирует нынешнюю модель обучения программированию. Однозначно появятся новые языки программирования с новыми логиками и синтаксисом. А ведь раньше, если кто помнит и жил в то время, кодили на перфо-картах так-то.
Не затронут главный философский вопрос: для чего нужны собственные LLM, и каково их практическое применение в жизни. Всё остальное - дело техники. Имхо, в будущем у каждой уважающей себя корпорации будет своя LLM (не агенты)
Стёпик - что-то знакомое, помоему это чувак, продающий платные курсы, которые лежат в открытых источниках, если покопать в интернете поглубже. Кстати, все платные курсы - нагенеренные с минимальными правками, часто неактуальные по теоретической части, и всегда неактуальны в практической. Пока их кому-то продадут, уже технологии поменяются. Удачи этим добрякам, а я дальше пойду смотреть бесплатные лекции из Гарварда и гуглить.
Для меня ИИ в конечном итоге его эволюции должен освободить людей от компьютеров и телефонов.
ИИ - это очень широкое понятие и гибкий инструмент для создания собственного уникального сервиса по автоматизации задач и работа с большими данными. Применить можно везде, но нужно нехило шарить в этой теме, чтобы не использовать чужие платные сервисы со стандартными шаблонами использования.
Для обучения и написания кода ии уже подтвердил свою компетентность, куда сложнее применять ии в исследованиях.
И помните о нотации: "всегда проверяйте любую полученную информацию на достоверность" - токены имеют свойство плавать.
Очень много инфы, но самое важное в этой строчке для себя увидел: "Ребята в текстовой Алисе проделали большую работу по подбору удачного сетапа RL".
Яндекс оптимизирует UX и управляемость ответов, а не интеллект модели. RL используется как механизм форматирования ответа, а не как инструмент развития reasoning. Для корпоративных внедрений это упирается в потолок "search + summary".
Если есть цель двигать саму модель, логичный шаг - выпустить открытую или полуоткрытую LLM для сообщества. Без этого нет масштабного ни фидбека, ни реальных экспериментов с RL, ни роста reasoning, ни полезных уникальных нод под РФ. Иначе весь прогресс так и останется на уровне аккуратного UX поверх retrieval, а не эволюции LLM.
Даёшь кодерскую модель и аналог Copilot
Grok сейчас действительно один из самых щедрых бесплатных вариантов: без жёстких лимитов на инструменты и запросы, с автоматическим веб-поиском, когда нужно, и заметным прогрессом и уникальными фишками - ещё пару месяцев назад он был ощутимо слабее. Раньше я тоже считал GPT-4o/5 Plus + copy-paste в IDE абсолютной имбой и исправно платил подписку. А потом попробовал Cursor + Claude Opus за 20 $/мес - и понял, что это новый стандарт для разработки. Мир ускоряется, и это круто. Кто ещё недавно был на вершине - DeepMind в 2023-м, Gemini в начале 2024-го… Я вот всё жду, когда Алиса внезапно выстрелит и всех удивит, став AGI-предводительницей :) Звучит как шутка, но в нашей сфере возможно всё.
Попробуйте мой Hybrid RAG. Чистый Torch. Релевантные ответы по регуляторке 100/100. Справился лучше, чем gpt5plus + docs connector + deep research. Акцент на понимание и рефразер промта, а не на красивую структуру ответа.
kam1k88/GOST1k: Локальный AI-ассистент, который помогает находить и делать структурированные ответы по запросу на основании детерминированной загруженной информации в документах.
Классная статья. Читал её до того, как начал работать в сопровождении. Сейчас уже не работаею, перечитываю статью - как всё до боли знакомо, особенно отсутствие нормального тестирования))) Всё через боль, локальные выезды, anydesk и вечные гипотезы с догадками.
Про smoke-тесты ты лихо написал, у кого-то про них и не слышали даже)
Могу лишь дополнить как далеки разработчики между своими диагностиками по логам и тому, что реально происходит у клиента. Код рефакторится, проблема не решается. Проще самому разработчиком стать и написать правильный код, чем донести кодеру паттерны проявления багов и их причинно-следственную связь дабы не допустить повторяющихся проблем в будущих фичах и доработках :)
В целом, работа не пыльная, местами скучноватая, местами интересная.
блин, ява такая сложная, но кажется такой супер-универсальной...
Автору 22 года, а темы актуальные в статьях, мейнстримовые, откуда столько сил учиться и держать темп?) Я имею ввиду, что темы, как по мне, очень актуальные и нужные, не какое-то там решение годовалой давности, которое есть у всех, а именно то, чего не хватает всем в данный момент, по крайней мере у нас в РФ.
подписался на гитхаб :)
Мощная статья о наболевшем. Заставила пересобрать резюме и пересмотреть подачу компетенций.
HR-сферу пора перезапускать с нуля. Сам подумывал протестировать новые подходы подбора, не опираясь на устаревшие шаблоны.
LinkedIn давно стал платформой сертификаций и точечных профессий, формирующих целостный профиль.
HH пошел в SMM и PR через "Сетку" и tenchat, но не решает главного - отсутствует верификация навыков и актуальная классификация.
Результат - 1000 откликов на вакансию и ноль смысла.
Я как дилетант, не видившего prod в масштабе: почему не LanceDB? Почему clickhouse? 1k cores AI triggers о_0
Спасибо за наглядный опыт. Как делать не надо - я понял 😁
Все, что тут написано, про LLM бэкграунд больше.
RAG ≠ RAG+LLM
RAG = NLP+VectorsDB(dataset)
субъект–отношение–объект - это делают семантические энкодеры внутри эбеддинговых NLP. (sbert.net).
Reasoning - это про LLM и к их pretraining(instructions)+finetuning
Извлечение графа знаний - А если у меня RAG без Графов?
А в чем проблема сгенерировать вопросы в другой LLM?)
Вопросы берутся из логов по-хорошему.
Вопросы должны быть релевантны.
CRAG (проверка по человеческим эталонным ответам), Self-CRAG (проверка retrieval с выдачей LLM как с эталоном) - %% текста из чанков topN сравнивается c выдачей LLM генерации на их основе. очень важно, чтобы чанки не обрезались.
Генерация типов вопросов - Это точно проверка RAG (RETRIEVAL) а не LLM?
В общем моя претензия - причем тут RAG вообще?
рекоммендую базу
по RAG
1) NirDiamant/RAG_Techniques
2) Hybrid Search Revamped - Building with Qdrant's Query API - Qdrant
3) MUVERA: Making Multivectors More Performant - Qdrant
4) kam1k88/GOST1k: Поиск по документам
по NLP (Sentence Transformers + Embeddings )
1) Quickstart — Sentence Transformers documentation - там же и finetune и прочее. Методы обучения схожие с LLM
Вопрос к Сберу, когда у нас появятся русские эмбеддинг+реранкер модели в связке для dense+sparse+dot под русский язык? Вроде железо есть для файнтюна, датасеты есть, а open-sourse моделей 0-13B нету. Был sber-ruBert когда-то, но уже неактуальный стал.
Андрей, ты моим кумиром становишься. Когда ты писал про RAG, я о нём только узнал, и сейчас уже эксперт по RAGу.
Теперь с этой статьи я уже понимаю как java работает) все очень схоже с питоном для NLP, только java - под devops) Спасибо, очень хорошие знания для нубов Не хватает только красивой таблицы как памятки твоих методик. Вот только java совсем не торкает )))
А сейчас все под java стандартизировано уже?
БАЗА
https://github.com/NirDiamant/RAG_Techniques
LightRAG включен в RAG-Anything
https://github.com/HKUDS/LightRAG
LightRAG/README.md at main · HKUDS/LightRAG
RAG-Anything/README.md at main · HKUDS/RAG-Anything
https://github.com/HKUDS/RAG-Anything
Спасибо за личный опыт в статье. Очень полезно. Все бы такие инсайды кидали сюда) Ру-Коммьюнити хочу по ML, а не эти буржуйские-безликие-глобальные-унифицированные github и discord. У нас в стране своя реальность.
Не подскажете, может есть такие?) Типа "форумы" аля закрытый форум banki.ru, который закрылся недавно. Группироваться надо - это полезная тема)
Статья стала откровением для меня, и ведь правда. Рукоделие - лекарство от серой жизни. Теперь стали понятны мои навязчивые странные побуждения к шитью, лепке и рисованию. Пойду, паяльник куплю, что ли, а то не-поайтишному.