Обновить
0

Back to the roots

Отправить сообщение

google ai studio: n8n -> profiles -> share.

yandex ai studio: agent atelier -> статья автора.

Вот пример: гранты Яндекса на пользование их сервисом DataSphere для студентов.

Вот пример: гранты Яндекса на пользование их сервисом DataSphere для студентов.

Здравые люди, ну вы же понимаете, что все эти бенчмарки - ничего не значат на самом деле?
Любые новые бенчи, с любыми новыми абстракциями подстраивается через RL, добавив весов с новым респонсом.
PS: ARC - это не картинки, это матрица, там VL модели не нужны.
Попробуйте лучше научить LLM/"AGI" механизмам изоляции/атомарности без агентов. Только тогда она и сможет сама себя обучать.
Next level GPT6 - внедрение ONNX Runtime (нативное управление приложениями/сервисами внутри ОС). Глянем, но это сразу х100-x1000 по железу, чтобы продолжать вести RL

Извините, что не прочитал все комментарии: вайб-кодинг не вытеснет, а трансформирует нынешнюю модель обучения программированию. Однозначно появятся новые языки программирования с новыми логиками и синтаксисом. А ведь раньше, если кто помнит и жил в то время, кодили на перфо-картах так-то.

Не затронут главный философский вопрос: для чего нужны собственные LLM, и каково их практическое применение в жизни. Всё остальное - дело техники. Имхо, в будущем у каждой уважающей себя корпорации будет своя LLM (не агенты)
Стёпик - что-то знакомое, помоему это чувак, продающий платные курсы, которые лежат в открытых источниках, если покопать в интернете поглубже. Кстати, все платные курсы - нагенеренные с минимальными правками, часто неактуальные по теоретической части, и всегда неактуальны в практической. Пока их кому-то продадут, уже технологии поменяются. Удачи этим добрякам, а я дальше пойду смотреть бесплатные лекции из Гарварда и гуглить.

Для меня ИИ в конечном итоге его эволюции должен освободить людей от компьютеров и телефонов.

ИИ - это очень широкое понятие и гибкий инструмент для создания собственного уникального сервиса по автоматизации задач и работа с большими данными. Применить можно везде, но нужно нехило шарить в этой теме, чтобы не использовать чужие платные сервисы со стандартными шаблонами использования.

Для обучения и написания кода ии уже подтвердил свою компетентность, куда сложнее применять ии в исследованиях.

И помните о нотации: "всегда проверяйте любую полученную информацию на достоверность" - токены имеют свойство плавать.

Очень много инфы, но самое важное в этой строчке для себя увидел: "Ребята в текстовой Алисе проделали большую работу по подбору удачного сетапа RL".

Яндекс оптимизирует UX и управляемость ответов, а не интеллект модели. RL используется как механизм форматирования ответа, а не как инструмент развития reasoning. Для корпоративных внедрений это упирается в потолок "search + summary".

  1. Если есть цель двигать саму модель, логичный шаг - выпустить открытую или полуоткрытую LLM для сообщества. Без этого нет масштабного ни фидбека, ни реальных экспериментов с RL, ни роста reasoning, ни полезных уникальных нод под РФ. Иначе весь прогресс так и останется на уровне аккуратного UX поверх retrieval, а не эволюции LLM.

  2. Даёшь кодерскую модель и аналог Copilot

Grok сейчас действительно один из самых щедрых бесплатных вариантов: без жёстких лимитов на инструменты и запросы, с автоматическим веб-поиском, когда нужно, и заметным прогрессом и уникальными фишками - ещё пару месяцев назад он был ощутимо слабее. Раньше я тоже считал GPT-4o/5 Plus + copy-paste в IDE абсолютной имбой и исправно платил подписку. А потом попробовал Cursor + Claude Opus за 20 $/мес - и понял, что это новый стандарт для разработки. Мир ускоряется, и это круто. Кто ещё недавно был на вершине - DeepMind в 2023-м, Gemini в начале 2024-го… Я вот всё жду, когда Алиса внезапно выстрелит и всех удивит, став AGI-предводительницей :) Звучит как шутка, но в нашей сфере возможно всё.

Попробуйте мой Hybrid RAG. Чистый Torch. Релевантные ответы по регуляторке 100/100. Справился лучше, чем gpt5plus + docs connector + deep research. Акцент на понимание и рефразер промта, а не на красивую структуру ответа.
kam1k88/GOST1k: Локальный AI-ассистент, который помогает находить и делать структурированные ответы по запросу на основании детерминированной загруженной информации в документах.

Классная статья. Читал её до того, как начал работать в сопровождении. Сейчас уже не работаею, перечитываю статью - как всё до боли знакомо, особенно отсутствие нормального тестирования))) Всё через боль, локальные выезды, anydesk и вечные гипотезы с догадками.
Про smoke-тесты ты лихо написал, у кого-то про них и не слышали даже)

Могу лишь дополнить как далеки разработчики между своими диагностиками по логам и тому, что реально происходит у клиента. Код рефакторится, проблема не решается. Проще самому разработчиком стать и написать правильный код, чем донести кодеру паттерны проявления багов и их причинно-следственную связь дабы не допустить повторяющихся проблем в будущих фичах и доработках :)
В целом, работа не пыльная, местами скучноватая, местами интересная.

блин, ява такая сложная, но кажется такой супер-универсальной...
Автору 22 года, а темы актуальные в статьях, мейнстримовые, откуда столько сил учиться и держать темп?) Я имею ввиду, что темы, как по мне, очень актуальные и нужные, не какое-то там решение годовалой давности, которое есть у всех, а именно то, чего не хватает всем в данный момент, по крайней мере у нас в РФ.

подписался на гитхаб :)

Мощная статья о наболевшем. Заставила пересобрать резюме и пересмотреть подачу компетенций.

HR-сферу пора перезапускать с нуля. Сам подумывал протестировать новые подходы подбора, не опираясь на устаревшие шаблоны.

LinkedIn давно стал платформой сертификаций и точечных профессий, формирующих целостный профиль.

HH пошел в SMM и PR через "Сетку" и tenchat, но не решает главного - отсутствует верификация навыков и актуальная классификация.

Результат - 1000 откликов на вакансию и ноль смысла.

Я как дилетант, не видившего prod в масштабе: почему не LanceDB? Почему clickhouse? 1k cores AI triggers о_0

Спасибо за наглядный опыт. Как делать не надо - я понял 😁

Все, что тут написано, про LLM бэкграунд больше.

RAG ≠ RAG+LLM

RAG = NLP+VectorsDB(dataset)

субъект–отношение–объект - это делают семантические энкодеры внутри эбеддинговых NLP. (sbert.net).

Reasoning - это про LLM и к их pretraining(instructions)+finetuning

Извлечение графа знаний - А если у меня RAG без Графов?

А в чем проблема сгенерировать вопросы в другой LLM?)

Вопросы берутся из логов по-хорошему.

Вопросы должны быть релевантны.

CRAG (проверка по человеческим эталонным ответам), Self-CRAG (проверка retrieval с выдачей LLM как с эталоном) - %% текста из чанков topN сравнивается c выдачей LLM генерации на их основе. очень важно, чтобы чанки не обрезались.

Генерация типов вопросов - Это точно проверка RAG (RETRIEVAL) а не LLM?

В общем моя претензия - причем тут RAG вообще?

рекоммендую базу

по RAG
1) NirDiamant/RAG_Techniques
2) Hybrid Search Revamped - Building with Qdrant's Query API - Qdrant
3) MUVERA: Making Multivectors More Performant - Qdrant
4) kam1k88/GOST1k: Поиск по документам

по NLP (Sentence Transformers + Embeddings )
1) Quickstart — Sentence Transformers documentation - там же и finetune и прочее. Методы обучения схожие с LLM

Вопрос к Сберу, когда у нас появятся русские эмбеддинг+реранкер модели в связке для dense+sparse+dot под русский язык? Вроде железо есть для файнтюна, датасеты есть, а open-sourse моделей 0-13B нету. Был sber-ruBert когда-то, но уже неактуальный стал.

Андрей, ты моим кумиром становишься. Когда ты писал про RAG, я о нём только узнал, и сейчас уже эксперт по RAGу.

Теперь с этой статьи я уже понимаю как java работает) все очень схоже с питоном для NLP, только java - под devops) Спасибо, очень хорошие знания для нубов Не хватает только красивой таблицы как памятки твоих методик. Вот только java совсем не торкает )))

А сейчас все под java стандартизировано уже?

Спасибо за личный опыт в статье. Очень полезно. Все бы такие инсайды кидали сюда) Ру-Коммьюнити хочу по ML, а не эти буржуйские-безликие-глобальные-унифицированные github и discord. У нас в стране своя реальность.

Не подскажете, может есть такие?) Типа "форумы" аля закрытый форум banki.ru, который закрылся недавно. Группироваться надо - это полезная тема)

Статья стала откровением для меня, и ведь правда. Рукоделие - лекарство от серой жизни. Теперь стали понятны мои навязчивые странные побуждения к шитью, лепке и рисованию. Пойду, паяльник куплю, что ли, а то не-поайтишному.

1

Информация

В рейтинге
Не участвует
Откуда
Москва и Московская обл., Россия
Зарегистрирован
Активность

Специализация

Инженер по компьютерному зрению, Инженер электронных устройств
Средний
От 262 144 ₽
OpenCV
FPGA
UVM
RISC-V
Операционная система реального времени
ООП