Про доставку ценности, тут бизнес голосует деньгами. Та же история с демо для инвесторов или отбитая атака безопасников сэкономили компании кучу ресурсов, чего при Андрее могло и не случиться из-за перфекционизма (хотя кто его знает).
Насчёт почему не заметили раньше имхо это ловушка авторитета. Ну банально сложнее жаловаться на технического гуру, который «тратит время на твоё обучение», проще поверить, что это ты сам не тянешь.
Андрей на встречах обсуждал только код и сроки, а Серёга на 1:1 спрашивает про «как тебе работается» и «что мешает».
Просто нормальные человеческие отношения. Я прямо сказал, что хочу собрать метрики и посмотреть на распределение времени. Серёга за любую прозрачность, плюс у него нет синдрома вахтёра.
Точную статистику не вел, но по ощущениям: в символах выходит примерно так же. А вот «когнитивная нагрузка» падает в разы, сформулировать задачу на русском на порядок быстрее, чем вспоминать ключи в мане.
FAQ это круто, но он статичен. А LLM вывозит любой мой сиюминутный «поток сознания», который в шпаргалку просто не влезет. А 5 Гб на диске сегодня небольшая цена за спокойные нервы.
MC - это база, согласен. Но он хорош для файлов. А мой костыль умеет и однострочники на awk собирать, и кронтабы крутить, и порты убивать. Это попытка сделать универсальный интерфейс к терминалу для тех, кто (как я) устал контекстно переключаться между разными утилитами. Хотя за напоминание про Far2l спасибо. Надо проверить, помнят ли пальцы F5-F6
Гранты через GPT это уже считай норма, новость в другом. Люди из IAS говорят про анализ данных, код, моделирование - не про бюрократию. Если аспирант только заявки и писал, то вопросы скорее к научруку.
Именно. 800 неизвестных объектов за один прогон - это не слоп, это рычаг. Слоп это когда генерят мусорный контент ради охватов. А когда ИИ перемалывает 100 млн снимков и вытаскивает аномалии - это инструмент, который делает ученого сильнее. Путать одно с другим странно.
AlphaFold - нобелевка 2024 за 200 млн структур белков. GNoME - 380к новых материалов. GraphCast - прогноз погоды за минуты вместо часов на суперкомпьютере. В астрономии ИИ ищет экзопланеты в шуме данных быстрее людей.
"Где открытия" в 2025 это как "где польза от интернета" в 1995.
Вот это реально интересно. Агенты делают много шагов, ошибки накапливаются. Если QAD сохраняет распределение, а не только топ-токены, должно помочь. Но данных пока нет, все бенчмарки одношаговые.
В теории да. 49B в FP4 это ~25GB, влезает в 2x16GB. На практике нужен inference stack который это поддерживает. Пока только на Blackwell нормально, на десктопе будет медленно.
Именно. Работать без мотивации это как ехать идеально правильно, но с полупустым баком.
Если бы статью писал Серёга, он бы делегировал написание мне )
Согласен. Команда сильных разработчиков в режиме «я начальник — ты дурак» просто выгорает.
Про доставку ценности, тут бизнес голосует деньгами. Та же история с демо для инвесторов или отбитая атака безопасников сэкономили компании кучу ресурсов, чего при Андрее могло и не случиться из-за перфекционизма (хотя кто его знает).
Насчёт почему не заметили раньше имхо это ловушка авторитета. Ну банально сложнее жаловаться на технического гуру, который «тратит время на твоё обучение», проще поверить, что это ты сам не тянешь.
Андрей на встречах обсуждал только код и сроки, а Серёга на 1:1 спрашивает про «как тебе работается» и «что мешает».
Просто нормальные человеческие отношения. Я прямо сказал, что хочу собрать метрики и посмотреть на распределение времени. Серёга за любую прозрачность, плюс у него нет синдрома вахтёра.
Мышечная память на Ctrl+C Ctrl+V. А если серьезно, то я имел в виду ту стадию, когда пальцы начинают писать команду, но на середине ты зависаешь.
О, спасибо за наводку, не видел. Моя поделка — это скорее DIY-велосипед на коленке. Изучу на досуге ваш обзор!
Жму руку. Рад, что я не один такой. В vim, для меня, без шпаргалки до сих пор некомфортно заходить.
Точную статистику не вел, но по ощущениям: в символах выходит примерно так же. А вот «когнитивная нагрузка» падает в разы, сформулировать задачу на русском на порядок быстрее, чем вспоминать ключи в мане.
FAQ это круто, но он статичен. А LLM вывозит любой мой сиюминутный «поток сознания», который в шпаргалку просто не влезет. А 5 Гб на диске сегодня небольшая цена за спокойные нервы.
Согласен, замечания по делу.
Под «ноль зависимостей» имел в виду именно стандартную библиотеку Python (без pip/venv). Но вы правы, сама Ollama зависимость та ещё.
Про ключи в .bashrc вредная привычка из разряда «пока тестирую, потом поправлю». Лучше так не делать. Спасибо за внимательность!
MC - это база, согласен. Но он хорош для файлов. А мой костыль умеет и однострочники на awk собирать, и кронтабы крутить, и порты убивать. Это попытка сделать универсальный интерфейс к терминалу для тех, кто (как я) устал контекстно переключаться между разными утилитами. Хотя за напоминание про Far2l спасибо. Надо проверить, помнят ли пальцы F5-F6
Гранты через GPT это уже считай норма, новость в другом. Люди из IAS говорят про анализ данных, код, моделирование - не про бюрократию. Если аспирант только заявки и писал, то вопросы скорее к научруку.
Именно. 800 неизвестных объектов за один прогон - это не слоп, это рычаг. Слоп это когда генерят мусорный контент ради охватов. А когда ИИ перемалывает 100 млн снимков и вытаскивает аномалии - это инструмент, который делает ученого сильнее. Путать одно с другим странно.
AlphaFold - нобелевка 2024 за 200 млн структур белков. GNoME - 380к новых материалов. GraphCast - прогноз погоды за минуты вместо часов на суперкомпьютере. В астрономии ИИ ищет экзопланеты в шуме данных быстрее людей.
"Где открытия" в 2025 это как "где польза от интернета" в 1995.
Калькулятор тоже "нового не порождает". Инструмент по сути своей освобождает время от рутины для стоящей времени работы.
Вот это реально интересно. Агенты делают много шагов, ошибки накапливаются. Если QAD сохраняет распределение, а не только топ-токены, должно помочь. Но данных пока нет, все бенчмарки одношаговые.
Почти. Двоечника учат "имитировать" ход мыслей отличника, а не просто списывать ответы. CE это "пиши как в учебнике", KL это "думай как он думает".
В теории да. 49B в FP4 это ~25GB, влезает в 2x16GB. На практике нужен inference stack который это поддерживает. Пока только на Blackwell нормально, на десктопе будет медленно.
Хах, не заметил. Видимо Nano Banano тоже нужен QAD.