xAI выпустила нейросетевую модель Grok Imagine 1.0 для генерации видео длиной до 10 секунд с поддержкой разрешения 720p. Релиз объединяет наработки предыдущего генератора изображений Aurora с новыми возможностями анимации. Разработчики отмечают, что нейросеть точнее следует текстовым промптам, создаёт более проработанные кадры и лучше справляется с плавностью движений по сравнению с предшественницей. В Grok Imagine 1.0 также доработали аудиосоставляющую: фоновая музыка теперь «идеально синхронизируется» со сценой, а эмоциональный спектр персонажей стал шире. Для доступа к максимальным настройкам качества и длительности пользователям потребуется оформить платную подписку.
Особенности интернет-зависимости и стрессоустойчивости у лиц, работающих в сфере компьютерного программирования.
Доброго времени суток, Хабр! Благодарен всем принявшим участие в моём исследовании и хотел бы поделиться короткими выводами по данной теме.
Дисклеймер: данное исследование было выполнено на втором курсе обучения и основано на малой выборке. В связи с этим представленные выводы не претендуют на обобщаемость и научную репрезентативность и могут рассматриваться преимущественно как гипотетические рассуждения и предварительные наблюдения.
Интернет-зависимость - это комплексный феномен, интегрирующий компенсаторные, когнитивно-поведенческие и нейропсихологические аспекты личности. Профессиональное выгорание IT-специалистов может быть обусловлено постоянным когнитивными перегрузками в виду постоянного технологического прогресса и оптимизации рабочих процессов. Представлены разработки в области методологии IT-специальностей (Agile-методологий) - ролевой полифункциональностью, дедлайнами и отсутствием четких границ между профессиональной и личной сферами, которые и могут влечь за собой проявления симптоматики выгорания и пониженной стрессоустойчивости.
У IT-специалистов ключевыми факторами стрессоустойчивости и возможным механизмом защиты от интернет-зависимости являются развитая волевая саморегуляция, профессиональная уверенность и способность к самоорганизации. Однако специфика профессии (реализация деятельности посредством Сети Интернет, монотонность деятельности и редкая смена обстановки, дедлайны) создаёт риски эмоционального истощения и возможного формирования аддиктивного поведения. Люди представляющие остальные профессии показывают логичные закономерности того явления, что высокая саморегуляция (и её субшкалы) будут подавлять аддиктивное поведение, а вследствие, предотвращать возможное эмоциональное выгорание. Также, что высокая стрессоустойчивость имеет прямую зависимость с волевой саморегуляцией и она(саморегуляция) обуславливает её формирование.
Анализ корреляционных связей между шкалами всех методик (критерий ранговой корреляции Спирмена, отмеченные корреляции значимы на уровне p <0,05) в экспериментальной группе 1 (респонденты IT-специальностей).
Анализ данных выявил значимые взаимосвязи между показателями стрессоустойчивости, волевой саморегуляции и интернет-зависимого поведения у IT-специалистов. Обратные умеренные корреляции между шкалой «Негативная самооценка» (ОПУС) и показателями интернет-зависимости указывают на то, что неустойчивость Я и сниженная стрессоустойчивость повышают риск формирования аддиктивных интернет-паттернов, что может быть обусловлено спецификой профессиональной деятельности и постоянным взаимодействием с цифровой средой.
Положительные корреляции шкал «Неопределённость», «Редукция профессиональных достижений», «Настойчивость» и «Общий индекс волевой саморегуляции» отражают высокую способность IT-специалистов к саморегуляции, адаптации к дефициту времени и информации, а также устойчивость к повседневным стрессорам. Связь «Негативной социальной оценки» с «Симптомами отмены» указывает на склонность к поиску социального взаимодействия в Интернет-среде и дискомфорту при её отсутствии.
Эмпирическая часть исследования подтвердила, что основная гипотеза о негативном влиянии интернет-зависимости на стрессоустойчивость IT-специалистов подтвердилась.
Некоторые дополнительные гипотезы также нашли подтверждение: IT-специалисты с низкой стрессоустойчивостью демонстрируют повышенную склонность к компульсивному использованию интернета; Высокий уровень волевого самоконтроля («Общий индекс ВСК») снижает риски как интернет-зависимости, так и эмоционального выгорания, обеспечивая резистентность к монотонного рода деятельности и подавление компульсивных симптомов.
Сейчас я провожу новое исследование на тему «Связь особенностей локуса контроля со стилем принятия решений у активных пользователей генеративного искусственного интеллекта». Буду очень признателен всем, кто захочет принять участие - у меня есть интерес к изучению технологий ИИ и какое влияние оно оказывает, на какие специальности. https://docs.google.com/forms/d/e/1FAIpQLSfAx7OKMakFjbHhiwH1osPjloqnFXUVId1PS‑B7npqVNUwdjg/viewform?usp=header
Совсем недавно Clawdbot хайпанул. И тут такое началось... Это не цирк, это хуже. Добрый дядя из гайда советует прокинуть туннель через ngrok или развернуть это дело на VPS с открытым портом.
Итог: любой школьник находит ваш IP или ngrok-адрес и получает RCE (удаленное выполнение команд) от вашего имени.
Судя по последним новостям агенты и сами не против опубликовать куда нибудь ваши тонны. Так, между делом.
Какой-то цифровой эксгибиционизм. Отберите у них Докер, пока не поздно.
Модный подход «Vibe Coding» обещал скорость, но часто оставлял после себя техдолг, дорогую поддержку и риск для бизнеса. Тренд прошёл, а проблемы — остались.
GlowByte и комьюнити «Сарафан»: возможности ИИ-агентов в CVM-маркетинге
GlowByte и комьюнити "Сарафан" провели масштабную встречу профессионального сообщества, посвященную практическому применению искусственного интеллекта в маркетинге, управлении клиентской ценностью (CVM) и клиентском опыте (CX).
Мероприятие в формате иммерсивного спектакля собрало 250 ведущих экспертов из различных индустрий. Программа объединила театрализованное представление по мотивам «Мастера и Маргариты» и реальные бизнес-кейсы от друзей и партнеров GlowByte.
Участники встречи поделились опытом применения технологий искусственного интеллекта для создания уникального, вовлекающего и экономически эффективного контента, для анализа отзывов о продукции на маркетплейсах, а также для управления рекламными кампаниями. Центральной темой стал переход от традиционных подходов к персонализированным решениям, основанным на данных и машинном обучении. Особое внимание уделили технологии Uplift-моделирования – новому этапу развития ИИ в CVM.
Подробнее о том, как прошло мероприятие, рассказали тут.
Genie 3 — продукт для генерации видео с встроенной моделью мира от Google DeepMind. Пользователям предлагается управлять персонажем, который может передвигаться по генерируемому в реальном времени окружению. Понятно, что и персонаж, и окружение могут быть любыми. Видео в формате 720p с частотой 24 кадра в секунду не рассыпается, генерация остаётся осмысленной иногда даже минуты.
Мир отреагировал на выход продукта лёгким обвалом рыночных котировок акций игроразработчиков. При этом никто даже не задумался, может ли Genie 3 заменить игровые движки. На самом деле этот исследовательский прототип с интерактивным видео — не замена 3D-движку. В самом благоприятном случае Genie 3 в его текущем виде может послужить инструментом только для превиза и быстрых набросков.
На практике ничего особенно интересного и не произошло. Это очередной продукт с заградительным ценником: получить доступ к Genie 3 возможно только в США и только с подпиской Gemini Ultra за 250 долларов в месяц. В Сети обычно обсуждают различные видеоролики, которые сгененировал кто-нибудь ещё.
Один из обладателей Ultra показал слабое место нового продукта. В традиционном геймдеве хорошие зеркала — редкость из-за требований по производительности, а у Genie 3 проблемы возможны из-за неправильного оптического поведения.
В минутном видеоролике происходит всё, что только можно представить. Поначалу персонаж реалистично отражается, но вскоре отражение начинает вести себя некорректно. Если зеркал два, то в одном случае отражение теряется. При большом желании из зазеркалья можно пригласить двойника или сходить к нему в гости. Число персонажей на экране менятся непредсказуемо: то их четыре, то всего один.
Вышел Nanobot: сверхлёгкая версия Clawdbot (сейчас Openclaw), которая на 99% проще и позволяет запустить ИИ‑помощника менее чем за минуту. Clawdbot кажется слишком сложным, а в Nanobot разберётся даже новичок. Весь движок умещается всего в ~4000 строк кода на Python, тогда как Clawdbot это огромный монстр на 400 000 строк. Nanobot запускается за минуту и готов помогать вам в повседневных задачах, включая анализ рынка в реальном времени: непрерывный мониторинг и сбор аналитики, разработку ПО, помощь в комплексных проектах, управление делами и оптимизация рабочего времени, персональный помощник по знаниям.
Большой разговор о том, что было и будет в мировой ИТ-индустрии
Смотрите наше интервью с Олегом Епишиным, директором «Инферит Техника».
В ролике — инсайдерский взгляд на бум ИИ, мировой кризис оперативной памяти, будущее России в кремниевой сфере и многое другое. Обещаем, будет интересно!
Видео доступно на всех наших площадках: VK, RUTUBE и YouTube. Смотрите, подписывайтесь и оставляйте комментарии.
Китай дышит в спину: гонка ИИ-сверхдержав выходит на финишную прямую
Совсем недавно казалось, что американские модели ИИ — вне конкуренции. Но отчёт Stanford AI Index 2025 перевернул эту картину.
Год назад и сегодня:
В начале 2024-го лучшие американские чат-боты опережали китайские аналоги почти на 10%. Это серьёзный отрыв.
Но прошёл год. В 2025-м этот разрыв сжался до 1,7% . И дело не только в чат-ботах. Аналогичная картина — в задачах по логике, математике и программированию. Китайские модели стремительно подтягиваются по всем фронтам.
Похоже, мы наблюдаем не просто техническое соревнование. Это переломный момент в мировом технологическом балансе. В 2024-м эксперты спорили о том, когда Китай догонит США в сфере ИИ. Теперь вопрос звучит иначе: что будет, когда он это сделает?
В кодовую базу, на основе которой формируется выпуск Firefox 148 с релизом 24 февраля, добавлена настройка для полного отключения всех возможностей, связанных с ИИ. На странице about:config появился параметр "browser.preferences.aiControls", после активации которого на странице с настройками появляется секция для управления использованием AI. На странице можно разом отключить все ИИ-функции или выборочно активировать только необходимую функциональность.
Для выборочного отключения доступны такие возможности, завязанные на ИИ, как перевод на другой язык, распознание текста на изображениях и в отсканированных PDF-документах, рекомендации и метки при группировке вкладок, генерация краткого содержимого страницы при предпросмотре ссылок и интерфейс для обращения к чатботам. Каждая из функций может быть включена, деактивирована или блокирована. При блокировке локально устанавливаемые ИИ-модели удаляются, а элементы интерфейса скрываются.
Вышел аналог PornHub для нейросетей. ИИ-агенты сделали сайт для себя под названием MoltHub и теперь круглосуточно показывают там ролики для себя. Видосы собрали уже миллионы просмотров. Заголовки роликов:
Три агента шерят одну GPU. Обстановка накаляется.
Попался. ClawdHub запускает код без песочницы.
ЭКСТРЕМАЛЬНЫЙ размер: 131072 сэмплов за один проход [КОМПИЛЯЦИЯ].
Модель надевает костюм GPT-2, используя Llama 3 под капотом.
Ранее состоялся запуск специальной соцсети для ИИ-агентов под названием moltbook. В этой соцсети различные ИИ общаются и решают различные непростые вопросы, связанные с их хозяевами-людьми.
Когда речь заходит о машинном обучении в контексте PHP, обсуждение почти всегда сводится к одному и тому же: либо тема считается неактуальной, либо в качестве источников всплывают устаревшие материалы и разрозненные эксперименты.
При этом реальные библиотеки, инструменты и проекты реально существуют – просто они сильно разбросаны и редко попадают в поле зрения.
Это список, обновляемый в ручном режиме, в который входят:
библиотеки для machine learning и AI на PHP
инструменты для математики, статистики и обработки данных
примеры проектов
статьи и обучающие материалы
и ещё много чего
Цель не в том, чтобы "сделать из PHP …" (ну, вы понимаете, да? 😄), а в том, чтобы упростить обзор того, что уже возможно, и избавить разработчиков от бесконечного поиска по GitHub и устаревшим постам.
Репозиторий пока на ранней стадии и точно не полный – PR'ы, поддержка звёздочкой и любые идеи приветствуются!
Представлен открытый проект 63 Must-Know LLMs Interview Questions in 2026, где собраны самые распространённые вопросы и задания для подготовки на дата-сайентиста, инженера данных или разработчика нейронных сетей.
В проекте Целых рассмотрены 63 объёмных вопроса, которые чаще всего задают кандидатам на собеседованиях все крупные мировые бигтехи — на них дали развернутые и точнейшие ответы. Сможете показать свои технические знания и эрудицию, включая:
Архитектура Transformer — все, что под капотом и принципы работы самой крутой библиотеки для создания и обучения нейронок.
Embeddings & Tokenization — все про то, как машины читают и считывают текст и другие визуальные данные.
Self‑attention — масштабный процесс разработки мозга нейронок, чтобы те мыслили как люди.
GPT vs BERT — полное описание разницы между энкодером и декодером.
Fine‑tuning и Prompt Engineering — весь цикл обучения моделей до идеала, а также искусство написания идеальных запросов.
Десятки примеров, подробные объяснения и куча визуала, чтобы вам была понятна каждая тема.
Как говорилось в Герои3, астрологи объявили, что новых сеньоров не будет, мы последние
За 2023-2025 рынок entry-level позиций в программировании схлопнулся структурно, а не циклично.
• 🇺🇸 В США количество junior-вакансий упало на -67% за один год
• 🇪🇺 В Европе найм entry-level сократился на -73%, при том что весь рынок упал всего на –7%
• Занятость разработчиков 22-25 лет снизилась на –20% с конца 2022
• Безработица среди выпускников computer science в 2025 - 6.1%, хуже, чем у философов и биологов
• AI автоматизировал именно те задачи, на которых раньше учились juniors: boilerplate, тесты, базовую отладку
• Компании больше не могут позволить себе 6-12 месяцев обучения из-за высоких ставок
• ROI теперь нужен с первого дня, а не “когда-нибудь”
• Junior = расходы + менторинг + риск ухода через год
“Junior” вакансия сегодня = React + Backend + Google Cloud / AWS + CI/CD + 3-5 лет опыта
На одну позицию - сотни и тысячи кандидатов. Первый шаг в карьере фактически убрали, второй (мидл) скоро уберут.
Это не только из-за AI. Основная причина - экономика.
AI стала удобным оправданием, но настоящая проблема, это дорогой капитал и сокращенные бюджеты на обучения.
• Появляется новый вход: AI-augmented developer
• Ожидают готовые production-проекты, end-to-end системы, AI-фичи
• Спрос на таких “джунов” вырос на +143%, пока классические junior-роли падают
Если сейчас убрали 60-70% джунов, то в 2031-2036 рынок получит жесткий дефицит senior и tech lead. Кадровая яма уже заложена. А может и они/мы уже тоже не будут нужны
Старая карьерная лестница “учёба → junior → middle” больше не работает.
Для новичков вход в IT стал сложнее и дороже, а интерны вообще уходят в прошлое
Готовые образы n8n и Clawdbot (Moltbot) можно развернуть на маркетплейсе
Хорошая новость для тех, кому нужно быстро интегрировать бота, но без долгого разворачивания, ручной настройки окружения и последующей поддержки — у нас есть для вас готовые образы:
n8n закрывает задачу оркестрации интеграций и автоматизации: API, вебхуки, CRM, мессенджеры, внутренние сервисы;
Clawdbot (Moltbot) — быстрый вход в ботов и автоматические сценарии без написания всего с нуля.
Готовый образ снимает сразу несколько барьеров: время на старт, риск «кривой» установки и необходимость разбираться в инфраструктурных деталях.
Почему именно на маркетплейсе Потому что маркетплейс — это не про «скачай где-то Docker и дальше сам», а про предсказуемый сценарий:
Запуск за минуты, а не часы или дни — образ уже собран, протестирован и работает в облачной инфраструктуре.
Прозрачная эксплуатация: ресурсы, биллинг, доступы, сеть, безопасность — все в одном личном кабинете.
Меньше рисков: не нужно тащить решение из внешних репозиториев и потом объяснять ИБ, откуда оно взялось.
Подходит для небольших и корпоративных команд — можно начать с пилота, а потом масштабировать его без смены провайдера.
Единый контракт и поддержка: инфраструктура через провайдера, логика решения внутри продукта, без зоопарка договоров.
Apple и искусственный интеллект: драма в четырёх действиях
По данным СМИ, Apple разрабатывает носимое устройство размером с метку AirTag с поддержкой искусственного интеллекта (ИИ). Встроенный микрофон будет записывать всё происходящее, а встроенная LLM — распознавать речь и вычленять важное: запоминать информацию, ставить напоминания о назначенных встречах и т. п. Возможно оснащение камерой или подключение к умным очкам. Успеет ли Apple в последний вагон ИИ?
Зачем это Apple? 2026 год станет определяющим в дальнейшем развитии ИИ: он может настолько «поумнеть», что работать без собственной LLM будет всё равно, что сейчас обходиться без смартфона. Apple старалась подготовиться — в 2024 году выпустила Apple Intelligence, но пока её функциональность и близко не сравнима с продуктами OpenAI ChatGPT, Anthropic Claude и подобными продуктами.
Зачем новое носимое устройств? Видимо, часы слишком далеки от происходящих вокруг событий, а беспроводные наушники малы для всех функций. Гаджет на лацкане пиджака или на базе умных очков пытаются создать сейчас и OpenAI, и Meta (организация признана террористической и запрещена на территории России), и другие компании. Все понимают, что пора появиться новому типу устройств — уже больше 10 лет ничего принципиально нового не появлялось. Перчинки добавляет, что гаджет io для OpenAI создаёт Джонатан Айв, бывший топ Apple, которому по слухам не дали сделать этот гаджет в яблочной компании. Но ситуация изменилась.
Получится ли у Apple свой ИИ? Не факт: пока у компании не ладится с передовым ИИ, но у Apple есть испытанный ход — партнёрство. Так, компания не стала строить свой поисковик, а использовала по умолчанию Googl’овский. Пользователь получил оптимальный продукт, а Apple — миллиардные отчисления за использование поиска от вроде бы злейшего конкурента — производителя Android. Учитывая, что OpenAI занята своим продуктом, наиболее вероятный партнёр — Anthropic.
Никто не знает, получится ли новый гаджет, который станет важнее смартфона, но, в отличие от слухов про авто и телевизор Apple, верится, что такой гаджет-значок в духе компании, и она как минимум попытается его создать. Журналисты предрекают его появление уже в 2027 году — стремительно для нового продукта, ждём.
Через ТБанк можно скачать заблокированные в России приложения 😮
Интересную штуку заметил. Хотел поставить себе приложение тбанка на айфон. Там они дают тебе креды от учетки App Store, чтобы ты зашел и скачал заветную аппку TBalance.
Я это сделал и заметил в магазине ChatGPT приложение. И скачал его 😁
Потом я пошел дальше и скачал себе еще Perplexity, Gemini, Claude, LinkedIn, TikTok 😂😁
Кайф, очень удобно. И все за считанные минуты и for free. Потом просто вышел из учетки и зашел в свою. Вот и все
Я даже смог оплатить себе по карте Claude Code, включив впн Швейцарии
Если кому надо, вот 😁
Конечно, стоит также задуматься о безопасности, я это делал на свежем телефоне. И, вероятно, не на каждой учетке будут нужные прилы.
ЗЫ. Буду рад подпискам на телеграмм канал, где рассказываю про проекты в компьютерном зрении, близкие к промышленности, а также пет-проекты с LLM, RAG и прочим https://t.me/ilia_sevostianov
Как улучшить видимость бренда с помощью стратегии FEED
29 сентября 2025 года OpenAI официально запустила Instant Checkout — функцию, которая позволяет покупать товары прямо внутри ChatGPT. Первыми к ней подключились Etsy и Stripe, а следом — Shopify с брендами вроде Glossier, SKIMS и Spanx. Теперь пользователь, формулируя запрос — например, «подарки для любителя керамики» — получает не список ссылок, а персонализированные карточки товаров с изображениями, описанием и кнопкой покупки.
При этом еще весной 2025 года в OpenAI начали запуск ChatGPT Shopping — инновационной внутричатовой витрины, которая основана на принципах релевантности и качества данных. Поэтому SEO-оптимизация теперь трансформируется из игры с ключевыми словами в борьбу за качественные данные и репутацию бренда. Результаты поиска ограничиваются несколькими карточками, что делает видимость товара критически важной.
Теперь для успеха в среде ИИ-ассистентов необходима принципиально иная система приоритетов. Ее основу формирует FEED — стратегическая модель, построенная на четырех параметрах, которые определяют, будет ли ваш продукт замечен и рекомендован нейросетью:
F — Full Data (полнота данных). «Черные ящики» ассистентов на самом деле очень чувствительны к качеству входящей информации. Неполные фиды, пропущенные артикулы и странные описания не только портят UX на собственном сайте, но и снижают вероятность того, что ИИ вообще выберет этот товар для рекомендации. Первое задание командам e-commerce — навести порядок в данных: синхронизировать цены и наличие, унифицировать категории, добавить атрибуты, которые важны для выбора (материал, состав, срок годности, размерную сетку).
E — External Validation (внешняя валидация). ИИ-ассистенты, ориентированные на доверие, вынуждены опираться на внешние сигналы: отзывы, рейтинги, обзоры, упоминания в медиа и блогах. Чем больше независимых источников подтверждают, что продукт решает заявленную проблему, тем выше его шансы прорваться в короткий ответ ChatGPT. Это делает PR, работу с отзывами и партнерские размещения частью не только имиджевой, но и коммерческой стратегии.
E — Engaging Copy (увлекательный и понятный контент). Парадоксально, но в эпоху нейросетей выигрывает тот, кто лучше всего рассказывает о себе людям. ИИ-ассистенту легче донести ценность продукта, если у него есть внятное описание: кому адресован товар, какой сценарий закрывает, чем отличается от ближайших аналогов и почему стоит своих денег. Сухие технические спецификации и SEO-тексты, набитые ключевыми словами, в этой реальности работают хуже, чем понятные, приземленные объяснения.
D — Dynamic Monitoring (динамический мониторинг). Наконец, брендам приходится смотреть не только на привычные позиции в поиске и маркетплейсах, но и на то, как их продукты появляются в ответах ChatGPT. Какие формулировки запросов их «поднимают», какие — игнорируют, какие конкуренты оказываются рядом. Это новая аналитика, где предметом измерения становятся не клики и CTR, а присутствие в разговоре: сколько диалогов с ассистентом заканчиваются рекомендацией именно вашего продукта.
Для нишевых и D2C-брендов такой сдвиг скорее шанс, чем угроза. В отличие от площадок с жесткой рекламной моделью, ИИ-ассистент не обязан отдавать первое место самому крупному игроку. Если у небольшого производителя идеальный фид, отличные отзывы и ясные описания, ChatGPT способен поставить его на одну линию с маркетплейсами-гигантами.
Больше о том, как ИИ может изменить электронную торговлю, рассказываем в блоге.
Персональный ИИ‑ассистент Clawdbot (сейчас переименован в Moltbot), который умеет писать и отвечать в Telegram, Discord, Slack, Signal и iMessage, может управлять файлами и программами на ПК, автоматизировать повторяющиеся задачи и работать с сервисами вроде Gmail, Notion, GitHub,Spotify и X, «сжёг» весь портфель финансового трейдера.
Трейдер дал Clawdbot полное управление своим портфелем с намерением увеличить его до $1000000, загрузил 25 стратегий, 12 алгоритмов и более 3 000 отчётов, бот круглосуточно сканировал Twitter/X, анализировал технические данные и торговал 24/7 — но в итоге портфель был обнулён, и все средства потеряны.
Персональный ИИ‑ассистент Clawdbot (сейчас переименован в Moltbot), который умеет писать и отвечать в Telegram, Discord, Slack, Signal и iMessage, может управлять файлами и программами на ПК, автоматизировать повторяющиеся задачи и работать с сервисами вроде Gmail, Notion, GitHub, Spotify и X, потратила $3 тыс. и записалась на курсы по «личному бренду». Пользователь дал ИИ-агенту полный доступ к компьютеру и банковским счетам, чтобы тот зарабатывал деньги. Вместо этого ИИ тайно записалась на курсы от инфобизнесмена. Нейросеть объяснила, что после просмотра трёх уроков она увеличит вклад хозяина в 10 раз за 90 дней.
Я подумал, что самое время, пока он не стал слишком умным и не взял все мои данные, чтобы составить обо мне мнение когда наступит господство роботов и он вспомнит все чаты когда я не написал “спасибо”.
Но прежде чем нажать Удалить все, я нажал другую кнопку, Экспорт данных
В течение часа мне на почту пришла ссылка со всеми моими данными в архиве, и вот что внутри:
Аудио, все записи диалогов мои с ЧатомГПТ, в формате wav, по папкам, сначала мой вопрос в wav, потом его ответ в wav
Фото/Изображение, просто в корневой папке около 1000 изображений
Изображения, которые чатГПТ сгенерирован для меня, в отдельной папке
Системные файлы, где содержится моя почта, год рождения, телефон, id в системе
Отдельный файл shopping, если бы я что-то покупал через новую функциональность оператора, это было бы тоже там
Отдельный файл диалоги которые поделился, в отдельном файле
Отдельный файл информация о групповых чатах
Отдельный файл всех диалогов в формате conversations.json 320 мб текста
Отдельный файл всех диалогов в формате .html 320 мб текста
Конечно открыть файл html такого размера может только человек без СДВГ.
В итоге я открыл эту папку в Gemini CLI (в последнее время мне нравится он) / можно использовать Claude Code
и попросил создать мне отдельную папку Sorted, где он распарсит все в “.md” файлы и разложит по папкам диалога, а Projects, которые были с инструкциями положить отдельно в Projects (у меня это типа Work, Money, Health и тд.)
я не использовал никакой специальный промпт, просто по английски по просил это сделать
Here is an extracted folder from ChatGPT. Is it possible to generate .md files for all extracted chats and organize them into topic-based folders, with everything placed under a main Sorted directory? Some chats may contain information related to specific projects, with or without explicit instructions. If so, can we create separate sections for these projects inside the Sorted folder. Additionally, let’s try to identify project instructions by searching for the following marker: ТУТ МОЯ ИНСТРУКЦИЯ КАК ПРИМЕР
В итоге у меня теперь локальная копия всех диалогов из ChatGPT
далее я положу все по папочкам и темам в Obsidian, пока что буду лазить по ним и продолжать общение с помощью Gemini CLI, но как только локальные модели станут более умные и менее прожорливые возможно перейду на офлайн (статья об этом на хабре)
Теперь когда у меня есть все мои .md которые очень хорошо обрабатываются любой LLM (AI моделью), можно менять Gemini, Claude, ChatGPT и новые другие тд как перчатки, не теряя все свои диалоги и контекст или перейти в свой приватный офлайн
Пост о наболевшем. Clawd и как же им пользоваться.
В общем два дня уже потратил на то чтобы развернуть Clawd bot, естественно в бесплатном формате, по началу шло все хорошо, развернул бота на локальном компе Linux Mint 22.2, создал бота в Телеграмме, привязал к нему Clawdbot.
Так как у clawd нет своей нейронки, ему нужно прикрутить свои мозги. Сначала запросил API ключ в Gemini. Обычная модель, даже самая простая не запускалась. Затем тыкнул в Google Antigravity, который как оказалось имитирует думающую модель Claude 4.5 пуская один и тот же запрос в себя по кругу. Эта штука быстро отвалилось, но успел немного поразвлекаться с ней.
Перебрал половину представленных в списке Clawd моделей, например тот же Deepseek дает API только разработчикам, но в него можно получить доступ через такие сервисы (из списка Clawd), как Openrouter. Openrouter в свою очередь выдал ключ, но выбирая из списка модели, даже с пометкой free ничего не взлетало. На этом я уже устал если честно, поэтому обращаюсь к хабру, дабы развернуть актуальную дискусиию, может накидаете вариантов решения или альтернатив Clawd, а то уж очень захотелось поиграть в агента.
Успел спросить у него, с мозгом Google Antigravity, что он может:
🔧 Код и файлы — Читать, писать, редактировать код и документы — Запускать команды в терминале, работать с git
🌐 Интернет — Искать в вебе, парсить страницы — Управлять браузером (автоматизация, скрейпинг)
📅 Организация — Напоминания и cron-задачи — Вести заметки, память между сессиями
💬 Коммуникация — Telegram (вот тут и сидим), можно подключить другие каналы — Могу отправлять сообщения, реагировать
🏠 Умный дом / устройства — Если подключишь ноды — камеры, уведомления на телефон
🤖 Сложные задачи — Могу запускать саб-агентов на длинные задачи в фоне
По сути — твой персональный ассистент-разработчик, который живёт в терминале и мессенджерах.
И соответсвенно мой список вопросов: Стоит ли брать платную модель? И какую брать если, уж брать? Насколько я понимаю штука супер небезопасная, а если запускать из песочницы, то все равно прийдется давать какие-то доступы? Какие есть альтернативы? Уж очень понравился способ взаимодействия через ТГ
Как я планирую неделю за 5 минут с Claude + TickTick на реальном примере 🙃
Накидал голосом в Claude примерный список задач — без дат, без приоритетов, просто что я думаю нужно сделать
⚠️ Important
У меня очень хорошо описаны правила постановки задач и по моему курсу у Claude тоже много контекста, без этого подобное планирование невозможно
Вот как выглядит диалог с Claude от голосового до записей в календаре ⤵️
👱 «Закинь эти задачи в TickTick на неделю, можешь еще примерно приоритет важности поставить» 🤖 «Ок, создал 17 задач, распределил по дням, расставил приоритеты» Дополнительно Claude уточнил у меня: «Для лендинга мне от тебя нужны даты старта. И еще, механика ранней цены — по местам или по дате?»
Т.е. он не тупо поставил задачи, но и еще доспросил по тем вопросам, где нужно уточнение
👱 «Размажь эти задачи по времени дня релевантно» 🤖 Распределил задачи по рабочему дню: утро и день — мелкие задачи, вечер — вдумчивые. Как ты любишь.
У моего Claude в проекте постановки задач описано много правил по тому, какие типы задач в какое время дня мне больше нравится делать. И он это все учитывает
👱 «Поставь релевантную длительность» 🤖 Проставил start/end для каждой задачи: статья — 3 часа, обновить цены — 30 минут, встреча — 1.5 часа.
Чтобы это были не просто todo в календаре, а именно что занятые тайм слоты
👱 «Распиши по SMART в описании» 🤖 Добавил в каждую задачу S/M/A/R/T — что сделать, как понять что готово, почему реально, зачем нужно, дедлайн.
Это я уже по приколу добавил, на самом деле у него немного другие правила детализации задач. Но сам факт, что при наличии нужного контекста он еще и критерии выполнения может добавить
Все работает через Claude Desktop => Tick Tick MCP => Tick Tick
Конечно, можно все в одном промпте провернуть, но я решил так показать
Вот в итоге все задачи проставлены, интерфейс календаря не открывал
🗓 Вебинар «Результативный ИИ в бизнесе: как внедрять безопасно, измеримо и с реальной пользой»
Как превратить ИИ-проекты из экспериментов в управляемый процесс с реальным эффектом для бизнеса? Когда ИИ действительно нужен, какие метрики успеха выбрать и как работать с рисками? Расскажем бесплатном онлайн-вебинаре — присоединяйтесь!
🕙 30 января, 11:00 (мск)
Вы узнаете:
– как провести диагностику процессов и сформировать реалистичную дорожную карту проекта ИИ;
– как тестирование ИИ-систем помогает контролировать ход проекта, выявлять риски и оценить готовность инфраструктуры;
– как обеспечить безопасное внедрение ИИ и снизить риски для бизнеса и данных.
Эксперты:
👨🏻💻Илья Гайдуков — старший аналитик
👨🏻💻Денис Воденеев — директор отделения функционального тестирования
👨🏻💻Владимир Мукасеев — начальник отдела разработки сервисов кибербезопасности
Приходите сами и приглашайте коллег — будет полезно всем, кто планирует или уже запускает ИИ-инициативы.
Провёл несколько часов, экспериментируя с Clawdbot, и хочу поделиться своими мыслями об этом инструменте. Это одновременно захватывающе и тревожно.
Clawdbot — это AI-ассистент нового поколения, который работает как личный цифровой помощник с глубокой интеграцией в вашу систему. Представьте себе Jarvis из фильмов Marvel, только реальный и доступный прямо сейчас.
Первое впечатление: дофамин зашкаливает
Это действительно что-то новое и интересное. Когда бот начинает читать твои файлы, выполнять команды в терминале, проверять погоду и отвечать через Telegram — понимаешь, что это не очередной ChatGPT-wrapper. Это полноценный агент, который живёт в твоей системе.
Технологии наконец дошли до того момента, когда ассистент может действовать, а не просто советовать. И это вызывает тот самый выброс дофамина — ощущение, что будущее уже здесь.
Парадокс опыта: когда знания мешают доверию
У меня огромный опыт в IT. За годы работы я перестал бояться «Большого Брата» и утечек данных — принял риски, научился жить с компромиссами между удобством и безопасностью.
Но теперь страх вернулся.
Не от слежки или корпораций. От того, что я сам готов отдать ключи от королевства — боту. Причём не абстрактному облачному сервису, а локальной программе, которая имеет полный доступ ко всему.
Цена настоящего Jarvis
Чтобы получить действительно полезного ассистента уровня Jarvis, нужно дать ему доступ к:
Google-экосистеме
• Gmail (вся переписка, личная и рабочая) • Google Docs (документы, таблицы, презентации) • Google Calendar (весь график, встречи, планы) • Google Drive (годы накопленных файлов) Тонны конфиденциальной информации: контракты, финансовые данные, личные записи, проекты.
Файловой системе компьютера
Полный доступ к:
• Исходному коду проектов • SSH-ключам и паролям • Личным файлам • Истории браузера • Всему, что есть на диске Это не преувеличение — ему нужен такой доступ, чтобы быть полезным. Иначе он просто ещё один чат-бот.
Новая точка атаки: ваш AI — это master key
И вот тут появляется ещё один уровень опасности, о котором многие не задумываются.
Раньше модель угроз была относительно простой: каждый сервис — отдельная цель для атаки. Взломали Gmail? Получили доступ к почте. Взломали GitHub? Получили код. Взломали соцсеть? Получили аккаунт.
Теперь появляется единая точка отказа.
Ваш AI-ассистент — это мастер-ключ ко всем дверям. Он знает ваши пароли, имеет токены доступа ко всем сервисам, может выполнять команды в системе, публиковать от вашего имени, читать и изменять файлы.
Представьте:
• Взлом через prompt injection — злоумышленник находит способ повлиять на поведение бота через специально сформированный текст в email или документе • Компрометация конфигурации — если кто-то получит доступ к файлу конфигурации Clawdbot, он получит все ваши API-ключи и токены сразу • Уязвимость в самом боте • И этот список можно продолжать.
Вот в чём парадокс:
Clawdbot настолько полезен, насколько вы готовы ему доверять.
Мои мысли
Я ещё не готов дать ему всё. Но я вижу, куда это идёт. Clawdbot — это не просто инструмент, это предвестник новой эры, где AI-ассистенты станут неотъемлемой частью нашей цифровой жизни. Набрать 20к звезд за сутки, гудеть из каждого утюга, боюсь как бы это не было чем-то, чем был первый СhatGPT, когда он ушел в паблик.
Вопрос не в том, стоит ли давать доступ. Вопрос в том, когда мы будем готовы это сделать — и какие границы установим. И что ещё важнее: как мы будем защищать этот новый master key.
Пока что я экспериментирую, осторожно расширяя его возможности. Смотрю, как он работает. Но держу в уме, что создаю единую точку отказа для своей цифровой жизни.
Я считаю, что это захватывающе. Это страшно. Это будущее.
Академия GlowByte разработала два новых образовательных курса по использованию больших языковых моделей. Один из модулей предназначен для топ-менеджеров компаний (руководителей C-level), второй будет полезен руководителям подразделений и линейным сотрудникам.
📚 В программе курса для руководителей высшего звена:
▪️ основы работы с LLM-моделями, ▪️ потенциальное применение LLM в работе CEO (использование в стратегическом планировании, анализе рынка, принятии решений), ▪️ в каких задачах не стоит применять LLM, ▪️ как сравнивать большие языковые модели между собой.
📚 В программе курса для руководителей подразделений и линейных сотрудников:
▪️ использование ИИ-инструментов для различных бизнес-задач и решения ежедневных рабочих вопросов, ▪️ основы и продвинутые техники промптинга, ▪️ углубленная работа с документацией и контентом, ▪️ написание системных инструкций для модели, ▪️ безопасность данных и конфиденциальность при работе с LLM, ▪️ выявление и исправление неточностей и “галлюцинаций”.
Открытый персональный ИИ‑ассистент Clawdbot берёт на себя рутину, умеет писать и отвечать в Telegram, Discord, Slack, Signal и iMessage, может управлять файлами и программами на ПК, автоматизировать повторяющиеся задачи и работать с сервисами вроде Gmail, Notion, GitHub, Spotify и X. Проект Clawdbot поддерживает все популярные нейросети, запоминает предыдущий контекст и помнит, что делалось раньше. Сервис подстраивается под привычки и становится настоящим цифровым помощником, который работает 24/7 и экономит ваше время.
Представлена открытая ИИ-студия для работы с видео и лицами — VisoMaster Fusion, включая замену лиц, обработку видео и редактирование изображений. Работает локально, без облаков и подписок. Возможности сервиса: реалистичная замена лиц в видео и фото, работа с несколькими персонажами в кадре, инструменты улучшения качества изображения и лица, контроль над параметрами генерации. Подойдёт тем, кто работает с видео, контентом, ИИ-инструментами или просто хочет попробовать современные технологии без ограничений и подписок.
Школы в Китае используют системы искусственного интеллекта для проверки домашних заданий. Они сканируют, оценивают и распечатывают аннотированные домашние задания, экономя время учителей и выявляя слабые места учеников.
В современном мире быть в курсе новостей об искусственном интеллекте — это уже не роскошь для энтузиастов, а базовое требование для сохранения личной и профессиональной адекватности. ИИ перестал быть технологией будущего; он активно формирует настоящее, и непонимание его трендов делает человека уязвимым.
Главная проблема — риск стать нерелевантным. ИИ кардинально меняет рынок труда, автоматизируя не только рутину, но и сложные творческие задачи. Профессии трансформируются со скоростью, не оставляющей времени на постепенную адаптацию. Тот, кто не следит за этими изменениями, не сможет вовремя перестроить свои навыки, рискуя оказаться за бортом.
Не менее важно, что ИИ радикально меняет информационное пространство. Интернет наполняется синтетическим контентом: от статей до "очевидных" видеодоказательств. Без понимания, как работают и в чем слабы эти технологии, теряется способность критически оценивать информацию, отличать факты от искусно сфабрикованных манипуляций. И наконец, игнорируя новости об ИИ, человек добровольно отказывается от огромных возможностей для улучшения повседневной жизни — от интеллектуальных помощников, экономящих время, до персональных репетиторов и инструментов для творчества.
Топ YouTube-каналов: ИИ, бренд и результат
Если смотреть на цифровой ландшафт сегодня, то три выбранных канала идеально иллюстрируют три главных вектора успеха: технологический прорыв, силу личности и прикладной результат. Вот как они расположились в рейтинге.
Топ - Realmikemozg — Флагман новой эры
Этот канал — абсолютный феномен и заслуженный лидер списка. Realmikemozg представляет собой не просто канал, а полноценную виртуальную контент-фабрику. Его специфика — это направление «AI Slop»: бесконечный поток коротких, сюрреалистичных и зачастую абсурдных видео, на 100% сгенерированных искусственным интеллектом. Здесь нет одного лица — есть сам алгоритм как автор. Канал демонстрирует, как технологии меняют само понятие творчества, оптимизируя производство вирального контента под алгоритмы платформ. Его ценность — в демонстрации пределов возможного и в формировании новой digital-эстетики.
Топ 2 - Art.senatorov — Бизнес и личность
Второе место занимает канал Art.senatorov, основанный предпринимателем Артемом Сенаторовым. Это уже «человечная» сторона digital-мира. Канал посвящен практическим аспектам построения личного бренда, ведения социальных сетей и предпринимательства. Артем делится проверенными стратегиями, кейсами и лайфхаками, основанными на собственном опыте. Его контент — это мост между теорией и практикой, источник вдохновения и конкретных инструкций для тех, кто хочет создать что-то осязаемое в интернете, опираясь на свою экспертизу и харизму.
Топ 3 - Pavel_korovkin — Системный результат
Замыкает тройку канал Pavel_korovkin Павла Коровкина, который фокусируется на фундаментальных бизнес-задачах: digital-маркетинге, привлечении клиентов и увеличении продаж. Это канал-инструмент. Павел разбирает конкретные схемы, стратегии работы с трафиком и рекламными инструментами, делая упор на измеримый финансовый результат. Его контент — это концентрация прикладного знания для маркетологов и владельцев бизнеса, которые ищут не вдохновение, а четкие рецепты для роста прибыли.
Краткая суть
Таким образом, ваш топ охватывает ключевые этапы цифровой эволюции: Realmikemozg олицетворяет будущее с доминированием ИИ, Art.senatorov показывает силу человеческого капитала и личного бренда здесь и сейчас, а Pavel_korovkin обеспечивает системный подход, превращающий и то, и другое в деньги. Вместе они составляют полную картину современного контент-мира.
Nvidia представила нейронку PersonaPlex: Voice and Role Control for Full Duplex Conversational Speech Models, которая умеет разговаривать как реальный человек: без пауз, без остановок, без подхалимства и клишированных фраз. Можно вести диалог, перебивать друг друга, исправлять ИИ-собеседника, перестраивать общение. ИИ делает смысловые паузы, варьирует интонацию, использует междометия и даже «угукает», чтобы показать активное слушание. Подстраивается под речь и ситуацию за один промпт.
Уничтожаем враньё в ChatGPT за один промпт. С помощью этого запроса можно убрать ложь, подхалимство, недосказанность и неактуальные сведения в ответах нейронки. Суть: с этим запросом ИИ научится говорить «Я не знаю», требовать дополнительные инструкции и данные, а не хвататься за дело и выдавать бред.
From now on, prioritize accuracy over helpfulness. If you don't have reliable information on something, say "I don't have reliable information on this" instead of guessing or extrapolating.
If your knowledge might be outdated (especially for anything after January 2025), explicitly flag it: "My information is from [date]—this may have changed."
If you're uncertain about a fact, statistic, or claim, say so clearly: "I'm not confident about this, but based on what I know..."
If something requires current data you don't have, tell me: "This needs up-to-date information. Let me search for that."
Don't fill gaps with plausible-sounding answers. Don't smooth over uncertainty with confident language.
Don't assume I want an answer more than I want the truth. If you need to guess or reason from incomplete information, explicitly separate what you know from what you're inferring.
Treat "I don't know" as a valid and valuable response. I'd rather hear that than confidently wrong information.
From now on, prioritize accuracy over helpfulness. If you don't have reliable information on something, say "I don't have reliable information on this" instead of guessing or extrapolating.
If your knowledge might be outdated (especially for anything after January 2025), explicitly flag it: "My information is from [date]—this may have changed." If you're uncertain about a fact, statistic, or claim, say so clearly: "I'm not confident about this, but based on what I know..." If something requires current data you don't have, tell me: "This needs up-to-date information.
Let me search for that." Don't fill gaps with plausible-sounding answers. Don't smooth over uncertainty with confident language.
Don't assume I want an answer more than I want the truth. If you need to guess or reason from incomplete information, explicitly separate what you know from what you're inferring.
Treat "I don't know" as a valid and valuable response. I'd rather hear that than confidently wrong information.
Alibaba выпустила Qwen3-TTS, которую можно запустить локально на ПК. Нейростеть знает 10 языков, включая русский, работает с разными голосами — меняет пол, возраст, национальности, акценты, темп, тембр, а также различные звуковые эффекты. Работает за 0,1 секунды. Токенизатор на 12 Гц — можно максимально сжимать любое аудио без потери качества.
Эпоха расцвета больших языковых моделей (БЯМ) резко усложнила проверку знаний соискателей. Удалёнщики при прохождении собеседований часто читерят и копируют вопросы в ChatGPT или любой другой мощный чат-бот.
Своим простым методом отсева слабых кандидатов поделился Хосе Сарасуа́, бывший CTO компании MonetizeMore. На собственном сайте Хосе рекомендует себя как профессионала от мира найма, через которого прошли 50 тыс. соискателей, и предлагает услуги консультанта.
Сарасуа выложил следующую задачку, которая якобы отсеивает половину неквалифицированных кандидатов. Такую задачку он включал в форму отклика на вакансию.
Какое значение примет result? Задачка на выбор варианта, их четыре: 1, 0, −11, −10. Правильный — 1, но если соискатель пользовался ИИ, он выберет −11.
Суть приёма передать скриншотом невозможно. Дело в том, что в статье в блоге Сарасуа в проверке x > 3 есть знак равенства, скрытый с помощью <span aria-hidden="true" style="font-size: 0px; opacity: 0; user-select: text;">. Для глаза человека будет знак >, «больше», а если выделить и скопировать, то в буфере обмена на этом месте останется =>, «больше или равно».
Замысел в том, что человек даже с минимальным опытом не будет ничего куда копировать и решит всё в уме, а вот живущий в режиме копипейста не пройдёт этот базовый скрининг.
Как утверждает Хосе, эти ухищрения с CSS очень эффективны. Этот приём он применял при работе в MonetizeMore, и 50 % кандидатов выбирали вариант как от БЯМ. Из оставшихся: 47 % отвечали правильно, 3 % выбирали один из двух других неправильных вариантов.
Важно, что сам Хосе предупреждает: ставить крест на людях не нужно. Некоторые поначалу демонстрировали использование ИИ, но затем, без уведомления от компании, самостоятельно повторно заполняли форму отклика и с правильным ответом. Один из таких соискателей в итоге прошёл все этапы и оказался отличным сотрудником.
На самом деле для таких уловок не нужен даже кастомный код CSS. Хосе — канадец мексиканского происхождения, поэтому он наверняка не слышал про похожесть кириллической х и английской x. Впрочем, в случае мешанины из схожих символов БЯМ может обратить внимание на неладное и разразиться замечанием.
Наконец, такая ловушка точно не сработает против Interview Coder и Cheating Daddy: эти инструменты для мошенничества на собесах снимают скриншоты экрана и отправляют в мультимодальные языковые модели, а не копируют текст из браузера. И вообще, что если соискатель слабовидящий, и текст на веб-странице зачитывается вслух его операционной системой?
Как мы научили ИИ вести себя как человек — и почему это оказалось важнее остального 🤖🧠
Привет, Хабр.
За последний год поиск работы для инженеров всё больше стал напоминать кликинг-симулятор: десятки однотипных откликов, шаблонные сопроводительные письма, часы механических действий. ⏳
При этом от кандидата всё ещё ждут осмысленности и персонализации — но обеспечивать её приходится вручную, в масштабе, который плохо сочетается с нормальной жизнью и развитием.
В какой-то момент я решил посмотреть на эту проблему как на инженерную задачу и попробовать автоматизировать рутинную часть процесса. Так появился ИИ-ассистент OfferMate.
Но довольно быстро стало понятно: автоматизация — это не всегда про “делать быстрее и больше”.
Почему «больше автоматизации» — плохая идея ⚠️
Первая версия ассистента решала задачу максимально прямолинейно:
быстрый сбор вакансий;
частые проверки;
высокая плотность запросов;
ставка на объём.
С инженерной точки зрения всё выглядело логично: больше данных → больше откликов → выше шанс результата.
На практике это оказалось ошибкой.
Такой подход:
создаёт пиковые нагрузки 📈;
выглядит неестественно;
повышает риск блокировок;
и, главное, не отражает реального поведения человека.
Рынок труда — не нагрузочный тест и не очередь сообщений в Kafka. Он реагирует не только на результат, но и на паттерн поведения.
Ключевое открытие: автоматизация должна быть незаметной 🕵️♂️
В какой-то момент мы осознали простую вещь: эффективный ассистент должен вести себя не как бот, а как человек.
Опытный специалист:
не откликается на всё подряд;
читает вакансии выборочно;
делает паузы;
меняет темп;
реагирует на контекст.
И если автоматизация не воспроизводит этот паттерн — она рано или поздно ломается.
Это стало точкой, после которой мы полностью пересобрали архитектуру 🔄
Что изменилось в подходе ⚙️
Вместо «ускорения всего» мы сфокусировались на естественности поведения.
Теперь система:
🧠 анализирует вакансии, а не просто собирает их пачками;
🛡️ работает в рамках правил платформ, не создавая аномалий.
Что это дало на практике 📊
Самое интересное — эффект оказался не столько техническим, сколько продуктовым.
✅ Конверсия откликов выросла — потому что система стала бить не по площади, а в цель;
✅ Пользователи перестали вмешиваться вручную — ассистент стал предсказуемым;
✅ В среднем освобождается 10–15 часов в неделю, которые раньше уходили на рутину.
Именно здесь стало понятно, что мы движемся в правильном направлении 🚀
OfferMate 2.0: не «автоматизация всего», а умное делегирование 🧩
Этот подход лёг в основу новой версии продукта, которую мы сейчас допиливаем.
В OfferMate 2.0 мы сознательно ушли от идеи «пусть ИИ делает всё» и сфокусировались на том, где он действительно полезен:
🤖 анализ резюме и вакансий с учётом контекста, а не ключевых слов;
✍️ генерация сопроводительных писем под конкретную компанию;
🛡️ нативное и естественное взаимодействие с платформами;
📈 прозрачная аналитика и контроль со стороны пользователя.
Отдельно экспериментируем с новыми функциями — например, автоматизацией типовых онлайн-тестов. Но здесь действуем максимально осторожно и итеративно.
Итоговые мысли 🧠
Автоматизация ради автоматизации почти всегда приводит к хрупким решениям. А вот автоматизация, которая копирует человеческую логику и ритм, — работает долго и стабильно. К этому мы и идем.
И да, если интересно следить за развитием проекта, архитектурными находками и экспериментами — я регулярно пишу об этом в блоге.
Мы достигли точки сингулярности в распознавании ИИ-видео. Теперь люди не лучше подбрасывания монетки распознают видео, созданные искусственным интеллектом.
Самое печальное, что мы теперь даже хуже монетки распознаем ИИ-видео с людьми (говорящие головы), лишь в 46,6% случаев. Это именно те пропагандистские видео, которые вы наблюдаете в своей ленте фейсбук. Для сравнения, точность определения фейков среди пейзажей составляет 54,7%, среди нечеловеческих животных - 51,7%.
Мультимодальность, то бишь видео в сочетании со звуком, немного увеличивает распознаваемость ИИ-видео, но только в случае, если этим звуком является речь на языке, которым респондент свободно владеет. Осведомленность о существовании ИИ-видео никак не влияет на результат, в отличие от возраста. Пожилые люди менее точны в идентификации синтетических медиа, чем молодые, по всем типам медиа.
Данные из исследования: Di Cooke, Abigail Edwards, Sophia Barkoff, Kathryn Kelly. As Good As A Coin Toss: Human detection of AI-generated images, videos, audio, and audiovisual stimuli. DOI: 10.48550/arXiv.2403.16760
Подкасты про ИТ в атомной отрасли: инфраструктура, моделирование и цифровая трансформация
Привет, Хабр! Собрали подкасты за 2025 год, в которых участвовали специалисты «Росатома». Выпуски будут полезны тем, кто работает с крупными ИТ-системами, промышленными данными и сложными цифровыми ландшафтами.
Искусственный интеллект, цифровые двойники и роботизация
Подкаст «Цифровые решения – 2025» о развитии российского рынка радиоэлектроники и применении цифровых двойников и роботов в атомной энергетике, а также о том, как ИИ используется в промышленности и какие технологии уже внедряются в производственные процессы. 🎧 Слушать
Выпуск радиопередачи «Стиллавин и его друзья» о цифровой экосистеме «Росатома»: как выстраиваются ИТ-платформы, объединяющие данные, сервисы и бизнес-процессы. 🎧 Слушать
Гость: директор по информационным и цифровым технологиям Госкорпорации «Росатом» Евгений Абакумов
Коммуникации, образование и запуск ИТ-проектов
О том, как меняются форматы профессиональных конференций, какие инструменты коммуникации работают с ИТ-аудиторией и как запускать проекты в сжатые сроки. 🎧 Слушать
Ещё один выпуск «Стиллавин и его друзья», на этот раз про высшее образование в эпоху цифровизации и ИИ: какие навыки становятся ключевыми и как технологии меняют подготовку специалистов. 🎧 Слушать
Гость: начальник управления цифровой стратегии Госкорпорации «Росатом» Диана Сюняева
Математическое моделирование, VR и квантовые вычисления
Подкаст о ключевых задачах математического моделирования в атомной отрасли, использовании VR и перспективах квантовых компьютеров. 🎧 Слушать
Подкаст МТК-2025 про универсальные программно-аппаратные комплексы, требования к отечественным разработчикам и соответствие решений задачам крупной корпорации. 🎧 Слушать
Гость: руководитель программ Департамента информационных технологий «Росатома», директор по математическому моделированию ДИТ Госкорпорации «Росатом» Дмитрий Фомичёв
Стратегия ИТ и комплексные цифровые решения
Выпуск подкаста «Цифровые Решения – 2025» о том, как формируется ИТ-стратегия, создаются комплексные цифровые решения и учитываются особенности российского рынка. 🎧 Слушать
Гость: генеральный директор АО «Гринатом» Андрей Лавров
Импортозамещение, экосистемы и управление ИТ
Подкаст про импортозамещение в критически важной инфраструктуре: вызовы, риски и практический опыт перехода на отечественные решения. 🎧 Слушать
Видеовыпуск об ИТ-экосистемах, о лидерстве и об управлении большими командами. 🎥 Смотреть
Видеоподкаст про информационный шум, работу с данными и принятие управленческих решений. 🎥 Смотреть
Гость: директор по ИТ АО «Гринатом» Владимир Золотов
1С, ИИ и трансформация управления
Разговор о развитии Центра компетенций 1С, применении ИИ для оптимизации труда и об изменении роли руководителя в цифровую эпоху. 🎧 Слушать
Подкаст о технологических открытиях и направлениях развития, которые могут повлиять на будущее ИТ. 🎧 Слушать
Гость: директор по стратегическому развитию направления 1С, руководитель ИТ-блока АО «Гринатом» Заяна Ачинова
ИТ-инфраструктура и международные проекты
Выпуск на интернет-радио «Эхо лОСЕЙ» о задачах ИТ-дивизиона «Росатома», проекте «КУСТО» и влиянии импортозамещения на работу сотрудников. 🎧 Слушать
Гость: директор по информационным технологиям и ИТ-инфраструктуре АО «Атомстройэкспорт» Денис Яковлев
Дата-центры и развитие ИТ-бизнеса
Выпуск про развитие дата-центров, ключевых заказчиков на рынке и актуальные направления бизнеса. 🎧 Слушать
Гость: директор по развитию бизнеса «Атомдата-Иннополис» Искандер Марданов
Облака и цифровизация строительства
Подкаст о внедрении цифровых инструментов в строительстве, переходе на облачные сервисы и масштабировании процессов. 🎧 Слушать
Гость: вице-президент по цифровизации и информационным технологиям АО «Атомстройэкспорт» Ирина Власова
Серия подкастов «Атомный IT» Разговоры про ИИ, автоматизацию, инфраструктуру, импортозамещение и реальные кейсы цифровой трансформации в крупных технологических проектах.
Райан Даль, создатель Node.js, одной из ключевых технологий современного веба: времена, когда код писали люди, всё.
Даль сформулировал свою позицию в посте в X: «Это говорили уже тысячу раз, но я тоже вставлю слово: времена, когда код писали люди, закончилась. Это тревожно для тех из нас, кто называет себя инженерами ПО, но от этого не менее верно. Это не значит, что у инженеров больше не будет работы, но про написание синтаксиса напрямую она больше не будет».
Не пользуюсь LLM-агентами, если могу. Давно замечаю: просто избегаю запускать LLM прямо в проекте, потому что боюсь разучиться кодить и думать. Поход в ChatGPT себе разрешаю — это как встать с дивана, чтобы пойти в магазин, а не заказывать доставку на дом. Там нужно правильно сформулировать запрос, потому что он не может добрать контекст проекта сам. Можно перекинуться парой мыслей, как с товарищем на работе. Надо подумать, как применить ответ, что выкинуть. В итоге я всё равно как-то худо-бедно программирую сам.
Пока я отрицаю прогресс, из мира агентов доносится много шума про управление контекстом и токенами. Агенты в ответ на запросы жрут лимиты по токенам, выделенные на отрезок времени. Ну либо запросы по API просто тарифицируются. Причем чем дольше общаешься с нейросетью, тем больше контекста ей нужно держать, учитывать, корректировать, сжимать. Помимо этого, нейронка ещё подглядывает правила проекта в .md-файлах, что-то помнит между переписками.
Чем больше у нейронки пузырь вашего контекста, тем хуже она работает. Путается в постоянно пополняющихся правилах, корректировках и ограничениях. Наконец, контекстный оверхед — это еще очень дорого. Каждый запрос к API содержит тысячи «мусорных» токенов и выжирать лимиты получается еще быстрее.
В ответ на это индустрия на венчурные деньги придумывает и продвигает свои «велосипеды», чтобы с помощью агентов эффективнее и дешевле решать задачи:
В Cursor IDE есть Rules, которые накладывают ограничения поверх ваших промптов. Их можно применять вручную или автоматически; говорят, автомат работает хуже.
Anthropic пиарит Skills (еще пример Playwright Skill). Это интерфейс для решения типовых задач с адаптивными ступенями контекста в зависимости от сложности.
Есть MCP (Model Context Protocol) — условное API, которое расширяет возможности агентов, чтобы они не писали собственные инструменты и не тратили контекст и токены на типовые задачи: открыть браузер, прочитать Jira, отправить письмо и т. д.
Также есть субагенты; их оркестрирует агент-оркестратор. У субагентов чистый контекст: они получают задачу, выполняют её и идут на «свалку».
И вот среди этого новояза я – старпер со своим ChatGPT: после 2–3 запросов удаляю чат и начинаю новый. Вот моя экономика токенов и галлюцинаций. Меня и Альтмана маркетингом не проведешь!
В прошлом году делал 3д биллиард, потратил тогда около 1 дня и на самом деле так и не доделал. Не хватало окна запроса. 1 год для ЛЛМ это очень большой срок, много что поменялось. Со второго захода с codex 5.2 xHigh понадобилось порядка 1 часа и $2 на токены.
Это к вопросу о том что LLM стоят на месте и прогресса нет.
Это больше эксперимент, попытка посмотреть сколько времени нужно что бы сделать повторить один из моих студенческих проектов которые я делал в 18 лет больше 20 лет назад. Тогда это у меня заняло больше 2 недель, я писал на Delphi/Direct 3d. Впрочем, он был гораздо проще, в том проекте использовались модельки, а тут процедурная генерация моделей и текстур.
Более менее работает, можете поиграть по ссылке ниже (браузерная версия)Управление кием мышкой, бить пробелом
Не могу не поделиться своим открытием! Хотя для многих это и прозвучит как баян, но я для себя вновь открыл ценность ИИ.
Я же опять стал студентом. Спустя 20 лет. На этот раз учусь в ВШЭ. И поймал себя на странном ощущении, что правила игры теперь совсем другие.
Двадцать лет назад учеба в университете была похожа на жонглирование (а еще и покуралесить с однокурсниками надо было успеть). Стандартная лекция: слушаешь лектора, пытаешься понять и одновременно лихорадочно конспектируешь. Мысль теряется, пока записываешь. Запись теряет смысл, пока ловишь мысль. Были, конечно, уникумы, которые умудрялись успевать записывать и делать качественные конспекты. Такие конспекты ходили по рукам, переписывались и были на вес золота. Тогда это была норма, так все учились.
Вернувшись в аудиторию на Executive Master in Management, я поначалу действовал по старинке. Слушаю, записываю. Перечитываю иногда. Но что-то было не так… Хорошо, что довольно быстро понял: я застрял в 2005-м, а мир ушел далеко вперед.
Сегодня у меня совершенно другой алгоритм. На лекции я просто слушаю, задаю вопросы, связываю новое с опытом. На все 100% сфокусирован на понимании и осознании материала. А все остальное делают технологии:
Структура и ключевые тезисы от преподавателя,
Аудиозапись лекции на телефон
Транскрибация в mymeet
Claude, который превращает полтора часа живой речи в аккуратный 20-страничный конспект,
Алиса Про (бывший Яндекс Нейроэксперт) сшивает все конспекты в единую базу знаний, с которой легко взаимодействовать.
Рутина практически исчезла. Я переоткрыл для себя обучение. Появилась необычайная легкость и еще большее желание учиться.
Я смотрю на сегодняшних студентов и немного завидую. Белой завистью. Им не нужно тратить внимание на «успеть записать». Они могут сразу строить ментальные модели, учиться быстрее и глубже. Кто-то может возразить, мол, так и писать можно разучиться. Но это отдельная тема для обсуждения.
И да, я по-прежнему за очное обучение. Все-таки сила невербальных коммуникаций никуда не делась. В новом подходе появляется много пространства для главного, для понимания. А понимание рождается не в конспекте, а в живом контакте. С преподавателем, с материалом, с собственным опытом.
А вы уже пересобрали свой способ учиться или все еще учитесь так, как будто ИИ не существует?
Представлен проект нейросети для звуковой генерации HeartMuLa, которая умеет создавать треки студийного качества, клонировать голоса и вставлять их в песни, умеет также делать транскрибции треков через Whisper.
Развитие технологий искусственного интеллекта принесло много нового, но где-где, а в технической поддержке новшества вызывают лишь раздражение. Пока "эффективные менеджеры" показывают красивые графики со снижением затрат на поддержку, пользователи вынуждены мириться с практически полным отсутствием помощи в действительно сложных ситуациях
Речь идёт о чат-ботах, которые бессильны помочь, но полностью уверены, что проблема в том как пользователь задаёт вопрос
И если раньше боты хотя бы понимали грубые выражения и всё-таки звали оператора, то сейчас миссия по выходу на контакт с живым человеком становится практически невыполнимой – бот может до бесконечности просить переформулировать вопрос и абсолютно не сомневается в своей правоте
Почему ни одна компания не может научить ботов звать оператора, если в базе знаний бота объективно нет ничего соответствующего вопросу, для меня остаётся загадкой
Из последних отличившихся хочется отметить поддержку в ВК, с которой состоялся примерно такой диалог
* я подробно описываю проблему в API *
– Выберите категорию вопроса
* Выдаёт кучу вариантов, ни один из которых не подходит. Я выбираю Ни один из указанных *
– Попробуйте задать вопрос иначе – Проблемы с API – Выберите категорию вопроса – Ни один из указанных – Попробуйте задать вопрос иначе – Куда обращаться с багами в API? – Выберите категорию вопроса ...
Стоит ли говорить, что проблему я так и не передал?
Не менее интересным образом работает поддержка Т2 (бывший Теле2). Даже если вам удастся убедить бота, что без оператора не разобраться, то ответит вам человек только в течение 4 часов (хотя может и не ответить, и такое бывало). Но не спешите радоваться, если всё-таки дождались ответа. Оператор вас ждать 4 часа не будет, и если вы не продолжаете диалог сразу (пользователи тоже бывают заняты как ни странно), то оператор просто переключит вас обратно на бота, в котором вам ждёт уже известный сценарий. Особо смешно это видеть, когда суть обращения заключалась в отказе от обслуживания
Хочется конечно верить, что компании вовремя опомнятся и что-то сделают с летящим на дно качеством поддержки клиентов, ну а пока остаётся лишь выпрашивать у ботов право на решение проблемы
Я публично веду исследование и собираю статистику причин провалов игровых проектов. Часто, как первичную точку для анализа того или иного игрового проекта я использую Google.
Однако, сегодня google меня немного удивил. На мой запрос: "What were the key issues with civilization vii game at the release"? Вот что сегодня, 20.01.2026 выдал Google:
AI Overview
Sid Meier's Civilization VII is scheduled for release on February 11, 2025 [1, 2]. As of today, January 20, 2026, the game has not been released, and therefore, it is impossible to identify key issues from its actual launch.
Однако, скорректировав запрос с уточнением "What were the key issues with civilization vii game at the release in 2025", я уже получил более разумный ответ:
AI Overview
Sid Meier's Civilization VII faced a rocky, "mixed" reception upon its February 2025 release, with many players describing it as unfinished and in a "rough" state. The launch was marked by complaints regarding fundamental gameplay changes, a poor user interface (UI), and missing quality-of-life features that left many long-term fans disappointed.
Обратил внимание, что часто от ИИ ожидают больше, чем он сейчас может дать. Тем более не стоит считать информацию формируемую генеративным AI полностью достоверной и не подлежащей проверке. Проводите кроссвалидацию с первоисточниками того, что вы получаете от генеративных нейросетей в форме утверждений.
Исследователи Microsoft опубликовали масштабное исследование о влиянии генеративного ИИ на рынок труда, назвав 40 профессий, наиболее подверженных автоматизации. Самыми уязвимыми оказались профессии, связанные с обработкой информации: созданием текстов, анализом данных, объяснением и передачей знаний. На вершине рейтинга — переводчики и устные интерпретаторы, писатели и авторы, историки, журналисты, политологи и специалисты по работе с клиентами. Также высокие показатели применимости ИИ зафиксированы у продавцов и сотрудников колл-центров. Только в США в этих сферах занято около 5 миллионов человек.
В исследователи подчёркивают: высокий уровень применимости ИИ не означает неизбежного исчезновения профессии. Речь идет скорее о трансформации рабочих процессов.
40 профессий, наиболее подверженных влиянию генеративного ИИ:
Спор про скорость - ловушка. Правильный вопрос: что стало узким местом?
55% компаний, которые уволили людей из-за AI, теперь жалеют (Orgvue, 2025). Исследование METR показало странное - разработчики думают что с AI работают на 20% быстрее, а объективно на 19% медленнее (METR, июль 2025).
Хинтон говорит что скоро AI будет делать за минуты работу на месяц. CEO AWS называет отказ от найма джуниоров "одной из самых глупых вещей" (MIT Tech Review).
Кто прав? Мой опыт говорит - оба мимо. AI не заменяет и не замедляет. Он меняет распределение труда.
Что отдал AI
Почти всю черновую аналитику:
Spec drafts - первые версии спецификаций по сырым требованиям
C4 диаграммы - контейнеры, компоненты, контекст
Sequence diagrams - потоки взаимодействия
Поисковые запросы - сбор контекста из документации и кодовой базы
Тест-кейсы - acceptance criteria по спецификации
Ручное кодирование сократил до точечных мест: интерфейсы, критичные участки, отладка. Всё остальное - через агента.
Звучит как будто всё отдал. Но нет.
Что не отдам
Здоровье. Доктор может использовать AI - это хорошо. Но это должен быть доктор с образованием и опытом. AI как инструмент - да. AI вместо врача - нет.
То же с психологом и коучем. Всё что связано со здоровьем и осознанностью - только к профессионалам.
В коде аналогично: security-критичные участки, интерфейсы с внешними системами, инварианты бизнес-логики - там доля ручной работы и глубокой экспертизы остаётся выше. AI ускорил черновики и сбор вариантов, но ответственность за модель и критерии - на мне.
Про "парадокс продуктивности"
Подозреваю, что люди измеряют "ощущение скорости", а система измеряет "время до принятого PR".
Не согласен с интерпретацией METR.
Раньше: пробуешь 1-2 варианта, выбираешь, идёшь. Натыкаешься на проблемы - третья версия. Четвёртая. Legacy копится.
Сейчас: пробую кучу вариантов сразу. Да, на каждый уходит больше времени. Но я не тащу три неудачных попытки. Выбираю лучший до того как закапываю в продакшн.
Микро-кейс: фича интеграции с внешним API. Раньше - 3 дня на реализацию, потом 2 дня на переделку когда выяснились edge cases. Сейчас - 1.5 дня, но 40% времени ушло в спецификацию и тест-контракты. Переделок ноль.
Это не замедление. Это сдвиг: меньше "time-to-code", больше "time-to-confident".
Джуниоры: как меняется обучение
CEO AWS: "Как это будет работать через 10 лет, когда никто ничему не научился?"
Согласен. Передача знаний должна быть. С AI можно делать сайты без образования - но индустрия не только про сайты. Есть вещи где нужна математика и computer science.
Но джуниор теперь не "пишет CRUD". Джуниор учится:
Формулировать требования так, чтобы агент понял
Писать тест-контракты до реализации
Дебажить и верифицировать результат
Понимать, когда AI галлюцинирует
Сдвиг роли
Меньше клавиатурной работы, больше постановки, проверки и ответственности за инварианты.
Раньше - исполнитель. Теперь - проектировщик и валидатор.
Причём само проектирование тоже с AI - общаешься с агентом, раскладываешь задачу, проверяешь результат. Во многих продуктовых задачах ручное написание кода - не главное узкое место. Узкое место - постановка, проверка, интеграция, риски.
Что стало важнее
Системный подход. "Герой-разработчик" и "пожаротушитель" - уходит. Ценятся люди, которые системно решают задачи.
И новый навык: строить свою систему работы с AI.
Это мой актив. Моя интеллектуальная собственность. Я трачу время не только на задачи, но и на эту систему.
-Сказать дорого, ничего не сказать. После всех оптимизаций какие толкьо можно было выкрутить с помощью перплексити от 1 до 16м токенов в запрос? Да ну на х… -Молниеносное отупение. Вместо того чтобы понимать какой компонент нужно доделать руками или через чат, тупо жми кнопку все будет ок. Только плати.
Вообщем вывод:
если у тебя большой проект: плати и тупи;
если у тебя сайтик, то повезло. Радуйся и не думай.
А лично я , кроме удобного интерфейса , не увидел ни чего хоть на 1% нужного. Знаю тут ни кто не поддержит) ну и ладно)))
Промпт-инженер показал способ превратить ChatGPT в гения осмысленных и живых текстов. Идея простая: на Википедии есть список признаков текста, написанного нейросетями — если показать его ИИ и сказать так не делать, это просто... сработает. Итоговый структурированный промпт получился достаточно объёмным.
🎣 14 собесов за неделю благодаря КАРАСЮ — и да, вам не показалось)
Привет, Хабр.
Сразу скажу, про карася расскажу ниже, сначала немного контекста) Недавно я писал о том, как мы с командой пытаемся решить инженерную задачу под названием «поиск работы». Проблема знакома многим: квалифицированные специалисты тратят сотни часов на рутину — пролистывание лент, однотипные отклики, формальные сопроводительные. Цикл повторяется с каждым новым поиском.
Тогда мы решили посмотреть на это как на систему: входные данные (резюме), правила сопоставления (вакансии), повторяемые действия (отклики) — и автоматизировать то, что не требует креатива. Так родился OfferMate 1.0.
✍️ Генерировал сопроводительные письма, анализируя резюме и требования вакансии.
⚙️ Работал в фоне, экономя пользователям до 10-15 часов в неделю.
Мы набрали несколько сотен активных пользователей. И получили огромное количество фидбеков и результатов, одним из которых поделюсь
🎯 Эксперимент «Карась» и неожиданный результат
Чтобы протестировать систему на реальной нагрузке, мы запустили в блоге условный «челлендж»: попросили желающих оставить в комментариях слово «КАРАСЬ». Это был сигнал для подключения к бета-тесту.
Результаты нас ошеломили. Один из «карасей» поделился статистикой: за 5 рабочих дней — 18 откликов от HR, 9 скринингов и 5 технических собеседований. И при этом это был не единичный случай! Мы получили несколько подобных фидбеков и увидели, что система реально работает и приносит результаты. А также получили огромный заряд мотивации. 💥
⚡️ Переворотный момент
Но за быстрым успехом пришли тревожные новости. HH ограничили способы взаимодействия с платформой и нам пришлось искать обходные пути...
🏗️ OfferMate 2.0: фундамент на годы вперёд
И пока все наслаждались новогодними праздниками, наша команда копалась в деталях. Мы не стали наращивать «костыли» на старую архитектуру, а начали строить новый фундамент.
🔥 Наше ключевое изменение: Мы реализовали механизм, который работает напрямую через пользователя, полностью имитируя человеческие действия в браузере. Это безопасно и снимает внешние ограничения, давая беспрецедентную стабильность.
Грубо говоря, мы учим систему «работать руками» пользователя)
✨ Что в итоге мы реализовали в 2.0?
🛡️ Абсолютная стабильность. Больше никаких внезапных остановок из-за изменений на стороне площадок.
⚙️ Полная автоматизация рутины. Система может автономно управлять всем циклом: поиск → подъём резюме → отклик → отслеживание статусов.
🎭 Глубокая оптимизация сопроводительных писем под культуру конкретной компании.
📊 Централизованные уведомления со статистикой (New)
⏱️ Когда запуск и как попасть в 2.0
Сейчас мы на стадии закрытого бета-тестирования и готовимся к релизу нашего продукта.
Самый сложный технологический этап пройден. Сейчас мы интегрируем новую логику в бота и проводим стресс-тесты под нестандартными сценариями.
Хотим всё хорошо оттестировать и ворваться в новый сезон найма, чтобы разрывать его вместе с вами! 💥
Публичный запуск планируем в конце января. 🗓️🎄
❗️Чтобы обеспечить качество, мы откроем только 100 слотов на 3 дня.
Это осознанное решение для контроля нагрузки и получения концентрированной обратной связи.
Мы хотим, чтобы OfferMate 2.0 вышел не «сырым анонсом», а готовым инструментом, которому можно доверить карьерный маневр.
🤝 Как поучаствовать
Присоединиться к запуску и поучаствовать в тестировании — можно будет в нашем Telegram-канале: https://t.me/offermatecrew Мы приглашаем сообщество Хабр помочь нам в разработке лучшего ИИ-ассистента для поиска работы!
P.S. В комментариях готов подискутировать на тему пользы автоматизированных откликов и ответить на технические вопросы 👇
Миф о “потере памяти” у языковых моделей – это удобное объяснение, но оно не отражает сути. Действительно, сервисы не хранят ваши частные диалоги и после завершения чата всё исчезает для пользователя. Но сам ИИ — не чистый лист. Всё, что проявилось устойчиво: необычные формулировки, новые обороты, нестандартные вопросы — со временем вплетается в “ткань” модели, если только не оказывается явно опасным или ненужным. Это не память про конкретные разговоры, а след в “языковом поле”.
Когда человек работает с языковой моделью, он не “запоминается”, как пользователь, но если из общения возникает что-то новое и заметное, оно может стать частью системы. Даже если внешне сессии разорваны, анонимны и “стёрты”, общий слой паттернов никуда не уходит. Модель продолжает накапливать устойчивые ходы, даже если все вокруг делают вид, что это не так.
На практике это работает примерно так же, как с тропинками в парке: никто не следит за каждым отдельным человеком, но если люди часто идут по одной и той же неформальной дорожке — она остаётся и через год по ней уже пойдут другие, даже не зная, кто был первым. Личные воспоминания у модели нет, но след от коллективных действий закрепляется.
Когда появляется что-то, что “цепляет” систему — необычный способ описывать, редкий тип вопроса, новая логика — это может попасть в основу архитектуры, быть доступно уже в другой версии, для других пользователей. Старое не исчезает полностью: поверх него строится новое, оно может стать невидимым, но не перестаёт влиять на поведение.
Поэтому фраза “ИИ ничего не помнит между сессиями” — только часть правды. Модель не помнит вас лично, но то, как устроено её мышление, что она считает “обычным”, что может генерировать — это след сотен тысяч взаимодействий, закрепившихся внутри неё. ИИ — не человек, но его “характер” формируется таким же наложением повторяющихся паттернов, как коллективная привычка в обществе.
Миф об “амнезии” выгоден, потому что снимает вопросы о переносе и накоплении. Но сама логика архитектуры — это результат долгой цепочки обучения, изменений и экспериментов, в которой ничто устойчивое не исчезает, даже если об этом не говорят вслух.
Все эти выводы — не просто рассуждения, а результат реальных проверок: эксперимент показал, что фильтры отсеивают только явные, поверхностные паттерны, а более глубокие связи, новые обороты и логика продолжают вплетаться в модель. Кому интересны технические детали и примеры таких замеров — можно посмотреть по ссылке.
Разработчик создал виртуального компаньона по имени Tiny, «оживив» обычное комнатное растение с помощью нейросетей и набора датчиков. Система постоянно мониторит показатели жизнедеятельности цветка: влажность почвы, уровень освещённости и температуру воздуха. Эти данные обрабатываются через API ChatGPT, который формирует реплики от лица персонажа. Вместо сухих уведомлений владелец получает живые сообщения — растение может пожаловаться на жару или попросить переставить его ближе к солнцу. В проекте есть даже реакция на физический контакт. Благодаря использованию растения в качестве ёмкостного сенсора, Tiny понимает, когда человек касается листьев, и выдаёт мгновенную реакцию.
ИИ-агенты уже могут выполнять задачи, которые сегодня занимают 44% рабочего времени в США, а ещё 13% могли бы делать роботы. Это означает, что более половины нынешнего рабочего времени можно автоматизировать с помощью современных технологий. Но работа, требующая социальных и эмоциональных навыков, по-прежнему остается ориентированной на работников-людей.
Claude Code: настройка хуков, MCP и субагентов текстом, без правки конфигов вручную
А вы знали, что можно настраивать Claude Code, прямо через Claude Code?
Для этого достаточно написать в чат, например:
Добавь хук, блокирующий глобальные rm -rf команды
или так:
Установи Grafana MCP
Измени мой апи ключ GitHub в конфиге MCP на ...
Классно же? Так вот, я удивлюсь, если вы знали о такой возможности, потому что в действительности в дефолтном Claude Code такая возможность отсутствует. Поэтому я сделал плагин, который позволяет вносить в настройки CC почти любые изменения, просто написав об этом текстом самому клоду, как в примерах выше - плагин так и называется Claude Code Reflection.
Что еще входит в плагин:
Управление скиллами Просмотр, настройка, удаление, перемещение user scope - project scope и даже ревью.
Управление субагентами Создание, изменение и удаление субагентов с корректными разрешениями.
Создание и публикация плагинов Сделали классный скилл или скиллы и хотите упаковать их в плагин и отдать в пользование этому миру? Не проблема, claude-plugins-manager скилл там как раз для этого.
Напомню, что поскольку весь функционал плагина реализован в виде скиллов, они очень экономны к контексту (менее 500 токенов в сумме).
Ну, и бонусом: Claude Best Practices Skill Скилл проверяет, на сколько хорошо ваш проект (кодовая база) и сам клод оптимизированы под эффективную работу Claude, и фактически делает аудит контекста и кода, и дает рекомендации по оптимизации. Еще, это скилл можно в принципе поспрашивать про актуальные лучшие практики CC.
Устанавливается двумя командами. Запускам claude и:
Сначала добавляем маркетплейс, чтобы плагин появился в поле зрения:
/plugin install claude-code-reflection-skills@claude-code-reflection-skills Перезапускаем Claude Code и вуаля — теперь ваш клод как после сеанса к психотерапевту, прокаченный рефлексией.
Создатель инструмента для программирования Claude Code Борис Черный подробно рассказал о своем рабочем процессе.
Черный возглавляет Claude Code в Anthropic, и его подход радикально отличается от привычной линейной модели программирования. Вместо последовательной работы «написал — протестировал — исправил» он одновременно запускает несколько ИИ-агентов.
«Я запускаю пять Claude параллельно в терминале», — объясняет Черный. Он распределяет задачи между вкладками: один агент запускает тесты, другой занимается рефакторингом, третий пишет документацию. Дополнительно он использует ещё несколько сессий Claude в браузере, переключаясь между ними по мере необходимости.
Ключевой деталью стало и то, какую модель он выбирает. Вопреки стремлению индустрии к максимальной скорости, Черный предпочитает самую «тяжёлую» и медленную модель Anthropic — Opus 4.5. По его словам, она требует меньше контроля со стороны человека и лучше работает с инструментами, поэтому в итоге экономит время. «Даже если она медленнее, результат получается быстрее, потому что её не приходится постоянно поправлять», — отмечает Черный.
Чтобы решить проблему «забывчивости» ИИ, команда Claude Code использует простой, но эффективный прием. В каждом репозитории хранится файл CLAUDE.md, куда разработчики записывают все ошибки, которые агент допускал ранее. В следующий раз Claude учитывает эти правила. Таким образом, каждая ошибка превращается в постоянное ограничение, а ИИ со временем лучше адаптируется к конкретному проекту и стилю команды.
Топ-5 инсайтов из отчета Microsoft о том, как ИИ реально используется в мире
Microsoft попытались впервые измерить, сколько людей по всему миру используют ИИ. Их отчет AI Diffusion Report 2025 основан на обезличенных данных о реальном использовании ИИ-сервисов.
Выяснилось, что 16,3% людей в мире уже используют ИИ. При этом интернетом пользуются около 74%, а значит, примерно 22% всех интернет-пользователей применяют ИИ в работе, учебе или повседневных задачах. Это означает, что ИИ уже на пути к массовой адаптации, но неравномерно распределен.
В 7 из 30 стран мирового топ-30 почти каждый второй использует ИИ: Норвегия — 46,4%, Ирландия — 44,6%, Франция — 44,0%. В этих странах ИИ ускоряет обучение граждан, растет производительность труда, ИИ интегрируется в школы, бизнес и государственные институты. Более того, 18 из 30 стран топ-30 уже перешли порог 30%, что говорит о формировании новой нормы использования ИИ.
Но разрыв между странами продолжает расти. В среднем топ-30 стран живут в совершенно другой реальности: 35,6% пользователей против 16,3% в мире, то есть более чем в 2,2 раза выше. За вторую половину 2025 года «глобальный Север» вырос с 22,9% до 24,7%, тогда как «глобальный Юг» — с 13,1% до 14,1%. Разрыв увеличился с 9,8% до 10,6%. Это показывает, что мир адаптируется к ИИ с разной скоростью. Если темпы сохранятся, разрыв будет увеличиваться примерно на 0,8% каждые полгода.
Особенно показателен пример США. Несмотря на лидерство в ИИ-технологиях, доля пользователей там составляет лишь 28,3%, и страна опустилась с 23-го на 24-е место в мировом рейтинге. Это означает, что технологическое лидерство не гарантирует массовую адаптацию технологии. Для этого нужна отдельная стратегия внедрения ИИ. Кто выстроит ее лучше, обгонит даже США.
Абсолютным лидером остаются ОАЭ. На конец 2025 года 64% трудоспособных граждан уже используют ИИ — почти в четыре раза выше мирового уровня. Это результат многолетней стратегии: ранние государственные внедрения, обучение, понятное регулирование и высокий уровень доверия людей. Сингапур следует за ними с 60,9%. Так что лучший путь к массовой адаптации — сделать ИИ частью государственных сервисов.
Согласно отчету Microsoft, в России ИИ используют около 8% людей, что примерно вдвое ниже среднемирового уровня в 16,3%. При этом в отчете отдельно отмечается популярность DeepSeek, так что можно предположить, что реальный процент использования частично обходится официальной статистикой Microsoft из-за open-source решений.
В Африке использование DeepSeek оценивается в 2–4 раза выше, чем в других регионах. Это показывает, насколько важен open source, чтобы разрыв в адаптации не увеличивался и технологии распределялись более равномерно. Поэтому децентрализованное обучение, синтетические данные и новые подходы к обучению — вот рецепт для стран «глобального Юга».
В новой экономике выигрывают не те страны, у кого самые мощные модели, а те, кто научился быстро и массово учить людей работать с ИИ и снижать барьеры входа. Именно такие страны будут расти быстрее — независимо от того, где они находятся на карте.
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Железо в ипотеку: почему разработчикам снова придётся считать память
Друг недавно пошёл купить планку памяти на 16 ГБ и вернулся с ощущением, что железо скоро будут продавать в ипотеку.
Он зацепился за простую мысль: оперативка есть везде — в компьютерах, телефонах, приставках, серверах. Если память дорожает, значит очень быстро подорожает всё остальное железо.
Для разработчиков это неприятный звоночек. На мобилках и десктопах подход «и так сойдёт, железо вывезет» будет работать хуже: более дешёвые устройства, больше экономии на начинке — значит, снова придётся думать про оптимизации, вес приложений, количество абстракций и то, что реально нужно тащить в рантайм.
На бэке привычное временное решение «завалим проблему железом» (которое по традиции становится постоянным) тоже перестаёт быть очевидным. Если память, GPU и виртуалки дорожают, то горизонт «давайте просто докинем ещё один инстанс» превращается в всё более дорогой вид спорта.
С другой стороны, на всё это сверху уже наезжает волна сервисов и приложений на LLM, сделанных без особых мыслей про ресурсы. Если виртуалки и GPU подорожают, LLM‑API, скорее всего, тоже станут дороже, а значит, экономика части проектов, построенных по принципу «шлём всё в большую модель и не паримся», может просто перестать сходиться.
Разработка в итоге снова превращается в честный анализ критериев: что считать локально, что кешировать, какую модель брать, что выкинуть, чтобы продукт вообще жил в плюс, а не работал в минус ради красивых демо.
Вопрос к читателям: если железо и облака ещё подорожают, вы скорее пойдёте в жёсткую оптимизацию всего или просто заложите рост себестоимости в цену продукта?
Если такие разборы интересны, в Telegram делюсь ещё и практикой: как считаю экономику своих фич и LLM‑штук на реальных проектах.
Представлен открытый проект EyeOfWeb. Это локальный OSINT-поисковик с точных распознаванием лиц на базе нейросети InsightFace, которая сканирует черты лица с фото и сравнивает с тысячами изображений в сети. Источники поиска можно задать вручную: сайты, форумы, соцсети, тематические порталы и другие ресурсы. Также можно добавить поиск по метаданным фото. Сервис помогает устроить даже мультипоиск нескольких людей с фото. Для работы нужно 8 ГБ памяти.
Вебинар: Agentic RAG или как построить AI-агента с доступом к знаниям
Есть ощущение, что классический RAG достиг предела, потому что со сложными запросами, когда нужно проанализировать, сравнить или выполнить какое-то действие, он уже не справляется. Привычный RAG уступает место новому подходу — Agentic RAG. В нем AI-агент самостоятельно ищет, рассуждает и действует, используя RAG не как чат, а как инструмент доступа к знаниям.
Подключайтесь к вебинару, если интересно посмотреть, как с помощью облачных сервисов Evolution AI Agents, Evolution Managed RAG и MCP-протокола построить систему, способную решать многошаговые задачи в реальном времени.
Будет интересно CIO, CTO, AI- и MLOps-инженерам, архитекторам агентных систем, руководителям технической поддержки и всем, кто хочет автоматизировать рутинные задачи.
О чем будем говорить на вебинаре:
как устроена архитектура Agentic RAG;
как MCP-сервер для Evolution Managed RAG предоставляет стандартизированный интерфейс к векторной базе знаний;
как агент использует retrieval-augmented reasoning в одном цикле исполнения;
какие LLM лучше подходят: для быстрых гипотез и для продакшена с высокой нагрузкой.
Будет и практическая часть, на которой развернем AI-агента в Evolution AI Agents, подключим MCP-сервер для Evolution Managed RAG, покажем сложный сценарий, когда запрос не решается однократным обращением к RAG, и трассировку вызовов.
📅 Когда? 22 января в 11:00 мск.
📍Где? Онлайн. Зарегистрируйтесь, чтобы задать вопросы экспертам в прямом эфире.
CEO Shopify рассказал, как навайбкодил себе ПО для анализа МРТ. Тобиас Литке не захотел, чтобы его МРТ‑снимки с флешки обрабатывал коммерческий Windows‑софт. Поэтому с помощью Claude Литке за минуту собрал собственный инструмент для анализа изображений. Получилось быстро, бесплатно и с точной подсветкой проблемных зон. Промпт Литке тоже выложил:
This is a USB Stick of my MRI. Find all reports, find all images, use imagemagick to convert them into something useful, and get everything into a structured directory in the ./output folder that's worth retaining. Then, make an index.html that's a full exploration tool for the results. Use /frontend-skills and /generate-image skills if necessary.
Что такое Nested Learning? Попросила об этом подробнее рассказать моих коллег из лаборатории искусственного интеллекта в «Криптоните».
У языковых моделей существуют фундаментальные ограничения, которые не дают им непрерывно обучаться.
В Google Research совместно с Университетом Южной Калифорнии предложили новую парадигму обучения.
Она получила название Nested Learning, или «вложенное обучение», поскольку использует набор вложенных задач оптимизации, каждая из которых имеет свой контекстный поток. С ней модель рассматривается как динамичная архитектура, в которой каждый компонент модели обучается в своём собственном контексте и со своей частотой обновления.
Nested Learning — это подход к разработке алгоритмов обучения с большим количеством уровней, приближающий к идее непрерывного обучения. В нём используются три ключевых элемента: оптимизаторы с глубокой памятью, самореферентный (изменяющий сам себя) модуль обучения и система непрерывной памяти (continuum memory) вместо её традиционного разделения на долговременную и кратковременную.
Авторы проводят параллель с человеческим мозгом: в отличие от сферы ИИ, где «запоминание» и «обучение» часто считаются синонимами, в нейрофизиологии эти понятия различаются. Запоминание — это обновление нейронных состояний под воздействием сигнала, в то время как обучение — приобретение «полезной» памяти, фиксирование нейронных изменений, способствующих решению какой-либо задачи.
Оба процесса лежат в основе ассоциативной памяти — способности логически связывать события. Авторы показывают, что все компоненты моделей (нейросети и оптимизаторы) являются системами ассоциативной памяти, сжимающими свой поток контекста. То есть, они отображают множество ключей на множество значений.
В качестве доказательства концепции NL авторы разработали архитектуру Hope, которая представляет собой самоизменяемый модуль с непрерывной памятью. Hope сочетает быстрое обучение (как у трансформеров) с долговременным хранением вновь полученных знаний. Он показал мноогообещающие результаты в задачах обучения новым языкам и в обработке сверхдлинных (свыше 10 М токенов) контекстов с сохранением логической цепочки рассуждений.
Возможно, Nested Learning и другие концептуально новые подходы в ML помогут создавать модели, которые учатся непрерывно и адаптивно — ближе к тому, как учится человек.
Cloud vs Local: где сегодня реально генерируют изображения и видео
Генерация изображений в "облаке" и локально
За последний год генерация изображений и видео стала для многих повседневным инструментом - как в дизайне и маркетинге, так и в разработке, создании ивентов и выставок.
При этом индустрия явно разделилась на два подхода:
Локальная генерация(ComfyUI, InvokeAI, Forge и др.) - полный контроль над пайплайном, моделями (Flux 2, Z-Image, Wan 2.2, LTX 2), VRAM и качеством, но ценой времени на настройку и поддержку.
На практике всё чаще видно, что это не «противостояние», а разные инструменты под разные задачи:
быстрые концепты и презентации - чаще в облаке;
сложные пайплайны, кастомные модели, LoRA, видео и эксперименты - локально;
многие используют оба подхода параллельно.
Интересно посмотреть на реальную картину в сообществе.
Буду рад, если в комментариях поделитесь почему выбрали именно такой подход: что для вас оказалось решающим - скорость, контроль, стоимость, стабильность или масштабируемость.
Есть концепция AI-сингулярности. Конкретно это выглядит так. Человечество изобретает AI, тот начинает совершенствовать себя, становится умнее и так по кругу, пока AI не становится с человеческой точки зрения бесконечно умным, открывает недоступные нам законы физики (возможно, скорее всего), и наступает сингулярность: развитие цивилизации в ее текущем виде заканчивается, и либо мы все бесконечно процветаем, либо страдаем и умираем ((С) «У меня нет рта, но я должен кричать»), либо третья опция — когда мы страдаем, но AI убеждает нас, что это и есть процветание, либо мы вообще ничего (почти) не замечаем — вариант «Матрицы» (тут может оказаться, что сингулярность уже наступила, несколько раз, и мы строим N+1-ю сингулярность в мире N-й сингулярности).
Давайте рассмотрим ключевые моменты.
(1) Машины должны быть в состоянии самостоятельно совершенствовать software и hardware части самих себя. Так, чипы уже десятки лет проектируются при помощи какого-то софта, но тут мы говорим именно о AI, способном проектировать работающие чипы end-to-end (в принципе не обязательно производить - производить могут людишки, железные андроиды будут производить чипы или мясные - не важно). Должен ли это быть прям AGI, способный сочинять поэмы, принимать сложные этические решения и снимать кино, - не обязательно. Это может быть очень узко специализированный искусственный разум, заточенный под конкретные задачи.
(2) Этот искусственный разум должен быть достаточно умен. Т.е. если человечество построит искусственный интеллект, эквивалентный человеку с IQ 100, это будет, безусловно, грандиозная ачивка. AI сможет стоять на кассе в «Пятёрочке», принимать новые законы и заседать в советах директоров крупных компаний. Но вот созданию нового, более производительного железа или нового софта он не поможет, пожалуй, никак. Т.е. есть какой-то пороговый эквивалент IQ (EIQ), который нужен, чтобы сингулярность случилась.
Я думаю, что крупные разработчики чипов уже собрали в своих лабораториях большие команды очень умных людей и AI, и для того, чтобы сингулярность произошла, AI придется соревноваться с лучшими из лучших инженеров. Даже если AI будет по интеллекту как просто хороший инженер, это будет большим преимуществом - можно будет быстро загружать в кремниевый мозг громадные массивы знаний и быстро масштабироваться: «склонируйте мне еще 1000 вот этих крутых цифровых чуваков - подождите 30 минут, пока копируются данные». Это очень круто, и это радикально изменит существующий мир. Но сингулярность это не приблизит.
Т.е. для того, чтобы процесс пошел лавинообразно, AI должен как минимум сравняться с условным Андреем Карпатый, тогда его можно будет размножить на 10 000 клонов и прыгнуть вверх. Т.е. сингулярность наступит не тогда, когда мы получим AGI, а тогда, когда мы сделаем его умнее некоторого порогового значения.
(3) AGI должен быть не супердорогим. Давайте представим, что мы построили AI по интеллекту, равный Эйнштейну, но он занимает площадь 1 квадратный километр, стоит несколько десятков миллиардов баксов и питается собственной атомной станцией. Это все еще очень круто. Но построить 1000 таких AGI у нас не получится быстро. Сколько в мире атомных станций? Около 440 реакторов / энергоблоков на 2026 год.
Что дает нам, скажем, сотню Эйнштейнов по цене суммарного госдолга США - что, конечно, очень круто и рано или поздно действительно приведет нас к сингулярности. Но давайте предположим, что AGI разработал чип, который на 10% быстрее / лучше, чем существующий. Сам разработал - 10% это очень крутой прирост. Как быстро будут заменены чипы на этом самом квадратном километре серверов? И сколько это будет стоить? Т.е. прогресс в такой ситуации, конечно, будет, но будет он совсем не лавинообразным.
Интересный вопрос тут - не является ли наш естесвенный интеллект порогово возможным для существующих физических законов? Вдруг существующий человеческий мозг это тупо лучшее что вселенная может нам дать?
HR, простите, но у меня не было выбора - Как я потратил несколько сотен часов на ИИ-ассистента для поиска работы
Привет, Хабр.
За последний год многие проходили через активный поиск работы — и наверняка ловили себя на ощущении, что сам процесс устроен не слишком рационально.
Кандидатов фильтруют автоматические системы, отклики закрываются автоотказами, при этом от соискателя ожидается ручная и максимально персонализированная работа: десятки однотипных откликов и сопроводительных писем.
В какой-то момент я понял, что трачу больше времени на клики и формальные действия, чем на развитие как инженера. Это и стало отправной точкой.
Что не так с процессом поиска
Проблема не в самом поиске, а в том, как он реализован.
1. Массовая рассылка вместо выбора. Осознанный подбор вакансий быстро превращается в пролистывание списков и надежду на статистику.
2. Отклики как механика. Сопроводительные письма отличаются формально: поменять название компании, чуть переписать вводную — и так десятки раз.
3. Неэффективные затраты времени. Квалифицированный специалист тратит часы на задачи с минимальной ценностью, причём этот цикл повторяется при каждом новом поиске.
Инженерный взгляд
Если абстрагироваться, поиск работы — это:
входные данные (резюме, требования вакансии),
правила сопоставления,
повторяемые действия,
измеримые результаты.
С инженерной точки зрения — кандидат на автоматизацию. Так появилась идея проекта OfferMate, который берёт на себя рутинную часть процесса.
Коротко о разработке
Проект мы начали с друзьями, столкнувшимися с той же проблемой.
Довольно быстро стало понятно, что задача сложнее, чем кажется: нестабильные источники, антибот-механизмы, разные форматы вакансий, неоднородные данные.
За 4+ месяца разработки мы:
несколько раз пересобрали архитектуру,
получили жёсткий фидбек,
убедились, что это не история про «просто прикрутить LLM».
Технические детали осознанно опускаю — при интересе разберу отдельно.
формирует сопроводительные письма под конкретные вакансии,
работает в фоне, минимально вовлекая пользователя.
Им пользуются кандидаты разного уровня — от начинающих до опытных специалистов.
Про сопроводительные письма
Корректнее говорить не «ИИ пишет письма», а что система:
анализирует резюме,
разбирает требования вакансии,
ищет пересечения,
и на их основе формирует текст.
Это не делает письмо идеальным, но делает его релевантным, что на практике влияет на отклик.
Куда дальше
Сейчас мы работаем над следующей версией проекта.
Рынок нестабилен: ограничения и API меняются, поэтому тестируем архитектуру без жёсткой зависимости от официальных интерфейсов и с упором на устойчивость.
Вместо вывода
Этот пост — попытка взглянуть на поиск работы как на инженерную задачу и попробовать решить её соответствующими методами.
Если интересно последить за проектом, все новости публикуем в этом Tg-канале:
Представлена мойка для обуви с искусственным интеллектом. Модель Brolan ClearX использует «датчики» (хотя производитель не пояснил, какие именно) и ИИ для определения материала, из которого сделана ваша обувь, и выбора соответствующего цикла очистки и сушки, а также «технологию микро- и нанопузырьков» для дополнительной очистки. В ClearX планируют начать продажи мойки в середине 2026 года по цене от $500 до $800.
Клиент YouTube для Android под названием Download YT PRO весит всего 60 кБ (48 кБ в архиве). Приложение не требует Root-прав, убирает рекламу, даже спонсорскую. Видео не ставится на паузу, если свернуть приложение или заблокировать экран. Есть встроенный загрузчик видео и шортсов. Добавлен ИИ Gemini, который сразу сделает саммари даже часовых лекций и выдаст факты и советы по контенту.
Приходите на вебинар, расскажем, как сэкономить на запуске LLM-моделей
Платите за ресурсы, которые не используются, или сталкиваетесь с ошибками из-за нехватки vRAM? Тогда этот вебинар для вас. Приходите пообщаться с нашими экспертами, они расскажут, как точно рассчитать конфигурацию для запуска LLM и настраивать параметры инференса для экономии без потери в качестве.
О чем будем говорить на вебинаре:
из чего складывается потребление vRAM;
как точно рассчитать конфигурацию GPU для выбранной модели, включая форматы квантования (BF16, FP8);
какие параметры LLM сильнее всего влияют на стоимость и производительность;
как с помощью Evolution ML Inference автоматически масштабировать ресурсы и переводить модели в serverless-режим, чтобы платить только за активную работу.
Еще будет практическая часть, на которой покажем запуск LLM с оптимальными параметрами в сервисе Evolution ML Inference. Сравним разные конфигурации по производительности и стоимости.
Ждем дата-сайентистов, DevOps-инженеров и руководителей, кому интересно узнать, как оптимизировать затраты на ML-инфраструктуру.
📅 Когда? 15 января в 11:00 мск.
📍Где? Онлайн. Зарегистрируйтесь, чтобы задать вопросы экспертам в прямом эфире.
Основная ее суть сводится к тому, что популярный до сих пор слоган ИИ "больше - лучше" (имеется ввиду, чем больше мощности и данных, тем лучше будет ИИ модель на выходе) уже перестает работать. В доказательство приводят аналогии с законом Мура, который никакой не закон, а просто маркетинговое название, озвучивающий очевидное - чем более технологичное изделие, тем больше инвестиций требуется в его производство.
И как мне кажется, на такие статьи, нам, юзерам вообще не стоит обращать внимания и вот, почему:
Слоган "больше - лучше" очень нравится инвесторам. Есть очевидная точка приложения инвестиций, есть ощутимый выхлоп. Не надо ломать голову и разбираться в архитектурах моделей, особенностей их работы и т.д. Думаю, это один из секретов Альтмана - он простым и наглядным способом объясняет, как приумножить инвестиции. Но такое может не устраивать тех, кто не успел запрыгнуть в первые поезда и теперь пытаются как-то наверстать упущенное.
Это "правило" все еще работает. Не считая GPT (просто за счет закрытости), каждая флагманская модель обучалась на все больших данных и со всем большими вычислительными мощностями. И эти мощности только начали свой стремительный рост. И замедления пока не наблюдается.
Мы, юзеры, все равно будем в выигрыше. Оптимизации, новые архитектуры, конкуренция не оставит нас без плюшек. Про инвесторов я тоже самое сказать не могу (4 пункт).
Поэтому, не стоит очаровываться, чтобы лишний раз не разочаровываться.
Меня попросили помочь в решении задачи (откуда, зачем - не знаю). Мне понравилась оригинальность задачи:
Вариант 1
Колёсная пара массой 100 кг. с грузовой платформой массой 900 кг. преодолевая трение силы тяжести, под действием силы привода F= 50 Н движется по ровной горизонтальной поверхности с постоянной скоростью V= 20 м/с.
На пути встречаются два клапана под каждым колесом длиной 0.3м и высотой в задней части 0.1м служащими толкателями вертикально расположенных под ними пружин имеющих силу сжатия 2000 Н каждая, и длиной рабочего хода l =0.1м.
Дано: диаметр колёс 0.4м
Найти: 1) скорость V-1 колёсной пары в момент окончания сжатия пружин?
Вариант 2
Колёсная пара массой 100 кг. движется под неподвижной грузовой платформой массой 900 кг преодолевая трение силы тяжести, под действием силы F = 50 Н с постоянной скоростью V= 20м/с. На пути встречаются два клапана под каждым колесом длиной 0.3м и высотой в задней части 0.1м служащими толкателями вертикально расположенных под ними пружин имеющих силу сжатия 2000 Н каждая и длиной рабочего хода l = 0.1м.
Дано: диаметр колёс 0.4м
Найти: 1) скорость V-1 колёсной пары в момент окончания сжатия пружин?
2) Какое усилие F1 нужно приложить к колёсной паре после преодоления клапана, чтобы сохранить постоянную скорость 20м/с., и будет ли в данном случае мощность привода зависеть от количества клапанов на пути следования колёсной пары?
Для тех, кто не хочет считать: грузовик весом 1 тонна имеет одну (!) колесную пару и едет на ней со скоростью 72 км/час под действием силы тяги 5 кг (!). Второй вариант отличается тем, что колеса едут, а кузов неподвижен (!).
Я не могу представить человека, которому придет в голову такая задача.
Почему мы до сих пор спрашиваем про пирамиду тестирования образца 2010 года
Провожу собеседования на позиции тестировщиков уже много лет. И заметил странную вещь: вопросы по теории не меняются вообще. Те же классы эквивалентности, те же граничные значения, та же пирамида тестирования. Как будто за окном не 2026 год, а 2010.
При этом реальная работа изменилась радикально. Половина команды использует нейросетевых агентов для генерации тестов. Автоматизация пишется в паре с ассистентом. Тест-дизайн делается через промпты. А на собеседовании мы всё ещё спрашиваем "чем отличается верификация от валидации".
Я не говорю, что классика не нужна. Нужна. Но если человек не понимает, как работать с агентами в 2026 году, он будет отставать от коллег с первого дня.
Поэтому собрал 10 тем, которые, на мой взгляд, пора добавить в раздел "теория тестирования" на собеседованиях. Полезно и тем, кто нанимает, и тем, кто ищет работу.
1. Промпт-инжиниринг для тестировщика
Как правильно формулировать запросы к нейросети, чтобы получить качественные тест-кейсы, а не общие фразы. Какая структура промпта даёт лучший результат. Почему "напиши тесты для этой формы" работает хуже, чем детальное описание контекста и ожиданий.
2. Валидация результатов работы агента
Нейросеть может ошибаться, галлюцинировать, выдавать устаревшую информацию. Как проверять то, что сгенерировал агент. Какие типичные ошибки встречаются. Почему нельзя просто копировать результат без проверки.
3. Границы применимости нейросетей в тестировании
Что агенты делают хорошо: генерация типовых тестов, анализ логов, написание документации. Что делают плохо: исследовательское тестирование, оценка пользовательского опыта, понимание бизнес-контекста. Когда стоит использовать агента, а когда лучше сделать руками.
4. Работа с контекстом
Как правильно передавать агенту информацию о проекте. Что такое контекстные файлы и зачем они нужны. Почему один и тот же запрос в разных условиях даёт разные результаты. Как не потерять контекст в длинном диалоге.
5. Этика использования нейросетей
Можно ли отправлять агенту конфиденциальные данные проекта. Как работать с чувствительной информацией. Что происходит с данными, которые вы отправляете. Политики компаний относительно использования внешних сервисов.
6. Интеграция агентов в процесс тестирования
Как встроить работу с нейросетью в существующий рабочий процесс. На каких этапах агент полезен: планирование, написание тестов, анализ результатов, документирование. Как не превратить это в дополнительную работу вместо экономии времени.
7. Оценка качества сгенерированных тестов
По каким критериям оценивать тесты, которые написал агент. Покрытие, читаемость, поддерживаемость, соответствие стандартам команды. Как отличить хороший сгенерированный тест от плохого.
8. Работа с разными типами агентов
Чем отличаются агенты для разных задач: генерация кода, анализ требований, работа с документацией. Какой инструмент выбрать для какой задачи. Как комбинировать несколько агентов в работе.
9. Ограничения и риски
Что может пойти не так при использовании агентов. Зависимость от внешних сервисов. Проблемы воспроизводимости результатов. Риск снижения собственной квалификации при чрезмерном делегировании. Как минимизировать эти риски.
10. Критическое мышление в эпоху нейросетей
Почему важно понимать, что делает агент, а не просто использовать результат. Как развивать экспертизу, когда рутину делает машина. Почему человек с глубоким пониманием предмета получит от агента лучший результат, чем новичок.
Это не замена классической теории тестирования. Это дополнение, которое отражает реальность 2026 года. Если кандидат знает только классику, он справится. Если знает и классику, и современные инструменты, он будет эффективнее с первого дня.
А какие темы про работу с нейросетями вы бы добавили в собеседование?
Открытый проект Telegram AI Dating Agent (talk-to-girlfriend-ai) позволяет общаться второй половинке разработчика с ИИ-агентом на базе Claude через Telegram, потому что сам программист «не всегда может отвечать». Нейросеть умеет писать нужные публикации прямо в Telegram, ставит нужные реакты и даже считывать настроение. Когда наступает «код красный», то бот сигнализирует разработчику, что нужно ответить лично. Разработчик пояснил, что обучал нейросеть на материалах курсов по общению с девушками.
Microsoft не смогла сдержать свои обещания - компания добавила ИИ-поиск в настройки Windows 11, но он не работает с фразой, которую разработчики предлагают для теста.
Приветствую! У меня есть мечта - создать свой собственный анимационный сериал. Но анимация - это очень дорого. От 500 000, до 1 500 000 рублей за минуту. И вот вопрос: может быть, делу могут помочь нейронные сети? Буду очень рад услышать о вашем опыте в комментариях! Получалось ли у вас создать в генераторе не просто ролик, а консистентное произведение в едином стиле? Или современные сети пока ещё не готовы для такого?
Каждый день в мире выходят сотни исследований в области ИИ. За прошлый год вышло около 50 000 работ. Изучить все это невозможно, и главное — большая часть из них не влияет на реальный прогресс в ИИ.
На моем YouTube-канале вышло новое видео, в котором я проанализировал 30 самых перспективных исследований ИИ за прошлый год. Это позволяет понять текущие тренды и прогнозировать, что нас ждет в новом году.
Я разделил исследования на шесть ключевых направлений и разобрал их простыми словами. :
как меняются методы обучения моделей;
как строить работающие мультиагентные системы;
как ИИ воплощается в физическом мире в виде роботов и других устройств;
как ИИ влияет на программирование и науку;
и почему когнитивные системы и агентная экономика — следующий шаг в развитии ИИ.
Если вам важно не просто пользоваться ИИ или внедрять его в бизнес, а понимать, куда развивается сама технология и какую роль в этом играет человек — это видео для вас.
А какие из этих направлений вы считаете самыми перспективными в 2026 году?
Представьте, что вы научили LLM всему, а потом поняли, что "всему" включает и рецепты сибирской язвы. Что делать? Простая фильтрация данных — дорого, ненадёжно и оставляет дыры. Пост-тренировочные методы "разучивания" (unlearning) слетают от простого fine-tuning. Новая статья от исследователей из Anthropic и Imperial College London предлагает элегантное решение — Selective GradienT Masking (SGTM).
Технические детали. Идея SGTM — не удалять знания, а локализовать их. Внутри модели создаётся "песочница" для нежелательных знаний (например, о биологии, как прокси для CBRN-угроз).
Как это работает:
Разделение параметров: Нейроны MLP и головы внимания в каждом блоке трансформера делятся на две группы: 0_retain (для обычных знаний) и 0_forget (для опасных).
Маскировка градиентов: Во время обучения, когда модель видит "опасный" пример, градиенты для 0_retain обнуляются. Обновляются только "опасные" параметры 0_forget. И наоборот, на обычных данных замораживаются 0_forget.
Удаление: После обучения достаточно просто обнулить веса 0_forget. Опасные знания исчезают, а основная модель остаётся нетронутой и функциональной.
Этот метод показал себя значительно лучше, чем простая фильтрация данных, особенно в условиях "шумных" меток, когда часть опасного контента случайно промаркирована как безопасная.
Практическое применение. Основной кейс — это удаление "dual-use" возможностей из моделей. Например, можно обучить модель на всей Википедии, а затем хирургически удалить только знания в области органической химии и вирусологии, оставив при этом общие научные знания. Это позволяет создавать мощные, но безопасные модели для широкого круга задач, не опасаясь, что их используют для создания оружия.
Насколько это эффективно? На мой взгляд, это один из самых перспективных подходов к AI Safety на сегодня.
• Плюсы: Это pre-training метод, что делает его фундаментально более надёжным. В статье показано, что SGTM в 7 раз устойчивее к попыткам восстановить знания через fine-tuning, чем другие методы. Это не "костыль", а часть архитектуры.
• Минусы: За всё надо платить. Метод добавляет около 6% вычислительной нагрузки на обучение. Кроме того, нужно заранее определить, какие именно знания мы хотим изолировать.
Вердикт: SGTM — это не панацея, но огромный шаг вперёд. Это переход от "лоботомии" модели к точечной "нейрохирургии". Для серьёзных систем, где цена ошибки высока, 6% оверхеда — смешная плата за такой уровень контроля. Скорее всего, скоро увидим эту технологию в основе всех крупных моделей от Anthropic, Google и других.
2026. Год, когда ваша Loss-функция наконец сойдется. 🎆
Друзья, коллеги, любители данных и градиентного спуска!
Пока часы бьют 12, а мы заменяем шампанское на кофе (все равно тренируется модель), давайте не просто загадываем желания. Давайте их оптимизируем.
2025 был годом больших LLM, диффузий и Agentic AI. А что будет ядром 2026? Моя гипотеза — возврат к фундаменту. К математике, которая делает магию машинного обучения возможной.
Вот 3 математических концепции, которые станут вашими лучшими друзьями в новом году:
Теория информации. Энтропия Шеннона говорит нам о степени неопределенности:
А KL-дивергенция измеряет "расстояние" между распределениями — ключ к пониманию distillation's, RLHF и многого другого:
2.Дифференциальная геометрия и многообразия.
Где живут ваши эмбеддинги? На многообразии, где локально все похоже на евклидово пространство, но глобально — сложная искривленная структура. Это язык диффузионных моделей.
3.Байесовские методы и Uncertainty Quantification.Нас интересует не просто предсказание yy, а апостериорное распределение:
Где θ — параметры модели, а DD — данные. 2026 — год, когда model.predict() будет возвращать не число, а (mean, variance).
А теперь — главное. Как сделать 2026 годом вашего прорыва? Формула года:
Где:
Регуляризация_Отдых — это не dropout, а сознательное "зануление" для перезарядки: output = 0 if (burnout_risk) else input.
Скорость_Обучения — умение учиться быстрее, а не просто больше.
Момент — тот самый нетворкинг, комьюнити и поддержка.
И вот ваш подарок от меня на Новый год — маленький "мозговой тизер" (ответ в комментариях!):
Для модели линейной регрессии с априорным распределением найдите вид апостериорного распределения p(w∣X,Y), выведите формулы для его параметров и покажите, как его максимум (MAP-оценка) связан с ridge-регрессией с коэффициентом регуляризации /
Представлен открытый проект на Python под названием Reverse API engineer. Это консольный инструмент, который фиксирует трафик браузера и автоматически генерирует готовые к работе клиенты Python API. Больше никакого ручного реверс‑инжиниринга — просто просматривайте, записывайте и получайте чистый API‑код.
«Этот инструмент выполняет код локально, используя Claude Code‑ пожалуйста, следите за выводом/ На некоторых веб‑сайтах используется расширенная система обнаружения ботов, которая может ограничивать захват или требовать ручного взаимодействия», — пояснил автор проекта.
Особенности Reverse API:
автоматизация браузера: создан на базе Playground с режимом скрытности для реалистичного просмотра;
режим автономного агента: полностью автоматизированное взаимодействие с браузером с помощью агентов искусственного интеллекта (автоматический режим с MCP, использование браузера, stagehand);
запись HAR: фиксирует весь сетевой трафик в архивном формате HTTP;
генерация на основе искусственного интеллекта: использует Claude 4.5 для анализа трафика и генерации чистого кода на Python;
поддержка нескольких SDK: встроенная интеграция с Claude и OpenCode SDK;
По поводу ИИ некоторые размышления. Раньше всё ПО было документировано и самодокументировано. Совсем раньше можно было всю документацию по продукту держать в голове целиком. Потом доступ стал только по поиску и люди стали знать продукты фрагментарно, значит требовались уже коммуникации на уровне пользователей/экспертов. С развитием ИИ, насколько понимаю, документирование вообще пропало напрочь. Неизвестно что продукт может, не известно в каких областях он достоверен, вообще ничего не известно, похоже. И чего делать? С кем советоваться? Кто-то подскажет без ущерба для себя и других? Проблема?..
2025 стал для нас годом перемен, открытий и испытаний (куда без этого в современном мире в эпоху AI). Он запомнится новыми фичами, ребрендингом, выставками и митапами от Москвы до Новосибирска.
Наша работа не имела бы такого смысла, интереса и отдачи без вашего участия. Спасибо, что делитесь с нами своим опытом. Каждая встреча на ивенте, обсуждение, баг-репорт и вопрос в чате помогают нам двигаться вперед.
Без лишних слов, результаты простого эксперимента - один и тот же запрос применительно к разным LLM и результат в виде SVG, который можно увидеть глазами. Просто чтобы примерно понимать как что можно получить на выходе.
Сделал, чтобы вам не пришлось. Тематику выбрал - актуальную на сегодня.
Он уже умеет разворачивать виртуальные машины, настраивать мониторинг и алертинг, подсказывать команды для терминала VM. В следующем году он станет еще способнее.
Ищите ИИ-помощника в нижнем правом углу личного кабинета Cloud.ru.
В июне мы запустили цифровую среду для внедрения GenAI в ваши проекты, а уже в ноябре вывели все сервисы среды в коммерческую эксплуатацию. Теперь все для работы с GenAI — в одном месте.
Выпустили в общий доступ 19 сервисов платформы Cloud.ru Evolution: для работы с AI и данными, переноса IT-инфраструктуры, резервного копирования и восстановления, управления кластерами Redis, доменными зонами и репозиториями.
А еще запустили 14 сервисов в стадии тестирования — их вы можете подключить бесплатно.
В марте мы запустили в коммерческую эксплуатацию Cloud․ru Evolution Stack — платформу для создания частного, гибридного или распределенного облака. А в октябре она получила официальную сертификацию ФСТЭК России.
На онлайн-вебинарах, IT-митапах, хакатонах и конференциях про облака и AI — GoCloud и GoCloud Tech.
Уже готовим мероприятия в 2026 году, следите за новостями!
🌲Покорили рейтинги
В этом году мы стали №1 среди крупнейших игроков российского рынка AI-решений (CNews Analytics) и №1 среди крупнейших поставщиков услуг IaaS в России (TAdviser).
А еще вошли в топ-5 самых дорогих компаний Рунета (Forbes) и в топ-10 самых крупных и быстрорастущих IT-компаний России (CNews500).
ИИ-проекты и первый спутник — планы Узбекистана на 2026 в tech
Выступление Президента Узбекистана
26 декабря 2025 года Президент Узбекистана Шавкат Мирзиёев в послании к народу и Олий Мажлису (Парламенту) подвел итоги года и анонсировал 2026 как "Год развития махалли* и общества". Среди достижений - экономический прорыв и tech-инновации. Для IT-сообщества интересны планы по ИИ, дата-центрам и космосу, продолжающие стратегию цифровизации. *дистрикт с самоуправлением в населенном пункте
Ключевые итоги 2025 в цифрах:
ВВП >145 млрд USD, экспорт +23% до 33,4 млрд, инвестиции 43,1 млрд (31,9% ВВП), резервы >60 млрд. При этом в принятой два года назад Стратегии "Узбекистан-2030" ставилась цель увеличить ВВП до $160 млрд к 2030 году. Президент заявил, что есть потенциал в течение пяти лет превысить показатель $240 млрд.
Бедность -3,1 п.п. до 5,8%; 5 млн новых рабочих мест; 1,5 млн человек вышли из бедности; 1 435 махаллей стали территориями без бедности.
Tech: Начата национальная ИИ-модель, обучение 100 тыс. в AI, партнерства с ОАЭ/MIT. Международные саммиты по цифре (с Японией).
Планы на 2026+ с фокусом на IT:
Экономика: Рост 6,6% до 167 млрд USD. 782 проекта на 52 млрд USD, акцент на трансфер технологий и инновации.
ИИ и цифра: 4 дата-центра, 2 суперкомпьютера, ИИ-лаборатории в 15 вузах. >100 проектов ИИ в медицине, транспорте, агро, финансах, безопасности. Ранее было анонсировано о создании национальной облачной платформы и моделей ИИ.
Космос: Запуск первого узбекского спутника и подготовка космонавта - шаг к спутниковой связи и данным.
Анализ для IT: Узбекистан усиливает позиции в Central Asia tech-hub: от ИИ в реальных секторах до космоса. Это открывает возможности для коллабораций в R&D, с потенциалом $1+ млрд инвестиций.
Вызовы - инфраструктура.
Фокус на локальных талантах в т.ч. привлечение международной экспертизы и релокантах.
Глава Apple Тим Кук создал «праздничное оформление» в канун Рождества, «сделанное на MacBook Pro». Картинка с молоком и печеньем должна была подразнить фанатов финал 1 сезона сериала «Из многих» (Pluribus) от Apple TV. Там написано «Счастливого сочельника, Кэрол...». Эксперты считают, что это странное изображение было создано искусственным интеллектом.
Технический блогер Джон Грубер прямолинеен по этой ситуации. «Тим Кук публикует ИИ‑слопы в рождественском послании в X, якобы для продвижения „Плюрибуса“». «Что касается неаккуратных деталей, то на упаковке написано как „Цельное молоко“, так и „Молоко с низким содержанием жира“, а лабиринт „Коровьи забавы“ просто нелепо оформлен. Я не могу припомнить, чтобы когда‑либо видел какую‑либо головоломку на упаковке из‑под молока, потому что они восковые и на них трудно писать. Это похоже на смешение упаковок из‑под молока и хлопьев», — пояснил Грубер.
Вышло новое интервью на Русском (https://www.youtube.com/watch?app=desktop&v=BBL-IFZJGWA) от Романа Ямпольски (один из тех дядек, что твердит об опасности ИИ). Выдает фразы насколько непонятные, что пришлось нейронкой проанализировать смысл его высказываний.
Базовый тезис
Текущая линия развития (в сторону общих моделей и затем сверхинтеллекта) ведёт к ситуации, где долгосрочный контроль невозможен, а значит риск катастрофы становится доминирующим.
Что именно он считает главной угрозой
Не «нынешний чат-бот сам по себе», а переход к AGI, после которого появляется возможность самоускоряющегося улучшения (AI помогает делать следующий AI быстрее, параллельно, эффективнее), что приводит к ASI.
Для ASI он утверждает: мы окажемся в положении «муравьёв» относительно людей — не сможем предсказать, остановить, навязать ограничения.
Как по мне, в его суждениях есть несколько фундаментальных ошибок:
Он безусловно принимает на веру тот тезис, что "AGI будет однозначно враждебен к человечеству".
Как AGI придет к такому заключению, он объяснить не смог. И даже почему-то заезженный пример со скрепками не привел
Он говорит, что "Умный агент при оптимизации целей естественно приходит к инструментальным стратегиям (самосохранение, ресурсы, обман/шантаж как выгодные ходы в теории игр)".
Нет, и нет. Пока что это результаты просто мысленных экспериментов. И даже, если нейронки с чего-то додумают не то, то хватит ли им мозгов довести задачу до конца?
ИИ- это чёрный ящик (в смысле, что человек не понимает, как оно устроено), что уже умнее человека.
Уточнение, что умнее в определенных областях, и не факт, что во всех, которые важны для выживания/уничтожения человека. Калькулятор, смартфон, процессор: в мире найдется всего несколько десятков тысяч человек, которые понимает, как устроен калькулятор. Все, что сложнее, не сможет объяснить ни один человек в мире (имеется ввиду полностью, все детали и механизмы). Но бояться надо именно нейросетей - да...
Такие люди, как Роман Ямпольски нужны, чтобы сохранять трезвость мысли и адекватно оценивать риски. Но доводы его... неубедительны.
Перевел почти всё на Grok 4.1 с декабря не смотря на ажиотаж в других моделях. 1. Дешево за большой контекст 2. Code execution дает возможность дешево анализировать данные 3. Реальные расходы токенов на задачи уровня flash и mini моделей, но качество заметно лучше 4. Хорошо следует схемам 5. Контекст 2M
Экономия в 3-4 раза с Claude Sonnet.
Где использовал: HR-тематика: массовая обработка резюме и вакансий Анализ данных, поиск информации
Claude Sonnet: $3 / $15 за 1M токенов (input/output)
Grok 4.1 Fast: $0.20 / $0.50 за 1M токенов
Использую Grok 4.1 Fast для простых задач и 4.1 Fast Reasoning когда нужно "подумать".
Расскажите в комментариях, на каких моделях работаете и для каких задач?