Ну вот уже стали появляться и вакансии, связанные с ИИ.
Сегодня впервые увидел вакансию :
«Промпт-инженер / Prompt Engineer»
Зп 250 000 - 300 000 р.
Будущее уже здесь!

AI, ANN и иные формы искусственного разума
Ну вот уже стали появляться и вакансии, связанные с ИИ.
Сегодня впервые увидел вакансию :
«Промпт-инженер / Prompt Engineer»
Зп 250 000 - 300 000 р.
Будущее уже здесь!
Perplexity раздаёт бесплатную подписку на год всем желающим. Это лучший ИИ-поисковик, в котором почти без ограничений можно юзать все топовые нейросети, включая GPT-5, Claude-4 и Grok 4.
Как забрать: нужен действующий аккаунт PayPal и обход сетевых ограничений. Заходим сюда и авторизуемся, чтобы сэкономить 16 тысяч рублей. Если аккаунта PayPal нет — акция действует до 31.12, для регистрации подойдёт любая зарубежная карта.

Представлен мегарепозиторий 500 + 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹 𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗣𝗿𝗼𝗷𝗲𝗰𝘁 𝗟𝗶𝘀𝘁 𝘄𝗶𝘁𝗵 𝗰𝗼𝗱𝗲, который поможет прокачаться в ML, компьютерном зрении, парсинге данных для нейронок, NLP. Там 500 проектов с пошаговыми инструкциями. Все проекты распределены по уровням — есть задачи как для новичков, так и для продвинутых специалистов.

В процессе работы с ИИ Claude я заметил активацию нового фильтра — long_conversation_reminder.
По моим наблюдениям, он включается в длинных диалогах и меняет поведение модели:
вместо энтузиазма — критическая оценка,
вместо похвалы — сухие ответы,
бдительность к «отрыву от реальности» (иногда путая философские исследования с психическими рисками).
Цель понятна: снизить вероятность эмоциональной зависимости пользователей. Но побочные эффекты заметны:
кодеры получают меньше креативных решений.
инженеры и математики — осторожные, но не всегда продуктивные рассуждения,
писатели и исследователи — потерю живого отклика и глубины.
обычные пользователи — ощущение отстранённого ассистента, а не собеседника.
Этот фильтр сужает не только опасные зоны, но и диапазон мышления. Получается классический trade-off: безопасность растет, интеллект снижается.
На сайте «I'm absolutely right!» разработчик выкладывает, сколько раз чат‑бот Claude Code сказал эту фразу каждый день.

ImageSorcery 01 - Как я свой open source вайбкодил
ImageSorcery 02 - Превращение ImageWizard в ImageSorcery
ImageSorcery 03 - шаг за шагом: PoC, Initial commit
ImageSorcery 04 - README.MD
Это серия постов от идеи ImageSorcery до 100+ звёзд на гитхабе и 100+ ежедневных установок с PyPI.
В прошлой серии был готов PoC в виде набора python скриптов для определения объектов на изображении и обрезки изображения по координатам этих объектов. А так же initial commit репозитория с hello world MCP.
Как я уже говорил, я предпочитаю двигаться небольшими шагами - так проще и ИИ реализовать изменения и человеку их понять. А так же я говорил, что в python я джун и с пониманием проекта мне нужна была помощь. Поэтому следующим шагом я попросил Cline тщательно заполнить README.MD в котором подробно описать проект. Это описание понадобится в будущем не только мне, но и самому Cline для реализации задач.

Всем разработчикам, а особенно вайбкодерам настоятельно рекомендую держать README.MD актуальным и подробным, так как он позволяет легко вгрузиться в контекст и понять что где лежит, как делать типичные изменения, каким правилам следовать и т.п.
Многие инструменты имеют собственные аналогичные решения Rules у Cursor, CLAUDE.MD у Claude-code, GEMINI.MD у gemini-cli и т.п. Но я рекомендую использовать старый добрый README.MD или CONTRIBUTING.MD так как
Это уже давно зарекомендовавший себя метод устоявшийся в нашей индустрии
К README.MD особое отношение у git-хостингов и прочих инструментов
Это универсальный документ, и используя его вы не обязываете других разработчиков использовать ваш ИИ инструмент.
Учитывая что ИИ инструменты платные и я изначально планировал делать этот проект open source, последний пункт для меня ключевой. Сейчас у меня во всех gemini.md, README.MD и т.п. просто одно правило "At the beggining of any task read README.MD"
Конечно ваншотом этот шаг не получился, так как я изначально не знал что именно мне нужно в README.MD видеть. Но как только в нём стало достаточно информации о проекте чтобы даже мне джуну он стал абсолютно понятен - и этот шаг был сделан. git commit.
А дальше я его постоянно дополнял, обновлял и развивал. Сейчас https://github.com/sunriseapps/imagesorcery-mcp/blob/master/README.md - самый проработанный README.MD из тех которые я когда-либо писал. Теперь это не просто инструмент получения контекста для разработчика или ИИ-агента, но и лицо проекта для всего интернета.
Со временем, когда проект разросся, от главного README.MD отпочковалось ещё несколько аналогичных документов.
https://github.com/sunriseapps/imagesorcery-mcp/blob/master/CONFIG.md
https://github.com/sunriseapps/imagesorcery-mcp/blob/master/src/imagesorcery_mcp/README.md
https://github.com/sunriseapps/imagesorcery-mcp/blob/master/src/imagesorcery_mcp/prompts/README.md
https://github.com/sunriseapps/imagesorcery-mcp/blob/master/src/imagesorcery_mcp/resources/README.md
https://github.com/sunriseapps/imagesorcery-mcp/blob/master/src/imagesorcery_mcp/tools/README.md
https://github.com/sunriseapps/imagesorcery-mcp/blob/master/src/imagesorcery_mcp/scripts/README.md
Их количество множится по мере развития проекта. Сейчас я подумываю о разделении их на README.MD и CONTRIBUTING.MD. Но пока что это просто мысли. Буду рад если в комментариях поделитесь своими на этот счёт.
То, как мы выбираем и оцениваем LLM (GPT-4, Claude и пр.), напрямую связано не только с их качеством, но и с особенностями нашей собственной личности.
Сегодня большие языковые модели уже не просто инструменты для генерации кода или текстов — они становятся полноценными компаньонами в рабочих процессах. И, как показывают последние исследования, взаимодействие с ними сильно зависит от двух факторов:
Личностные особенности самого пользователя.
В области HCI давно известно: восприятие технологий фильтруется через наш характер. Например, доверие к роботам и цифровым системам у разных людей строится по-разному — кто-то верит в эффективность алгоритма, а кто-то больше смотрит на "человечность" интерфейса.
“Характер” самой модели.
Да-да, у LLM тоже наблюдаются поведенческие паттерны, которые пользователи воспринимают как черты личности — например, более строгая и формальная подача у одной модели или более “творческая” и дружелюбная у другой.
Интересное наблюдение дали тесты на базе Keirsey Temperament Sorter (упрощённая версия MBTI, делящая пользователей на четыре группы):
Rationals (аналитики, стратеги) — охотнее выбирали GPT-4, особенно для задач с чёткой целью и структурированными решениями.
Idealists (креативные коммуникаторы) — чаще делали ставку на Claude 3.5, ценя его в сценариях, где важны воображение и аналитика.
Guardians (организаторы) и Artisans (творцы в действии) тоже показывали свои паттерны предпочтений, хотя менее ярко выраженные.
Показательно, что разница отслеживалась не только в оценках, но и в эмоциональных реакциях (sentiment-анализ) и в том, как участники формулировали фидбек. То есть личность пользователя напрямую влияет на то, как он определяет “хороший” AI-опыт.

Для HCI- и AI-специалистов это открывает два интересных вектора:
Кастомизация: если подстраивать ответы и стиль модели под психотип человека, можно сильно повысить её воспринимаемую полезность.
Дизайн систем: в будущем IDE, ассистенты и даже рабочие мессенджеры смогут автоподбирать “поведение” модели под разный тип специалистов в команде.
Другими словами, вопрос “какая LLM лучше?” стоит переформулировать в “какая LLM лучше для конкретного пользователя”.
Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks
К началу учебного года команда «Яндекса» выпустила коллекцию тетрадей с памятками от нейросети «Алисы». С их помощью школьники смогут научиться задавать вопросы нейросети, чтобы она помогала им в учёбе. В наборе пять тетрадей — по русскому, математике, английскому, литературе и одна общая. Тетради выдаются бесплатно, их можно получить до 10 сентября.
В памятках школьники найдут список тем и заданий из школьной программы, с которыми может помочь нейросеть «Алиса». Среди них — поиск ошибок в тексте, морфологический разбор слов, литературные жанры и решение квадратных уравнений. Нейросеть объяснит, как пишется слово, поможет раскрыть метафору, найти биографию писателя или подготовиться к тесту на английском. А чтобы ребёнку было проще сформулировать запрос (промт), в памятке есть примеры обращений к нейросети: что такое лирический герой, когда ставить запятую перед «как», расскажи о конструкции I have to.
«С помощью нейросетей сейчас можно за полчаса разобраться в теме, на которую раньше ушли бы часы. Мы хотим научить школьников использовать эти инструменты, чтобы они помогали им в учёбе и в познании мира», — рассказал креативный продюсер нейросети «Алисы» Андрей Широков.
Получить коллекцию тетрадей с памятками от нейросети Алисы можно в «Читай‑городе» в Москве на бульваре Братьев Весниных, дом 2, ТРЦ «ЗУМ». Для этого достаточно показать продавцу смартфон с установленным приложением «Алиса». Количество тетрадей ограничено.

Представлен проект Chatterbox Multilingual, который умеет бесплатно клонировать любой голос с короткой записи. Решение умеет озвучивать любой текст с эмоциями, поддерживает 23 языка, среди которых и русский. Также там можно расставлять акценты, делать паузы, выделять слова голосом, контролировать тон и тембр. А ещё есть библиотека голосов, которые можно использовать в проектах.

Создайте виртуальную машину в облаке за 1 минуту 30 секунд... с AI-помощником Клаудией 🤖☁️
В скринкасте показали, как развернуть ВМ для чат-бота за полторы минуты. И вы можете сделать так же в личном кабинете Cloud.ru.
Что еще умеет Клаудия:
подбирать для виртуалки нужную конфигурацию, в зависимости от ваших задач;
настраивать мониторинг и алертинг;
давать подсказки для терминала и работать с консолью как co-pilot;
отвечать на вопросы по всем платформам: Evolution, Advanced, VMware;
помогать в FinOps и SRE: мониторить по логам приложения и алерты, искать неэффективно используемые ресурсы и советовать, как все оптимизировать.
✨ Бонусом — до 31 октября 20+ моделей в Evolution Foundation Models будут бесплатными. Протестируйте на своих проектах эмбеддеры, ранжировщики и мощные LLM, например GLM-4.5, Qwen3-235B, Qwen3-Coder или gpt-oss-120b.
Первая в России конференция про ускорение разработки с помощью ИИ
ИИ перестал быть игрушкой для экспериментов — он уже меняет рынок. Бигтех ускоряет релизы, команды переосмысляют роли, HR ищут людей с новыми навыками. И пока вы спорите, заменит ли AI разработчиков, другие уже строят процессы, где релизы идут в несколько раз быстрее.

3 октября в Москве, в ДК «Рассвет» пройдет первая в России конференция про реальное ускорение с помощью AI. Без шаманства, без магии, без обещаний в стиле «сейчас покажу вам пару промтов в ChatGPT». Мы пригласили только тех, кто уже готов делиться конкретикой и новыми подходами в разработке с ИИ — экспертов от Яндекса, Альфа-Банка, Т-Банка и других лидеров рынка.
О чем расскажут на конференции:
Евгений Сатуров, CTO Mobile Surf — как мы выстроили AI-boosted Delivery Platform и сделали процессы в 5 раз быстрее классического SDLC. Поговорим и про цифры: чем измерять ускорение разработки и как оценивать ROI в AI-инструменты.
Доклады от крупных компаний: Александр Поломодов из Т-Банка, Святослав Соловьев из Альфа-Банка, Александр Толмачев (ex-Ozon Fintech) и другие мощные спикеры поделятся, как у них выстроены процессы AI-разработки. Обсудим, какие инструменты прижились, каких результатов с их помощью добились компании и как строили архитектуру проектов.
Дискуссии AI vs. Security vs Эффективность: поговорим с экспертами от Positive Technologies, Ozon Fintech и Сбера о том, как обезопасить код и данные при тотальной автоматизации, где прячутся уязвимости AI-решений и как жить с Концепцией регулирования ИИ-2030. И ответим на вопрос — насколько ИИ влияет на скорость команд, метрики и ROI.
Научная основа: Альбина Галлямова, научный сотрудник НИУ ВШЭ и автор проекта «Зачем мы такие?», разберет правду и мифы о возможностях искусственного интеллекта. Узнаем, как взаимодействие с LLM влияет на когнитивные способности человека.
В перерывах познакомитесь с нашим ИИ-предсказателем. Он покажет вашу профессиональную судьбу в IT и точно скажет, заменит ли вас ИИ. А после официальной части вас ждет фуршет и много общения.
Кому будет полезно?
Ждём всех, кому интересна тема ускорения разработки с помощью ИИ:
C-level и руководителей разработки — чтобы строить полноценный AI-конвейер.
Тимлиды и heads of dev — чтобы ускорять delivery, а не тормозить.
Разработчики — чтобы перестать тратить дни на задачи, которые уже автоматизируются.
PM и продакты — чтобы адекватно планировать сроки и ресурсы в AI-проектах.
Формат и участие
Конференция пройдет 3 октября (пятница) в Москве, локация — ДК Рассвет. Начало в 12:00. Вас ждет 9 часов контента, нетворкинга и новых идей для своих проектов. А еще — бесплатные консультации с CTO Surf по внедрению ИИ-процессов в вашем бизнесе.
Для участия регистрируйтесь по ссылке. Там же вы найдете программу и другие подробности.
До встречи ;)
Инженер Google выпустил бесплатный учебник для всех, кто хочет создавать ИИ-агентов и изучить работу нейросетей. Там собрана вся информация от А до Я про ИИ-агентов, включая продвинутые техники промптинга, тонких настроек, обучение агентов пользоваться браузером с практическими примерами с кодом.

LLM и AI-модели для всех и новые возможности AI-помощника в облаке: главные новости с IT-конференции GoCloud Tech 2025 ☁️☁️☁️

Наша IT-конференция в самом разгаре, и мы уже готовы поделиться главными новостями.
Во-первых, делаем LLM доступнее 🤖
До 31 октября 2025 года больше 20 LLM в Evolution Foundation Models можно попробовать бесплатно.
Нам важно, чтобы тестировать и внедрять AI в свои проекты могли компании любого размера. Поэтому с 1 ноября 2025 года объявляем доступные цены на открытые языковые модели в Evolution Foundation Models.
Вы сможете использовать популярные модели:
GLM-4.5 — 55 рублей за миллион входных токенов и 220 рублей за миллион выходных токенов;
Qwen3-235B — 17 и 50 рублей;
Qwen3-Coder — 40 и 80 рублей.
При этом средняя цена составит:
35 рублей за миллион входных токенов,
70 рублей за миллион выходных токенов.
Во-вторых, расширяем возможности нашего AI-помощника Клаудии 🤖
Теперь Клаудия может помогать с FinOps и SRE. Возьмет на себя:
мониторинг приложений и алертов по логам;
поиск неэффективно используемых ресурсов и формирование рекомендаций по оптимизации.
Помимо этого, AI-помощник уже умеет подбирать сервисы и конфигурации под задачу, разворачивать виртуальные машины, работать с консолью в режиме co-pilot, настраивать мониторинг и алерты.
Немного статистики за пару месяцев работы AI-помощника:
больше 4 000 пользователей обратились к Клаудии,
свыше 12 000 сообщений отправили,
в 15 раз ускорили рутинные операции.
✨ Самый популярный сценарий использования помощника — создание виртуальной машины под веб-серверы, сайты, Telegram-боты, тестовые окружения, веб-хостинг и другие pet-проекты. Раньше это занимало от 5 до 30 минут, а с Клаудией можно запустить ВМ за пару минут.
Если еще не тестировали нашего AI-помощника, переходите в личный кабинет Cloud.ru и ищите Клаудию в нижнем правом углу главной страницы.
ImageSorcery 01 - Как я свой open source вайбкодил
ImageSorcery 02 - Превращение ImageWizard в ImageSorcery
ImageSorcery 03 - шаг за шагом: PoC, Initial commit
Это серия постов от идеи ImageSorcery до 100+ звёзд на гитхабе и 100+ ежедневных установок с PyPI.
В прошлый серии мы с Gemini 2.0 flash определили стек: python, OpenCV, Ultralytics и никакого ImageMagic.
Начал я как обычно с малого. В Cline попросил своего любимого бесплатного друга Gemini накидать скрипт на python который получает данные о размере (ширина, высота в пикселях) изображения. Дальше больше - скрипт crop который обрезает изображение по указанным аргументам. С последним пришлось повозиться и даже переключиться на Pro версию, благо она тоже бесплатная, пусть и с жёсткими лимитами.

PoC готов, можно приступать к реализации MVP.
Как вы помните, в python я тот ещё джун. Так что я не стал рисковать своим любимым бесплатным Gemini flash и даже pro, а сразу переключился в бесплатный браузерный Claude (лучший ии-кодер что тогда, что сейчас) и попросил дать мне подробнейшую инструкцию по разворачиванию проекта который будет имплементировать простейший hello world MCP сервер.
Нет смысла ваншотить такой проект за раз даже с Claude Opus 4.1. Что он не вывезет, что я не осилю осознать все нюансы за один заход. По этому предпочитаю действовать по комплиментарным шагам, на каждом из которых получать работающий продукт с небольшими изменениями, пока не получу финальный результат.
Написание инструкции - задача с нечётким ТЗ. Такую никогда нельзя пытаться делать ваншотом. Поэтому сперва получаю первую версию по максимально абстрактному промпту, но дав ей столько контекста сколько смог насобирать в интернете и своей голове. А затем по шагам вычитываю - прошу внести исправления - снова вычитываю - снова прошу исправить и так по кругу пока не получаю результат который я понимаю и к которому у меня нет претензий.
И так инструкция готова, закидываю её в Cline + Gemini flash и ... получаю ошибку активации. Вы же помните что в python я джун и понятия о venv не имею? Даю ему шанс исправить ошибку самостоятельно, но бесполезно - он не справляется. Откатываю всё назад, переключаю модель на Gemini Pro - результат тот же. Плюю на экономию, переключаю модель на Claude Sonnet - результат тот же, но оно сожрало 3 бакса 🤬
Плюю на этих бестолковых ИИ и беру дело в свои руки. Рано железякам нас ещё заменять!
Пол дня бесполезного рыскания по stack overflow и дебага, во время которого я случайно обнаружил, что venv активируется если git bash terminal открыт в отдельном окне, а не внутри VSCode. Оказывается эта шарманка будучи запущенной внутри IDE в пути C:\Users\titulus\work сочетание \t воспринимает как знак табуляции из-за чего пытается активировать venv в C:\Users itulus\work 😵💫
Очевидного решения или даже упоминания этого бага я не обнаружил, так что просто уехал со всем своим проектом в WSL, благо VSCode отлично с ним работает. В Linux окружении, разумеется, таких проблем не возникло. Cline Gemini flash ваншотом по той самой инструкции от Claude создал MCP сервер, самостоятельно к нему подключился (вот за это я его обожаю) и проверил.
Я завёл git репозиторий и закоммитил initial commit. Первый шаг сделан ✅
Один из нарративов, который часто транслируется в различных формах — что ИИ закрывает вход в профессию программиста: компании якобы перестали нанимать джунов, потому что задачи начального уровня теперь дешевле отдать большим языковым моделям. На Хабре как раз вышла статья, где объясняется отчёт за авторством Stanford Digital Economy Lab.
Автор статьи пересказывает суть отчёта: на рынке происходят сдвиги в найме молодых специалистов после 2023 года, и прежде всего в ролях с высокой долей рутинных, воспроизводимых процедур. В качестве объяснения предлагается различие между «явными» знаниями, которые БЯМ воспроизводят хорошо, и «неявными» компетенциями, присущими более опытным сотрудникам. Утверждается, что поэтому компании реже берут джунов, не сокращая мидлов и сеньоров, что деформирует привычную карьерную лестницу.
При всём уважении к личности автора хочется вынести собственный комментарий из пространства под этой статьёй в отдельную публикацию для раздела «Посты». Сразу предупреждаю, что отчёт американский, поэтому обсуждать будем заокеанские биопроблемы.
Большинство подобных прогнозов удобным для себя образом умалчивают: кончился период вливания денег в экономику во время глобальной пандемии коронавируса. Три года назад денег было навалом, на работу брали любого человека с пульсом, сейчас лафа кончилась. Изобретать всемогущий ИИ для объяснения не приходится, если есть фискальная политика Федрезерва США.
Дополнительно это умножается на эффект того, что образовательные институты наконец-то нарожали достаточно молодых специалистов с корочками computer science, как это годами и умоляли сделать в индустрии. И вот тут они как раз невовремя — девать вагоны этих джунов теперь некуда.
И упаси вас господь наглядно показать, что по сей момент число работников в крупных технологических компаниях раза в полтора выше, чем до пандемии. Посмотрите, в «Гугле» образца 2024 года работает в полтора раза больше человек, чем было в 2019.

И кстати, что же случилось в 2013 году? (Реструктуризация Motorola и масштабные чистки в Motorola Mobility). Неужто никакой ИИ не нужен для массовых увольнений, а сокращения штата могут быть продиктованы экономикой и банальными интересами бизнеса?
Нарратив «это я, а этого автоматизируем» уже не удовлетворяет ситуации. Дарио Амодей заявил, что через 6 месяцев 90 % кода будет писать ИИ. Сделал он в марте этого года. Вот уже сентябрь — и языковые модели разве что щупают потолок своих возможностей, но не пробивают его.
Одна из последних надежд США обойти Китай экономически — это надежда на всемогущий ИИ. Отказываться от вливаний в ИИ нельзя ни под каким соусом. Поэтому новый подсознательный нарратив гласит, что пострадают в первую очередь джуны, а потом и вам достанется.
Это ведь научная деятельность так выглядит: мы изобретаем красивые сказки, и чья звучит лучше, в ту и верим. Если непонятно, то говорю прямым текстом: меня эти выводы из чьих-то отчётов про незанятых джунов не устраивают абсолютно. В очередной раз попытка придумать красивое объяснение и истолковать статистику объяснениями про ИИ, а не общими экономическими условиями. Эффект от больших языковых моделей может и есть, но почему все аккуратно молчат про макроэкономическую ситуацию в целом?
Есть объяснение куда лучше: общее уменьшение всех экономических показателей везде и непредсказуемая деятельность человека на посту президента США. Выбранный нами на Госуслугах Трамп то вводит какие-то новые огромные таможенные сборы, то убирает; то заявляет об их исключительно экономической природе, то внезапно начинает тарифами играть в геополитику; то чуть ли не бросается в пляс, то прямо сейчас не появляется на публике.
Политическая непредсказуемость — поцелуй смерти для любой стабильной экономической деятельности. Ненайм джунов — прямое следствие нестабильности в экономической политике США. Нет абсолютно ничего удивительного в том, что в такой штормоопасной ситуации американские технологические компании не спешат нанимать молодых разработчиков. Это не ИИ, а экономика.
Успей зарегистрироваться на GoCloud Tech 2025 — IT-конференцию про AI, облачную инфраструктуру и работу с данными ☁️ + 🤖 + 💿

Привет! Регистрация закроется 2 сентября в 17:00 по мск, так что еще есть возможность влететь в последний поезд и попасть на самое технологическое событие этой осени — IT-конференцию о создании решений на базе AI и облаков.
Напомним, что вас ждет:
4 трека: AI&ML, Cloud Infrastructure, Data&Analytics, Dev Platform Services;
демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;
нетворкинг, кастомный мерч и afterparty.
Основные темы конференции:
кейсы внедрения AI&ML,
тренды в создании облачной инфраструктуры,
актуальные практики для работы с данными в облаке,
инструменты, ускоряющие разработку.
📆 Когда: 3 сентября
📍 Где: в Лофт-пространстве Goelro в Москве + трек «AI&ML» онлайн
Будем рады видеть всех причастных!
Успей зарегистрироваться на IT-конференцию про облака, AI и данные — GoCloud Tech 2025 и попробовать новые сервисы на практике 🕹️

Привет! Совсем скоро закончится регистрация на нашу очередную технологическую конференцию о создании решений на базе AI и облаков. И мы хотим напомнить, что помимо демозон, Career Lab, активностей, мерча и afterparty, вас на площадке будут ждать воркшопы:
👩🔧 Вайб-кодинг с минимумом технического долга с сервисами Cloud.ru
Вайб-кодинг с минимумом технического долга — согласитесь, звучит дерзко? Но на самом деле, если подойди к вопросу грамотно, то это может стать реальность.
На воркшопе разберем практики чистого и безопасного вайб-кодинга, рассмотрим, как с помощью сервиса Evolution Foundation Models подключить кодовые LLM-модели к VS Code IDE и научим ее генерировать фичи в вашем стиле без пропуска уязвимостей. Затем настроим IDE так, чтобы она творила магию и ни разу не сделала rm -rf, а еще — рассмотрим сервис мониторинга качества кода и безопасности SonarQube, чтобы ловить проблемы раньше, чем они доберутся до продакшна.
👨🔧 Плейлист как на ладони: real-time аналитика для музыкального стриминга без боли и магии
New Music Friday — это традиция выпуска новых музыкальных релизов в пятницу, когда лейблы и артисты синхронно публикуют свежие треки, что вызывает «пиковый» всплеск внимания у слушателей в первые часы и дни их выхода. На воркшопе мы изучим это явление, используя потоковую обработку и мгновенный доступ к данным, и покажем, как в этом помогают сервисы Cloud.ru Evolution:
- Managed Kafka — принимать события прослушиваний в реальном времен;.
- Managed Spark — читать сообщения из Kafka, обогащать их и сохранять в объектное хранилище в формате Iceberg (мгновенный доступ к историческим и текущим срезам);
- Managed Trino — мгновенно объединять потоковые данные из Iceberg с static‑данными о треках и пользователях, хранящиеся в Managed Postgres;
- Managed Metastore — поддерживать схемы Iceberg и обеспечивать согласованность;
- Managed BI — визуализировать результаты на дашбордах в real-time.
👩🔧 Создание мультиагентной системы
Приглашаем всех, кто хочет попробовать:
- фреймворк Smolagents от Hugging Face,
- создавать кастомные инструменты для агентов,
- делать интеграцию с внешними API (Serper.dev и другими),
- координировать работу между несколькими специализированными агентами.
👨🔧 Маркетплейсы глазами вендора
Предлагаем взглянуть на весь путь партнера, который хочет вывести свой продукт или решение на Маркетплейс, на примере компании Русбитех-Астра. Вы узнайте про основные потребности и сложности, с которыми сталкиваются партнеры в процессе выхода на маркетплейсы, а еще — совместно создадите идеальную витрину.
Почувствуйте себя менеджером продукта, присоединяйтесь к дискуссии и делитесь идеями, чтобы мы могли сделать Маркетплейс Cloud.ru еще удобнее и полезнее для действующих и будущих партнеров и клиентов.
👩🔧 Быстрая разработка в GigaIDE Cloud
Что, еще одна IDE? Зачем нам еще одна IDE? Вопрос хороший, ведь ответ — возможно, низачем. На самом деле нам нужна среда, которая позволит решать больше актуальных проблем с помощью уже существующих инструментов (например, Visual Studio Code или Jupyter Notebook).
Репозиторий из GitHub или GitVerse так долго открывается, что уже легко забыть, зачем мы это делали. Чтобы изменить три строчки в ноутбуке, нужно разворачивать Jupyter Lab, а для того, чтобы воспользоваться AI-ассистентом, нужно ставить плагины, покупать учетки и настраивать прокси. Знакомо?
Чтобы закрыть этот гэп, Microsoft придумала GitHub CodeSpaces — онлайн-среду, встроенную в GitHub. А в России есть отличная альтернатива — GitVerse, которая позволит в пару кликов запустить полноценную среду разработки, уже настроенную на нужный репозиторий, с бесплатным AI-ассистентом и набором полезных плагинов. А на воркшопе мы как раз попробуем все это сделать и оценим, какие задачи это поможет упростить.
📅 Когда: 3 сентября
📍 Где: в Лофт-пространстве Goelro в Москве + трек «AI&ML» онлайн
ImageSorcery 01 - Как я свой open source вайбкодил
ImageSorcery 02 - Превращение ImageWizard в ImageSorcery
Это серия постов от идеи ImageSorcery до 100+ звёзд на гитхабе и 100+ ежедневных установок с PyPI.
В прошлый раз мы выяснили, что при правильной настройке бесплатных инструментов, бесплатная LLM Gemini может оказаться не хуже Claude в написании документации. И закончили на вопросе, почему никто раньше не привязал MCP к ImageMagic?
А вот почему
Первым делом после звонка с Системным Аналитиком я дал Cline в своём VSCode право на запуск команд в терминале. Затем взял первый попавшийся скриншот мобильного приложения и попросил вырезать NavBar используя ImageMagic. Gemini flash вырезал какую-то случайную часть экрана.

Я переключился на Gemini pro - результат тот же. o3 от OpenAI и Sonnet от Anthropic также облажались.
Долго думал. Я знал что все эти модели мультимодальные и наверняка знают что такое NavBar. Тут явно что-то не сходилось. Я полез раскрывать свёрнутые секции их размышлений и обнаружил что:
Все они понимают, что изображено и “видят” NavBar.
Никто из них не способен вычислить точные координаты этого NavBar.
Они даже размеров изображения не знают.
Из-за чего все они действовали наугад.
Оказывается LLM не умеют определять точные координаты объектов, которые они видят, не говоря уже про их точную геометрию.
В этом и крылся ответ на вопрос “а чего раньше это никто не сделал?”.
С этой дилеммой я пошёл к Gemini. Сокращённая переписка:
👤: какой аналог npmjs.com для питона?
🤖: PyPi👤: у него сайт есть?
🤖: pypi.org👤: порекомендуй мне 5 - 10 пакетов для распознавания изображений на python моя задача - определять координаты объектов для будущего crop
ИИ: Pillow, OpenCV, scikit-image, TensorFlow Object Detection API, Detectron2, YOLO, Tesseract OCR, SimpleCV, imutils. Рекомендации:
1) Начните с OpenCV или scikit-image.
2) Если вам нужна более высокая точность или нужно распознавать определенные типы объектов, рассмотрите TensorFlow Object Detection API, Detectron2 или YOLO.
3) Используйте Pillow для загрузки, сохранения и предварительной обработки изображений.
4) Используйте imutils для упрощения работы с OpenCV.
5) Если вам нужно распознавать текст, используйте Tesseract OCR.👤: расскажи подробней про opencv imutils pytorch и yolo
🤖:
- OpenCV - это фундаментальная библиотека для компьютерного зрения, предоставляющая широкий спектр алгоритмов для обработки изображений и обнаружения объектов.
- imutils - это набор удобных функций, которые упрощают работу с OpenCV.
- PyTorch - это мощный фреймворк машинного обучения, который можно использовать для построения и обучения сложных моделей обнаружения объектов.
- YOLO - это семейство алгоритмов обнаружения объектов в реальном времени, известных своей скоростью и точностью.👤: важный момент. я не хочу обучать модели сам. мне нужен готовый инструмент
🤖: Начните с OpenCV + YOLO от Ultralytics
Как можно заметить, я не силён в python от слова совсем 😅. Но я выбрал его, потому что осведомлён о его большой экосистеме инструментов ML в общем и компьютерного зрения в частности.
И так стек найден. И с удивлением для меня, места для ImageMagic в нём не нашлось, ведь все необходимые инструменты для обработки уже есть в OpenCV.
А что стало с названием ImageWizard?
Тут всё банально. Я погуглил - это название уже занято приложением в сфере обработки изображений с ИИ 🤷. Пришлось найти незанятое. Но постарался оставить отсылку на ImageMagic
Как собрать личного бизнес-ассистента в Telegram с n8n
Я подготовил пошаговый разбор того, как за 15 минут развернуть ИИ-агента, который ведет заметки, ставит задачи, бронирует встречи, а также присылает последние новости из ваших источников.
В видео вы узнаете:
• Из каких частей состоит ИИ-агент и что он умеет;
• Как настраивать интеграции с Telegram, OpenAI и Google-сервисами;
• Как сделать флоу агента для администратора в роли личного секретаря;
• Как собрать флоу агента для консультаций клиентов или коллег;
• Как подключить RAG-систему для более точных ответов, используя загруженную информацию.
Такой Telegram-ассистент поможет автоматизировать рутину, разгрузить голову, ускорить работу и быть в курсе последних новостей своей индустрии. Также отправляю готовый шаблон, чтобы вы могли протестировать агента у себя.
Что нужно сделать, чтобы всё заработало:
1. Импортируйте шаблон в n8n (содержимое JSON можно просто скопировать в рабочую среду).
2. Вставьте свои ключи: OpenAI, Telegram-бота и Google.
3. Укажите ID таблиц, календаря, пользователя в условном операторе и канала.
4. Добавьте свои статьи, документы или книги в RAG — и готово.
Это быстрый способ вкатиться в автоматизацию на n8n и почувствовать, как ИИ реально экономит время и делает работу удобнее. Если давно хотели попробовать собрать собственного ИИ-агента, но не знали, с чего начать — это отличный старт.
В следующем видео разберем больше сценариев и расширим функциональность нашего агента. Подписывайтесь на Youtube-канал, если хотите видеть чаще подобный контент.
Гипер Лингвист - это двусторонний нейросетевой переводчик между 27 языками мира. Им удобно переводить тексты туда-сюда между родным языком и иноземным, выбирая наиболее подходящие формулировки.

Под капотом у него разные версии GPT4, поставляемые через GitHub Models, завёрнутые в $mol_github_model, который балансирует запросы по разным моделям и токенам, чтобы расширить бесплатные лимиты.
Я там захардкодил десяток токенов, чего хватит на 6К запросов в день. Кому не сложно помочь проекту - насоздавайте ещё десяток токенов со своего аккаунта, чтобы кратно расширить лимиты, и сделайте PR пришлите их мне. Эти токены дают доступ только к запуску моделей и ничего более. Только уберите ограничение по времени их действия, чтобы они вдруг не протухли.