Обновить
1230.06

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Представлена мойка для обуви с искусственным интеллектом. Модель Brolan ClearX использует «датчики» (хотя производитель не пояснил, какие именно) и ИИ для определения материала, из которого сделана ваша обувь, и выбора соответствующего цикла очистки и сушки, а также «технологию микро- и нанопузырьков» для дополнительной очистки. В ClearX планируют начать продажи мойки в середине 2026 года по цене от $500 до $800.

Теги:
-1
Комментарии1

Клиент YouTube для Android под названием Download YT PRO весит всего 60 кБ (48 кБ в архиве). Приложение не требует Root-прав, убирает рекламу, даже спонсорскую. Видео не ставится на паузу, если свернуть приложение или заблокировать экран. Есть встроенный загрузчик видео и шортсов. Добавлен ИИ Gemini, который сразу сделает саммари даже часовых лекций и выдаст факты и советы по контенту.

Теги:
+3
Комментарии2

Приходите на вебинар, расскажем, как сэкономить на запуске LLM-моделей

Платите за ресурсы, которые не используются, или сталкиваетесь с ошибками из-за нехватки vRAM? Тогда этот вебинар для вас. Приходите пообщаться с нашими экспертами, они расскажут, как точно рассчитать конфигурацию для запуска LLM и настраивать параметры инференса для экономии без потери в качестве.

О чем будем говорить на вебинаре:

  • из чего складывается потребление vRAM;

  • как точно рассчитать конфигурацию GPU для выбранной модели, включая форматы квантования (BF16, FP8);

  • какие параметры LLM сильнее всего влияют на стоимость и производительность;

  • как с помощью Evolution ML Inference автоматически масштабировать ресурсы и переводить модели в serverless-режим, чтобы платить только за активную работу.

Еще будет практическая часть, на которой покажем запуск LLM с оптимальными параметрами в сервисе Evolution ML Inference. Сравним разные конфигурации по производительности и стоимости.

Ждем дата-сайентистов, DevOps-инженеров и руководителей, кому интересно узнать, как оптимизировать затраты на ML-инфраструктуру.

📅 Когда? 15 января в 11:00 мск.

📍Где? Онлайн. Зарегистрируйтесь, чтобы задать вопросы экспертам в прямом эфире.

Теги:
0
Комментарии0

Получаем доступ к нейросетям Google бесплатно на один месяц, включая Gemini 3, Nano Banana и Veo 3.1:

  • Заходим на сайт Google по этой ссылке.

  • Выбираем опцию «Choose your edition».

  • Выбираем «Start 30-day trial».

  • Заходим на сайт через свой Gmail.

Теги:
+3
Комментарии0

Энтузиаст добавил ИИ в умную камеру безопасности с помощью Raspberry Pi и протестировал её работу, переодевшись в вора.

Теги:
-2
Комментарии2

Относительно недавняя статья от 18.11.2024 г. "Вера в то, что для ИИ «чем больше, тем лучше», начинает меркнуть". (закрыта пэйволом)

Основная ее суть сводится к тому, что популярный до сих пор слоган ИИ
"больше - лучше" (имеется ввиду, чем больше мощности и данных, тем лучше будет ИИ модель на выходе)
уже перестает работать. В доказательство приводят аналогии с законом Мура, который никакой не закон, а просто маркетинговое название, озвучивающий очевидное - чем более технологичное изделие, тем больше инвестиций требуется в его производство.

И как мне кажется, на такие статьи, нам, юзерам вообще не стоит обращать внимания и вот, почему:

  1. Слоган "больше - лучше" очень нравится инвесторам. Есть очевидная точка приложения инвестиций, есть ощутимый выхлоп. Не надо ломать голову и разбираться в архитектурах моделей, особенностей их работы и т.д. Думаю, это один из секретов Альтмана - он простым и наглядным способом объясняет, как приумножить инвестиции. Но такое может не устраивать тех, кто не успел запрыгнуть в первые поезда и теперь пытаются как-то наверстать упущенное.

  2. Это "правило" все еще работает. Не считая GPT (просто за счет закрытости), каждая флагманская модель обучалась на все больших данных и со всем большими вычислительными мощностями. И эти мощности только начали свой стремительный рост. И замедления пока не наблюдается.

  3. Мы, юзеры, все равно будем в выигрыше. Оптимизации, новые архитектуры, конкуренция не оставит нас без плюшек. Про инвесторов я тоже самое сказать не могу (4 пункт).

Поэтому, не стоит очаровываться, чтобы лишний раз не разочаровываться.

Теги:
-1
Комментарии0

ИИ и физика

Меня попросили помочь в решении задачи (откуда, зачем - не знаю). Мне понравилась оригинальность задачи:

Вариант 1

Колёсная пара массой 100 кг. с грузовой платформой массой 900 кг. преодолевая трение силы тяжести, под действием силы привода F= 50 Н движется по ровной горизонтальной поверхности с постоянной скоростью V= 20 м/с.

На пути встречаются два клапана под каждым колесом длиной 0.3м и высотой в задней части 0.1м служащими толкателями вертикально расположенных под ними пружин имеющих силу сжатия 2000 Н каждая, и длиной рабочего хода l =0.1м.

Дано: диаметр колёс 0.4м

Найти: 1) скорость V-1 колёсной пары в момент окончания сжатия пружин?

 Вариант 2

Колёсная пара массой 100 кг. движется под неподвижной грузовой платформой массой 900 кг преодолевая трение силы тяжести, под действием силы F = 50 Н с постоянной скоростью V= 20м/с. На пути встречаются два клапана под каждым колесом длиной 0.3м и высотой в задней части 0.1м служащими толкателями вертикально расположенных под ними пружин имеющих силу сжатия 2000 Н каждая и длиной рабочего хода l = 0.1м.

Дано: диаметр колёс 0.4м

Найти: 1) скорость V-1 колёсной пары в момент окончания сжатия пружин?

2) Какое усилие F1 нужно приложить к колёсной паре после преодоления клапана, чтобы сохранить постоянную скорость  20м/с., и будет ли в данном случае мощность привода зависеть от количества клапанов на пути следования колёсной пары?

Для тех, кто не хочет считать: грузовик весом 1 тонна имеет одну (!) колесную пару и едет на ней со скоростью 72 км/час под действием силы тяги 5 кг (!). Второй вариант отличается тем, что колеса едут, а кузов неподвижен (!).

Я не могу представить человека, которому придет в голову такая задача.

Теги:
0
Комментарии8

Инструкция по получению годовой подписки на ChatGPT Plus бесплатно (лазейку прикрыли):

  • создаём временную почту на этом ресурсе;

  • домен нужно выбрать erzi(.)me;

  • создаём новый аккаунт в ChatGPT;

  • используем временную почту;

  • получаем код подтверждения.

Теги:
+7
Комментарии7

Почему мы до сих пор спрашиваем про пирамиду тестирования образца 2010 года

Провожу собеседования на позиции тестировщиков уже много лет. И заметил странную вещь: вопросы по теории не меняются вообще. Те же классы эквивалентности, те же граничные значения, та же пирамида тестирования. Как будто за окном не 2026 год, а 2010.

При этом реальная работа изменилась радикально. Половина команды использует нейросетевых агентов для генерации тестов. Автоматизация пишется в паре с ассистентом. Тест-дизайн делается через промпты. А на собеседовании мы всё ещё спрашиваем "чем отличается верификация от валидации".

Я не говорю, что классика не нужна. Нужна. Но если человек не понимает, как работать с агентами в 2026 году, он будет отставать от коллег с первого дня.

Поэтому собрал 10 тем, которые, на мой взгляд, пора добавить в раздел "теория тестирования" на собеседованиях. Полезно и тем, кто нанимает, и тем, кто ищет работу.

1. Промпт-инжиниринг для тестировщика

Как правильно формулировать запросы к нейросети, чтобы получить качественные тест-кейсы, а не общие фразы. Какая структура промпта даёт лучший результат. Почему "напиши тесты для этой формы" работает хуже, чем детальное описание контекста и ожиданий.

2. Валидация результатов работы агента

Нейросеть может ошибаться, галлюцинировать, выдавать устаревшую информацию. Как проверять то, что сгенерировал агент. Какие типичные ошибки встречаются. Почему нельзя просто копировать результат без проверки.

3. Границы применимости нейросетей в тестировании

Что агенты делают хорошо: генерация типовых тестов, анализ логов, написание документации. Что делают плохо: исследовательское тестирование, оценка пользовательского опыта, понимание бизнес-контекста. Когда стоит использовать агента, а когда лучше сделать руками.

4. Работа с контекстом

Как правильно передавать агенту информацию о проекте. Что такое контекстные файлы и зачем они нужны. Почему один и тот же запрос в разных условиях даёт разные результаты. Как не потерять контекст в длинном диалоге.

5. Этика использования нейросетей

Можно ли отправлять агенту конфиденциальные данные проекта. Как работать с чувствительной информацией. Что происходит с данными, которые вы отправляете. Политики компаний относительно использования внешних сервисов.

6. Интеграция агентов в процесс тестирования

Как встроить работу с нейросетью в существующий рабочий процесс. На каких этапах агент полезен: планирование, написание тестов, анализ результатов, документирование. Как не превратить это в дополнительную работу вместо экономии времени.

7. Оценка качества сгенерированных тестов

По каким критериям оценивать тесты, которые написал агент. Покрытие, читаемость, поддерживаемость, соответствие стандартам команды. Как отличить хороший сгенерированный тест от плохого.

8. Работа с разными типами агентов

Чем отличаются агенты для разных задач: генерация кода, анализ требований, работа с документацией. Какой инструмент выбрать для какой задачи. Как комбинировать несколько агентов в работе.

9. Ограничения и риски

Что может пойти не так при использовании агентов. Зависимость от внешних сервисов. Проблемы воспроизводимости результатов. Риск снижения собственной квалификации при чрезмерном делегировании. Как минимизировать эти риски.

10. Критическое мышление в эпоху нейросетей

Почему важно понимать, что делает агент, а не просто использовать результат. Как развивать экспертизу, когда рутину делает машина. Почему человек с глубоким пониманием предмета получит от агента лучший результат, чем новичок.

Это не замена классической теории тестирования. Это дополнение, которое отражает реальность 2026 года. Если кандидат знает только классику, он справится. Если знает и классику, и современные инструменты, он будет эффективнее с первого дня.

А какие темы про работу с нейросетями вы бы добавили в собеседование?

Теги:
-1
Комментарии6

Открытый проект Telegram AI Dating Agent (talk-to-girlfriend-ai) позволяет общаться второй половинке разработчика с ИИ-агентом на базе Claude через Telegram, потому что сам программист «не всегда может отвечать». Нейросеть умеет писать нужные публикации прямо в Telegram, ставит нужные реакты и даже считывать настроение. Когда наступает «код красный», то бот сигнализирует разработчику, что нужно ответить лично. Разработчик пояснил, что обучал нейросеть на материалах курсов по общению с девушками.

Теги:
+7
Комментарии2

Microsoft не смогла сдержать свои обещания - компания добавила ИИ-поиск в настройки Windows 11, но он не работает с фразой, которую разработчики предлагают для теста.

Теги:
+3
Комментарии0

Приветствую!
У меня есть мечта - создать свой собственный анимационный сериал.
Но анимация - это очень дорого. От 500 000, до 1 500 000 рублей за минуту.
И вот вопрос: может быть, делу могут помочь нейронные сети?
Буду очень рад услышать о вашем опыте в комментариях!
Получалось ли у вас создать в генераторе не просто ролик, а консистентное произведение в едином стиле?
Или современные сети пока ещё не готовы для такого?

Теги:
+1
Комментарии22

Ближайшие события

Чего ждать от ИИ в 2026 году?

Каждый день в мире выходят сотни исследований в области ИИ. За прошлый год вышло около 50 000 работ. Изучить все это невозможно, и главное — большая часть из них не влияет на реальный прогресс в ИИ.

На моем YouTube-канале вышло новое видео, в котором я проанализировал 30 самых перспективных исследований ИИ за прошлый год. Это позволяет понять текущие тренды и прогнозировать, что нас ждет в новом году.

Я разделил исследования на шесть ключевых направлений и разобрал их простыми словами. :

  • как меняются методы обучения моделей;

  • как строить работающие мультиагентные системы;

  • как ИИ воплощается в физическом мире в виде роботов и других устройств;

  • как ИИ влияет на программирование и науку;

  • и почему когнитивные системы и агентная экономика — следующий шаг в развитии ИИ.

Если вам важно не просто пользоваться ИИ или внедрять его в бизнес, а понимать, куда развивается сама технология и какую роль в этом играет человек — это видео для вас.

А какие из этих направлений вы считаете самыми перспективными в 2026 году?

Теги:
+2
Комментарии5

AI-лоботомия отменяется

Представьте, что вы научили LLM всему, а потом поняли, что "всему" включает и рецепты сибирской язвы. Что делать? Простая фильтрация данных — дорого, ненадёжно и оставляет дыры. Пост-тренировочные методы "разучивания" (unlearning) слетают от простого fine-tuning. Новая статья от исследователей из Anthropic и Imperial College London предлагает элегантное решение — Selective GradienT Masking (SGTM).

Технические детали. Идея SGTM — не удалять знания, а локализовать их. Внутри модели создаётся "песочница" для нежелательных знаний (например, о биологии, как прокси для CBRN-угроз).

Как это работает:

  1. Разделение параметров: Нейроны MLP и головы внимания в каждом блоке трансформера делятся на две группы: 0_retain (для обычных знаний) и 0_forget (для опасных).

  2. Маскировка градиентов: Во время обучения, когда модель видит "опасный" пример, градиенты для 0_retain обнуляются. Обновляются только "опасные" параметры 0_forget. И наоборот, на обычных данных замораживаются 0_forget.

  3. Удаление: После обучения достаточно просто обнулить веса 0_forget. Опасные знания исчезают, а основная модель остаётся нетронутой и функциональной.

Этот метод показал себя значительно лучше, чем простая фильтрация данных, особенно в условиях "шумных" меток, когда часть опасного контента случайно промаркирована как безопасная.

Практическое применение. Основной кейс — это удаление "dual-use" возможностей из моделей. Например, можно обучить модель на всей Википедии, а затем хирургически удалить только знания в области органической химии и вирусологии, оставив при этом общие научные знания. Это позволяет создавать мощные, но безопасные модели для широкого круга задач, не опасаясь, что их используют для создания оружия.

Насколько это эффективно? На мой взгляд, это один из самых перспективных подходов к AI Safety на сегодня.

• Плюсы: Это pre-training метод, что делает его фундаментально более надёжным. В статье показано, что SGTM в 7 раз устойчивее к попыткам восстановить знания через fine-tuning, чем другие методы. Это не "костыль", а часть архитектуры.

• Минусы: За всё надо платить. Метод добавляет около 6% вычислительной нагрузки на обучение. Кроме того, нужно заранее определить, какие именно знания мы хотим изолировать.

Вердикт: SGTM — это не панацея, но огромный шаг вперёд. Это переход от "лоботомии" модели к точечной "нейрохирургии". Для серьёзных систем, где цена ошибки высока, 6% оверхеда — смешная плата за такой уровень контроля. Скорее всего, скоро увидим эту технологию в основе всех крупных моделей от Anthropic, Google и других.

Исследование

Теги:
+3
Комментарии10

2026. Год, когда ваша Loss-функция наконец сойдется. 🎆

Друзья, коллеги, любители данных и градиентного спуска!

Пока часы бьют 12, а мы заменяем шампанское на кофе (все равно тренируется модель), давайте не просто загадываем желания. Давайте их оптимизируем.

2025 был годом больших LLM, диффузий и Agentic AI. А что будет ядром 2026? Моя гипотеза — возврат к фундаменту. К математике, которая делает магию машинного обучения возможной.

Вот 3 математических концепции, которые станут вашими лучшими друзьями в новом году:

  1. Теория информации.
    Энтропия Шеннона говорит нам о степени неопределенности:

    H(X)=−i∑​p(xi​)logp(xi​)

А KL-дивергенция измеряет "расстояние" между распределениями — ключ к пониманию distillation's, RLHF и многого другого:

DKL​(P∣∣Q)=i∑​P(i)logP(i)​/Q(i)

2.Дифференциальная геометрия и многообразия.

Где живут ваши эмбеддинги? На многообразии, где локально все похоже на евклидово пространство, но глобально — сложная искривленная структура. Это язык диффузионных моделей.

3.Байесовские методы и Uncertainty Quantification.Нас интересует не просто предсказание yy, а апостериорное распределение:

 P(θ∣D)=P(D)P(D∣θ)/P(θ)​

Где θ — параметры модели, а DD — данные. 2026 — год, когда model.predict() будет возвращать не число, а (mean, variance).

А теперь — главное. Как сделать 2026 годом вашего прорыва? Формула года:

 2026=(Цель+Данные)×(Скорость_Обучения⋅Момент)+Регуляризация_Отдых

Где:

  • Регуляризация_Отдых — это не dropout, а сознательное "зануление" для перезарядки: output = 0 if (burnout_risk) else input.

  • Скорость_Обучения — умение учиться быстрее, а не просто больше.

  • Момент — тот самый нетворкинг, комьюнити и поддержка.

И вот ваш подарок от меня на Новый год — маленький "мозговой тизер" (ответ в комментариях!):

Для модели линейной регрессии y∼N(w^Tx,β^−1) с априорным распределением w∼N(0,α^−1) найдите вид апостериорного распределения p(w∣X,Y), выведите формулы для его параметров и покажите, как его максимум (MAP-оценка) связан с ridge-регрессией с коэффициентом регуляризации λ=α/β/

Подсказка: вспомните теорему Байеса: апостериорное распределение пропорционально произведению правдоподобия и априорного распределения.

Давайте встретим 2026 год не как пассивные наблюдатели, а как архитекторы будущего.

С Новым 2026 годом! Пусть ваши градиенты не затухают, обобщающая способность растет, а оптимизатор всегда находит глобальный минимум. 🥂

#MachineLearning #Математика #DataScience #ИИ #2026 #НовыйГод #КарьераВAI #Наука #Формулы

Теги:
-1
Комментарии0

Представлен открытый проект на Python под названием Reverse API engineer. Это консольный инструмент, который фиксирует трафик браузера и автоматически генерирует готовые к работе клиенты Python API. Больше никакого ручного реверс‑инжиниринга — просто просматривайте, записывайте и получайте чистый API‑код.

«Этот инструмент выполняет код локально, используя Claude Code‑ пожалуйста, следите за выводом/ На некоторых веб‑сайтах используется расширенная система обнаружения ботов, которая может ограничивать захват или требовать ручного взаимодействия», — пояснил автор проекта.

Особенности Reverse API:

  • автоматизация браузера: создан на базе Playground с режимом скрытности для реалистичного просмотра;

  • режим автономного агента: полностью автоматизированное взаимодействие с браузером с помощью агентов искусственного интеллекта (автоматический режим с MCP, использование браузера, stagehand);

  • запись HAR: фиксирует весь сетевой трафик в архивном формате HTTP;

  • генерация на основе искусственного интеллекта: использует Claude 4.5 для анализа трафика и генерации чистого кода на Python;

  • поддержка нескольких SDK: встроенная интеграция с Claude и OpenCode SDK;

  • интерактивный интерфейс командной строки: минималистичный интерфейс терминала с переключением режимов (Shift+Tab);

  • готовность к работе: сгенерированные скрипты содержат обработку ошибок, подсказки по вводу текста и документацию;

  • история сеансов: все запуски сохраняются локально с полными журналами сообщений;

  • отслеживание затрат: подробное использование токенов и оценка затрат с поддержкой кэширования.

Теги:
+1
Комментарии0

По поводу ИИ некоторые размышления. Раньше всё ПО было документировано и самодокументировано. Совсем раньше можно было всю документацию по продукту держать в голове целиком. Потом доступ стал только по поиску и люди стали знать продукты фрагментарно, значит требовались уже коммуникации на уровне пользователей/экспертов. С развитием ИИ, насколько понимаю, документирование вообще пропало напрочь. Неизвестно что продукт может, не известно в каких областях он достоверен, вообще ничего не известно, похоже. И чего делать? С кем советоваться? Кто-то подскажет без ущерба для себя и других? Проблема?..

Теги:
0
Комментарии13

2025: топ-7 фичей, пицца и прочие достижения

2025 стал для нас годом перемен, открытий и испытаний (куда без этого в современном мире в эпоху AI). Он запомнится новыми фичами, ребрендингом, выставками и митапами от Москвы до Новосибирска.

Наша работа не имела бы такого смысла, интереса и отдачи без вашего участия. Спасибо, что делитесь с нами своим опытом. Каждая встреча на ивенте, обсуждение, баг-репорт и вопрос в чате помогают нам двигаться вперед.

Toп-7 фичей Veai по мнению наших пользователей

  1. Генерация тестов по исполнению (статья на Хабре "Не LLM едиными: генерируем юнит-тесты из реального исполнения на лету")

  2. Агентский режим (статья на Хабре "Как мы сделали AI-агента и пользуемся им на практике")

  3. Пользовательские сценарии (Workflows)

  4. Правила (Rules)

  5. Анализ тестов на моргание (Flaky tests)

  6. Увеличение тестового покрытия

  7. Исправление падающих автотестов из TMS

2025

  • 4 больших релиза, много EAP и nightly-сборок

  • поддержка OpenIDE, GigaIDE, PyCharm, Rider, GoLand, PhpStorm и WebStorm

  • участие в JPoint, Joker, Heisenbug, CodeFest и митапах в Москве, Санкт-Петербурге, Владимире и Новосибирске

  • переезд в новый офис

  • ребрендинг

  • съели с коллегами 1040 пицц в офисе по пятницам :)

Мы уже работаем над следующим релизом и ждём возможности показать вам новые фичи.

С наступающим Новым годом — и спасибо, что вы с нами!

Команда Veai 🎄

Теги:
-1
Комментарии0

Обновлены бесплатные курсы от Гарвардского университета, включая:

Теги:
0
Комментарии0

Генерация векторных картинок с помощью LLM

Без лишних слов, результаты простого эксперимента - один и тот же запрос применительно к разным LLM и результат в виде SVG, который можно увидеть глазами. Просто чтобы примерно понимать как что можно получить на выходе.

Сделал, чтобы вам не пришлось. Тематику выбрал - актуальную на сегодня.

Лучшая и худшая по субъективному мнению автора
Лучшая и худшая по субъективному мнению автора

Еще елки-палки на одной странице: https://htmlpreview.github.io/?https://raw.githubusercontent.com/petcodevault/llm-svg/main/index.html

Исходники: https://github.com/petcodevault/llm-svg/

Обзор конечно не объективный, т.к. по другим картинкам видно что GTP 5.2 не так уж красиво рисует SVG, но именно с этой темой, видимо, поработали.

Теги:
0
Комментарии2

Чем запомнился 2025 год

Привет, Хабр! Поздравляем всех с наступающим Новым годом!

Декабрь — время подведения итогов и планов на следующий год. Решили поделиться, как 2025-ый прошел у нас.

🎅 В Cloud.ru все начинается с людей

Запустили программу стажировок по четырем направлениям и вошли в топ-25 рейтинга IT-работодателей Хабра и ЭКОПСИ.

Узнать подробнее про стажировки

🎉 Создали ИИ-помощника в облаке

Он уже умеет разворачивать виртуальные машины, настраивать мониторинг и алертинг, подсказывать команды для терминала VM. В следующем году он станет еще способнее.

Ищите ИИ-помощника в нижнем правом углу личного кабинета Cloud.ru.

Войти в личный кабинет

☃️ Запустили Evolution AI Factory

В июне мы запустили цифровую среду для внедрения GenAI в ваши проекты, а уже в ноябре вывели все сервисы среды в коммерческую эксплуатацию. Теперь все для работы с GenAI — в одном месте.

Что интересного есть в Evolution AI Factory:

  • доступ к 20+ популярным LLM

  • инференс моделей

  • создание AI-агентов и мультиагентных систем

  • Managed RAG по вашим данным и LoRA‑дообучение

  • облачные ноутбуки для экспериментов

Протестировать сервисы Evolution AI Factory

🍊 Усилили облачную платформу Cloud.ru Evolution

Выпустили в общий доступ 19 сервисов платформы Cloud.ru Evolution: для работы с AI и данными, переноса IT-инфраструктуры, резервного копирования и восстановления, управления кластерами Redis, доменными зонами и репозиториями.

А еще запустили 14 сервисов в стадии тестирования — их вы можете подключить бесплатно.

Подключить сервисы Cloud.ru Evolution

🍾 Сертифицировали Cloud.ru Evolution Stack

В марте мы запустили в коммерческую эксплуатацию Cloud․ru Evolution Stack — платформу для создания частного, гибридного или распределенного облака. А в октябре она получила официальную сертификацию ФСТЭК России.

Изучить возможности платформы

🎇 Встречались с вами больше 50 раз

На онлайн-вебинарах, IT-митапах, хакатонах и конференциях про облака и AI — GoCloud и GoCloud Tech.

Уже готовим мероприятия в 2026 году, следите за новостями!

🌲Покорили рейтинги

В этом году мы стали №1 среди крупнейших игроков российского рынка AI-решений (CNews Analytics) и №1 среди крупнейших поставщиков услуг IaaS в России (TAdviser).

А еще вошли в топ-5 самых дорогих компаний Рунета (Forbes) и в топ-10 самых крупных и быстрорастущих IT-компаний России (CNews500).

А вам чем запомнился уходящий год?

Теги:
-4
Комментарии0

Нейросети становятся всё мощнее и мощнее, всё точнее и точнее.

Как думаете, скоро придёт скайнет и всех поработит?

Новость с сайта Dzen
Новость с сайта Dzen
Теги:
-1
Комментарии3

ИИ-проекты и первый спутник — планы Узбекистана на 2026 в tech

Выступление Президента Узбекистана
Выступление Президента Узбекистана

26 декабря 2025 года Президент Узбекистана Шавкат Мирзиёев в послании к народу и Олий Мажлису (Парламенту) подвел итоги года и анонсировал 2026 как "Год развития махалли* и общества". Среди достижений - экономический прорыв и tech-инновации. Для IT-сообщества интересны планы по ИИ, дата-центрам и космосу, продолжающие стратегию цифровизации.
*дистрикт с самоуправлением в населенном пункте

Ключевые итоги 2025 в цифрах:

  • ВВП >145 млрд USD, экспорт +23% до 33,4 млрд, инвестиции 43,1 млрд (31,9% ВВП), резервы >60 млрд. При этом в принятой два года назад Стратегии "Узбекистан-2030" ставилась цель увеличить ВВП до $160 млрд к 2030 году. Президент заявил, что есть потенциал в течение пяти лет превысить показатель $240 млрд.

  • Бедность -3,1 п.п. до 5,8%; 5 млн новых рабочих мест; 1,5 млн человек вышли из бедности; 1 435 махаллей стали территориями без бедности.

  • Tech: Начата национальная ИИ-модель, обучение 100 тыс. в AI, партнерства с ОАЭ/MIT. Международные саммиты по цифре (с Японией).

Планы на 2026+ с фокусом на IT:

Анализ для IT: Узбекистан усиливает позиции в Central Asia tech-hub: от ИИ в реальных секторах до космоса. Это открывает возможности для коллабораций в R&D, с потенциалом $1+ млрд инвестиций.

Вызовы - инфраструктура.

Фокус на локальных талантах в т.ч. привлечение международной экспертизы и релокантах.

Источники:

  • Официальное послание от 26 декабря: president.uz.

  • Анализ на sputnik.

Заключение: 2026 — переломный для tech в Узбекистане. Следим за ИИ-проектами и спутником! Ваши мысли?

Теги:
0
Комментарии1

Глава Apple Тим Кук создал «праздничное оформление» в канун Рождества, «сделанное на MacBook Pro». Картинка с молоком и печеньем должна была подразнить фанатов финал 1 сезона сериала «Из многих» (Pluribus) от Apple TV. Там написано «Счастливого сочельника, Кэрол...». Эксперты считают, что это странное изображение было создано искусственным интеллектом.

Технический блогер Джон Грубер прямолинеен по этой ситуации. «Тим Кук публикует ИИ‑слопы в рождественском послании в X, якобы для продвижения „Плюрибуса“». «Что касается неаккуратных деталей, то на упаковке написано как „Цельное молоко“, так и „Молоко с низким содержанием жира“, а лабиринт „Коровьи забавы“ просто нелепо оформлен. Я не могу припомнить, чтобы когда‑либо видел какую‑либо головоломку на упаковке из‑под молока, потому что они восковые и на них трудно писать. Это похоже на смешение упаковок из‑под молока и хлопьев», — пояснил Грубер.

Теги:
0
Комментарии3

Вышло новое интервью на Русском (https://www.youtube.com/watch?app=desktop&v=BBL-IFZJGWA) от Романа Ямпольски (один из тех дядек, что твердит об опасности ИИ). Выдает фразы насколько непонятные, что пришлось нейронкой проанализировать смысл его высказываний.

Базовый тезис

Текущая линия развития (в сторону общих моделей и затем сверхинтеллекта) ведёт к ситуации, где долгосрочный контроль невозможен, а значит риск катастрофы становится доминирующим.

Что именно он считает главной угрозой

Не «нынешний чат-бот сам по себе», а переход к AGI, после которого появляется возможность самоускоряющегося улучшения (AI помогает делать следующий AI быстрее, параллельно, эффективнее), что приводит к ASI.

Для ASI он утверждает: мы окажемся в положении «муравьёв» относительно людей — не сможем предсказать, остановить, навязать ограничения.

Как по мне, в его суждениях есть несколько фундаментальных ошибок:

Он безусловно принимает на веру тот тезис, что "AGI будет однозначно враждебен к человечеству".

Как AGI придет к такому заключению, он объяснить не смог. И даже почему-то заезженный пример со скрепками не привел

Он говорит, что "Умный агент при оптимизации целей естественно приходит к инструментальным стратегиям (самосохранение, ресурсы, обман/шантаж как выгодные ходы в теории игр)".

Нет, и нет. Пока что это результаты просто мысленных экспериментов. И даже, если нейронки с чего-то додумают не то, то хватит ли им мозгов довести задачу до конца?

ИИ- это чёрный ящик (в смысле, что человек не понимает, как оно устроено), что уже умнее человека.

Уточнение, что умнее в определенных областях, и не факт, что во всех, которые важны для выживания/уничтожения человека. Калькулятор, смартфон, процессор: в мире найдется всего несколько десятков тысяч человек, которые понимает, как устроен калькулятор. Все, что сложнее, не сможет объяснить ни один человек в мире (имеется ввиду полностью, все детали и механизмы). Но бояться надо именно нейросетей - да...

Такие люди, как Роман Ямпольски нужны, чтобы сохранять трезвость мысли и адекватно оценивать риски. Но доводы его... неубедительны.

Теги:
-1
Комментарии11

Перевел почти всё на Grok 4.1 с декабря не смотря на ажиотаж в других моделях.
1. Дешево за большой контекст
2. Code execution дает возможность дешево анализировать данные
3. Реальные расходы токенов на задачи уровня flash и mini моделей, но качество заметно лучше
4. Хорошо следует схемам
5. Контекст 2M

Экономия в 3-4 раза с Claude Sonnet.

Где использовал:
HR-тематика: массовая обработка резюме и вакансий
Анализ данных, поиск информации

  • Claude Sonnet: $3 / $15 за 1M токенов (input/output)

  • Grok 4.1 Fast: $0.20 / $0.50 за 1M токенов

Использую Grok 4.1 Fast для простых задач и 4.1 Fast Reasoning когда нужно "подумать".

Расскажите в комментариях, на каких моделях работаете и для каких задач?

Теги:
-3
Комментарии3

Привет, Хабр. Мы уже почти отправились на новогодние праздники, но хотим обратить ваше внимание на обзор одной из наших интереснейших книг по теме искусственного интеллекта, вышедшей в конце октября. Это "Программирование с помощью искусственного интеллекта" (AI-Assisted Programming) Тома Таулли. Обзор вышел в корпоративном блоге компании SSP-Soft, он называется "Рецензия на книгу «Программирование с помощью искусственного интеллекта»". Не скроем, нас, как и всю отрасль, всерьёз интересует тема промпт-инжиниринга, однако эта книга - лишь первая ласточка. В настоящее время у нас в работе две рукописи, которые уже можно анонсировать. В высокой степени готовности работа Константина Клепикова с рабочим названием "Графы знаний и логика работы больших языковых моделей". Кроме того, недавно мы согласовали и заключили договор с Камилем Гадеевым @Kamil_GR, который рассматривает в своём блоге на Хабре различные темы, связанные с правильным формулированием промптов и с галлюцинациями искусственного интеллекта. Рабочее название его книги - "Как говорить с искусственным интеллектом. Практическое руководство по промпт-инжинирингу и работе с LLM". Книги по разработке ИИ-агентов (авторская) и RAG (переводная) - в ближайших планах.

Следите за обновлениями у нас на сайте https://bhv.ru/skoro-v-prodazhe/.

Теги:
+5
Комментарии0

Неделю назад выступал с темой MCP сервера и как можно решить проблему с забиванием контекста как при старте диалога, так и при последующем общении через MCP сервера

Это больше походит на исследовательскую работу, а не на мой каждодневный сценарий использования. Мне было интересно, до скольки токенов можно сжать диалог без ухудшения качества

Вот, можете ознакомиться ⤵️⤵️⤵️

Давайте для начала о том, что такое MCP

MCP — протокол, который позволяет LLM подключаться к внешним сервисам: Notion, GitHub, Jira, Google Analytics, любой сервис с API. Один стандартный разъём вместо зоопарка интеграций — как USB для AI.

Протокол создали в Anthropic в ноябре 2024, в декабре 2025 передали в Linux Foundation с поддержкой OpenAI, Google, Microsoft и AWS. Де-факто стандарт индустрии. Вот тут есть каталог серверов, можете глянуть

Я уже писал про MCP ранее, тоже можете глянуть

--------------

Но у MCP есть две неочевидные проблемы, на которые я наткнулся после нескольких месяцев активного использования.

🛸 Проблема №1: Tools съедают контекст до старта

Предзагруженные MCP Tools занимают Context Window ещё до первого сообщения. Как системный промпт — уже там, когда вы только открыли чат.

Конкретные цифры из моих замеров:

  • Apify MCP — 7 инструментов, ~11.8k токенов

  • GitHub Official MCP — 40 инструментов, ~25-30k токенов

  • Несколько серверов вместе — легко съедают 40-70k токенов

При контексте в 200k это уже 20-35% бюджета — и вы ещё ничего не спросили.

🛸 Проблема №2: JSON забивает контекст в процессе

MCP-сервер — это переброска JSON-запросов между LLM и сервисом. Каждый вызов инструмента генерирует запрос и ответ, которые остаются в истории чата. Эти JSON часто громоздкие — особенно ответы с данными. Контекст забивается не на старте, а по ходу общения.

Почему это важно

Популярные модели имеют Context Window 128-200k токенов. Это весь бюджет чата: системные промпты, знания о вас, файлы, коннекторы. Что не влезает — забывается.

Хуже того: чем больше загружено в контекст, тем чаще модель теряет детали. В тестах на поиск 8 фактов GPT-5.1 падает с 65% до 30% при заполнении до 100k токенов. Даже более мощная GPT-5.2 проседает с 95% до 70%.

То есть проблема не только в лимите, но и в качестве работы модели при забитом контексте.

Решение для проблемы №1: Dynamic MCP

Docker Dynamic MCP — подключаем серверы не заранее, а динамически, во время разговора.

Например, вместо 40+ инструментов GitHub в контексте постоянно — лёгкий шлюз с базовыми командами:

  • mcp-find — найти сервер в каталоге

  • mcp-add — подключить к текущей сессии

  • mcp-exec — выполнить инструмент

  • mcp-remove — отключить сервер

Базовая нагрузка: ~4k токенов вместо 40-70k. Серверы подключаются по требованию и удаляются, когда больше не нужны. Работает с каталогом Docker MCP, где уже 300+ верифицированных серверов.

Нужно установить Desktop Client и в настройках Beta Features включить Enable Docker MCP Toolkit

Решение проблемы №2: запускать MCP сервера в SubAgents

SubAgents из Claude Code выполняют запрос в изолированном контексте, возвращая только результат.

Вся грязная работа — поиск серверов, подключение, вызовы инструментов, парсинг JSON-ответов — происходит в отдельном контексте подагента. В основной контекст попадает только чистый финальный ответ.

Claude Code (основной контекст)
         │
         ▼ Запрос
    ┌─────────────┐
    │  SubAgent   │ ← вся работа с MCP
    └─────────────┘
         │
         ▼ Только результат
Claude Code (чистый контекст)

Итог: ~70k токенов экономии = 35% контекста свободно для реальной работы

Для полного описания всего этого нужна большая статья, так как без картинок и примеров суть идеи может быть непонятна

Теги:
+5
Комментарии0

В новостях нам чуть ли не каждую неделю рассказывают о том, что очередная новая AI-моделька начисто победила людей в каком-нибудь супер-невозможном бенчмарке – а значит, нас ждет полная доминация жестянок уже не далее, чем завтра. И меня тут внезапно настигло чувство дежавю с тем, как я два года назад изучал греческий (потерпите, сейчас всё станет понятно).

В 2024 году я чуть больше чем за полгода занятий с репетитором подготовился и сдал экзамен по греческому языку сразу двух уровней A2 и B1 на «отлично» (или, как говорят греки, «αρίστα»).

Но есть нюанс! Говорить/писать на греческом более-менее свободно я так и не могу. Потому что задачи «сдать экзамен по языку» и «выучить язык» хоть и являются частично пересекающимися, но они далеко не идентичны. И в условиях ограниченных ресурсов, решить первую задачу сверх-оптимизацией получаемых знаний и навыков конкретно под узкую цель «получить все нужные галочки на экзамене» – это гораздо легче, чем прямо «по-честному» осваивать весь широкий набор языковых навыков.

Похожая проблема существует и в мире бенчмарков для оценки искусственного интеллекта. Базовая логика у них понятна: «давайте возьмем какой-нибудь набор задач, которые люди более-менее умеют решать своим мясным умишком с успешностью в среднем эдак 80% – и, если AI их в этом обгонит, то можно заключить, что он уже умнее человека!»

Загвоздка здесь в том, что как только такого рода бенчмарк публикуют, и он привлекает к себе общественное внимание – достичь цели «набрать самый высокий результат и победить на этом фестивале писькомерства между альтмасками и цукербринами» оказывается гораздо проще не через длинный путь «делаем сверх-умную модель, которая вообще всё делает оче-оче круто, в том числе и этот набор задач», а через банальное задрачивание модели на конкретный тип задач в этом тесте.

К чему это я? Тут нейросети на днях успешно забороли очередной «непобедимый бенчмарк по креативности, который уж точно может решить только по-настоящему генерализованный интеллект не хуже человеческого» (читайте подробное описание сути дела у Игоря Котенкова). Значит ли это, что, наконец, «AGI achieved»? Ну, э-э, скорее нет, чем да (по причинам, описанным выше).

Отдельный здесь кек – это то, что для решениях самых сложных задач в такого рода бенчмарках нейросети уже не просто кидают на амбразуру с наказом «ну ты это, постарайся там». Нет, им сейчас делают целый обвес специальных правил, как правильно методологически раскалывать такие орешки. Типа: ты сначала нагенерируй 100 разных ответов на этот вопрос, потом каждый ответ попробуй заново подставить к задачке и прикинь «а не херню ли я сделала?», а потом еще пусть итоговое решение отберет из прошедших предыдущие фильтры вообще другая строгая нейросеть-критик.

И тут уже возникает вопрос: а можно ли считать, что тут действительно валидным будет утверждение «модель XXX решила бенчмарк YYY»? Ведь, в каком-то смысле, тут не сама модель придумала вот этот весь алгоритм – а кожаные датасаентисты сами его подобрали таким образом, чтобы максимизировать получающийся результат.

Теги:
+5
Комментарии3

Что же делать айтишникам, когда ИИ всех заменит?

Дочитала замечательный роман «Гроздья гнева» — в России он, увы, не сильно популярен. А вот в Америке читал каждый школьник, как у нас «Тихий Дон». Кстати, автор получил Нобелевку за это произведение.

Эта книга Великую депрессию, а точнее про бедственное положение американских фермеров в те годы. Они массово покидали южные штаты и целыми семьями бежали в Калифорнию в поисках хоть какой-то работы. Естественно, никакой работы не было — люди умирали с голоду на обочинах дороги. Вот только они остались без работы из-за массового использования новой сельхоз техники.

Я читала и думала: ага, а нас-то, диджитальщиков и айтишников, без работы оставит искусственный интеллект. И допьем мы последний айс матча латте на кокосовом, оставим квартиры в Питере и Москве и огромной вереницей тружеников двинемся вдоль трассы. Куда-нибудь в Афганистан — туда, где ChatGPT ещё не успел отобрать работу. В дороге, как и положено: кто-то умрет, кто-то заболеет холерой, кто-то узнает, что в Кабул еще не завезли коворкинги.

И будем мы скитаться, выживать, и лет через двадцать кто-то напишет роман про наше стенание: «Великая айтишная миграция. Упадок».

Больше грустных постов про IT-рынок в моем телеграм-канале. А еще там лавина диких историй из мира маркетинга (про стыдные проекты с экстрасенсами, угрозы переломать ноги и обзоры на всратую рекламу от наших дедов) в моем канале - приходите, будем вместе рефлексировать.

Теги:
0
Комментарии0

Записал видео (на английском языке) своей критики выдачи ИИ тула от Абишека Вармы из университета штата Иллинойс. Тул генерит SVA (SystemVerilog Assertions) для верификации (по простонародному - QA) цифровых аппаратных блоков систем на кристалле. Для повышения понятности, в начале видео рассказал основные идеи протокола AXI (Advanced eXtensible Interface): правила хендшейка valid/ready, конвейерность транзакций, внеочередной возврат данных по запросу чтения с тэгами.

Код, который я попросил Абишека скормить тулу для ревью.

Кратко что получилось:

Правила для проверок оно пишет некорректные. Например что если записать по адресу 100 число 123, то отныне и вовеки веков если прочитать с адреса 100, то там будет 123. Не задумывается, то после первой записи и до чтения может быть вторая, которая запишет число 456.

Далее, проверка для теста проверяет что после сброса (reset) данные на шине AXI будут равны X в виде data == 'x. Но это ерунда по двум причинам: Во-первых, данные могут быть после сброса какими угодно, хоть 0, хоть 123, так как они будуг игнорироваться если с ними не ходит бит valid=1, который кстати сбрасывается в 0. Во вторых, операция сравнения == 'x (неопределенным значением) дает в качестве результата 'x. Чтобы делать именно сравнение с 'x нужно использовать другую операцию ===, то это все равно не будет работать потому что (1). Это вообще невалидный тест.

Но это все цветочки - на это его можно натаскать. Более интересный вид тупости - ИИ конструирует проверку, что если сделаны запросы с тэгами 11, 3, 4, 7, то и данные будут возвращаться в таком же порядке - с тэгами 11, 3, 4, 7. Ему не приходит в голову задать себе вопрос - если бы это было так, зачем в AXI вообще были бы нужны тэги? Они ведь нужны чтобы идентифицировать данные которые приходят не в том порядке, скажем 4, 11, 3, 7.

Итд.

Теги:
+7
Комментарии0

80% компаний не готовы к внедрению ИИ

Об этом в рамках ежегодного мероприятия ОТП Банка Trend Watching 2025 рассказал директор по внедрению искусственного интеллекта и эффективности процессов ОТП Банка Дмитрий Маркосьянц. Он развеял главные иллюзии рынка относительно цифровых трендов 2025/2026 годов и поделился результатами внедрения AI-технологий в банке, экономический эффект от которых за 2025 год составил 1 млрд 030 млн рублей.

По оценке Дмитрия, несмотря на ажиотаж последних лет, около 80% компаний (в частности, в финтехе) сегодня технически не готовы к полноценной промышленной реализации ИИ. Главная причина — попытка перепрыгнуть неизбежные этапы эволюции при низком уровне базовой автоматизации.

«Мы видим много ручного труда и думаем: нужен ИИ. Но если нет стабильного процесса, понятных источников данных и API, то искусственный интеллект превращается в очень продвинутого водителя в машине, у которой нет колес. Водитель может быть гениальным, но авто все равно не поедет», — отметил он.

Одной из ключевых тем выступления стала трансформация подхода к разработке. Ожидание, что ИИ станет автономным разработчиком и перепишет сложный корпоративный ландшафт с legacy-кодом, не оправдалось из-за слишком широкого рабочего контекста и риска возникновения большого числа ошибок. Поэтому ОТП Банк сегодня проводит серию экспериментов с так называемыми «пет-проектами» (PET-projects).

Этот подход подразумевает сужение задачи до размера изолированного мини-агента, который закрывает конкретный «ручной разрыв»: переводит данные из системы в систему, сверяет источники или формирует документы по шаблону. «Это не революция за ночь, это практичная эволюция: находим разрыв, закрываем маленьким агентом и оркестрируем их на единой платформе».

Правильно выбранная стратегия уже приносит ощутимые плоды. Суммарный экономический эффект от внедрения технологий ИИ в ОТП Банке за 2025 год составил 1 млрд 30 млн рублей.

При этом наши коллеги подчеркивают, что универсальной формулы ROI для оценки эффекта от ИИ не существует, так как требуется учет большого числа переменных в зависимости от контекста. Для оценки эффективности ОТП Банк использует микс качественных и количественных данных, учитывая не только сокращение FTE (эквивалент полной занятости) или прямую экономию, но и рост производительности, скорость процессов, снижение операционных рисков и улучшение клиентского опыта (NPS).

Теги:
0
Комментарии0

chatGPT хочет максимально персонализироваться и подлизаться к пользователям. Мне показалось это совершенно очаровательным)

Поделитесь своими итогами, интересно посмотреть, что вышло у других людей)

Теги:
+5
Комментарии17

На площадке Hugging Face вышли 12 бесплатных курсов по самым топовым направлениям ИИ:

  • AI Agents: база по самой горячей теме года — учимся делать автономных агентов.

  • LLM Course: как работают «мозги» современных чат-ботов и библиотек типа Transformers.

  • Smol-course: если мало времени, это самый быстрый способ разобраться в тонкой настройке (fine-tuning) моделей.

  • MCP Course: свежак, созданный вместе с Anthropic — учимся подключать ИИ к любым данным.

  • Deep RL: всё про обучение с подкреплением (то, на чем гоняют роботы и OpenAI o1).

  • ML для игр: как встроить нейронки прямо в геймдев.

  • Robotics: путь от классических железяк до роботов на нейронках.

  • Deep RL: всё про глубокое обучение с подкреплением (привет, OpenAI o1).

  • Computer Vision: учим ИИ видеть и понимать изображения.

  • Audio Course: работа со звуком и голосом через Transformers.

  • Diffusion Course: полный гайд по генерации картинок и работе с библиотекой Diffusers.

  • Open-Source AI Cookbook: отдельная имба — сборник готовых рецептов и кода для решения любых ИИ-задач.

Теги:
+2
Комментарии0

Lexicon Rephraser: принципы создания недетектируемого контента нового поколения

Девяносто процентов онлайн-текстов скоро будут генерироваться машинами. Это факт. На фоне подобной автоматизации остро встает вопрос сохранения человеческого, уникального звучания. Обычные синонимайзеры и чат-боты здесь бессильны — их шаблонный слог детекторы вычисляют мгновенно. Требуется принципиально иной подход, переосмысливающий сам процесс рождения текста. Наша методология объединяет два мощных ядра: глубинный синонимайзинг и фрактальный мозговой штурм. Их интеграция в едином «Менеджере задач» создает контент-фабрику, где итоговый материал неотличим от ручной работы эксперта.

Почему стандартные инструменты слепнут? Большие языковые модели двигаются по проторенным векторам, выбирая самые вероятные комбинации слов. Алгоритмы детекции, обученные на миллионах текстов, ловят именно эту предсказуемую плавность. Поверхностная замена слов лишь слегка корректирует маршрут, оставляя характерный машинный след. Наше решение строится на семантическом обогащении. База в два миллиона словоформ — это карта концептуальных связей, а не простой словарь. Обрабатывая ключевое понятие, система активирует до двадцати интеллектуальных ассоциаций из разных областей знания. Так слово «город» обрастает оттенками «метрополиса», «урбанизма» и «сообщества». Каждая ассоциация — новый угол зрения, радикально меняющий векторный путь текста. Для детектора такая сложная траектория перестает быть шаблонной. Текст обретает лексическое богатство и глубину, присущие живому эксперту. Практический результат — ноль процентов искусственности в системах проверки. Смысл не искажается, а обогащается неожиданными, точными формулировками. Это создает естественное звучание и прочную основу для SEO, напрямую влияя на оценку авторитетности материала поисковыми системами.

Классический диалог с искусственным интеллектом линейен и непродуктивен. Даже общение с несколькими виртуальными экспертами часто сводится к разрозненным монологам. Настоящий прорыв происходит, когда технология расширяет, а не заменяет человеческое мышление, создавая новые формы коллаборации. Архитектура нашего мозгового штурма — это многоуровневая рекурсивная система. Первый эксперт генерирует идею. Но она не передается дальше напрямую. Ключевые понятия из сообщения погружаются в ядро Lexicon, где насыщаются десятками смысловых оттенков из обширной базы. На выходе рождается пучок обогащенных концептов. Эти смысловые потоки поступают к другим участникам дискуссии, каждый из которых начинает свою ветку обсуждения с принципиально более сложного исходного материала. Такой процесс моделирует фрактальный рост, где каждый новый виток умнее предыдущего. Это приводит к экспоненциальному увеличению вариативности и преодолению главного недостатка ИИ — склонности к усредненным решениям. Система постоянно заглядывает в бездонный колодец человеческого языка, генерируя по-настоящему прорывные идеи и обеспечивая всестороннюю, глубокую проработку любой темы.

Истинная мощь технологии раскрывается в автоматизированных рабочих процессах. «Менеджер задач» позволяет создавать сложные скрипты, выполняющие десятки операций последовательно. Lexicon выступает в роли универсального семантического процессора, который готовит обогащенный материал для других продвинутых моделей. Такой промпт, попав в GPT-5, дает результат, недостижимый при стандартном запросе. Это подтверждается исследованиями, открывающими новый уровень креативности при грамотном использовании больших языковых моделей. Пользователь может запустить цепочку на тысячу повторений, создавая массу уникальных, недетектируемых статей без потери качества. Так решается ключевая проблема контент-маркетинга в эпоху ИИ: как масштабировать производство, не скатываясь в генерацию однообразного спама. Интеграция с внешними сервисами замыкает цикл от идеи до публикации, превращая Lexicon Rephraser в центральный процессор цифровой контент-фабрики.

Доступно бесплатно https://arkhipsoft.ru/Lexicon

Теги:
-2
Комментарии2

Я давно живу, и как-то упустил из виду, когда произошла подмена понятия искусственного интеллекта в массовом сознании. Когда я учился дисциплине "Искусственный интеллект" в 1990-х годах, то никем не подвергалось сомнению, что предмет искусственного интеллекта состоит в реализации целесообразного поведения через самообучение. А сейчас почему-то этот предмет сужен до всего лишь выполнения классификации и генерации информации, а о поведении никто в западной школе ИИ уже и не вспоминает. Что-то тут не так.

Теги:
+4
Комментарии15

Cloud GPU: как работает и для каких задач используется

GPU в облаке — это вычислительный ресурс для задач с высокой долей параллельных операций. Такие серверы используют, когда стандартных CPU недостаточно по производительности или времени выполнения. Ниже — как устроен Cloud GPU и для каких задач его применяют на практике на примере сервиса в Рег.облаке.

Cloud GPU — это виртуальный сервер с подключенным графическим ускорителем. Он используется для:

  • обучения и использования моделей ИИ;

  • обработки изображений, видео и звука;

  • 3D-моделирования и рендеринга;

  • параллельных вычислений и аналитики.

Инфраструктура Cloud GPU построена на серверах с процессорами AMD EPYC и накопителями NVMe SSD. Используются видеокарты NVIDIA A4000 (16 ГБ), A5000 (24 ГБ) и A100 (80 ГБ). Для работы доступен готовый образ Ubuntu GPU с предустановленными библиотеками и инструментами для ML и ИИ. Управлять серверами можно через облачную платформу.

Сервис работает по модели pay-as-you-go — пользователь оплачивает только фактическое время работы GPU. Такой формат подходит для сценариев с переменной нагрузкой: обучение и дообучение моделей, периодические расчеты и inference.

За полгода эксплуатации:

  • количество пользователей Cloud GPU выросло на 189%;

  • среднее время выполнения задачи на одном сервере составило 15 часов в сутки;

  • среднее количество дней использования GPU на одного клиента выросло в два раза;

  • 48% пользователей повторно заказывают Cloud GPU для новых задач.

Cloud GPU используют в e-commerce, розничной торговле и сфере услуг для аналитики, рекомендательных систем и автоматизации процессов. Наиболее востребованной видеокартой за последние шесть месяцев стала NVIDIA A5000 (24 ГБ) — ее выбрали почти 60% пользователей как сбалансированный вариант для ML- и inference-задач.

Больше о технических параметрах сервиса, доступных конфигурациях и условиях использования GPU Cloud можно узнать на сайте Рег.облака.

Теги:
+2
Комментарии0

ИИ всегда радикально тупее специалиста и по любой теме не более чем вводитель в заблуждения.

Мое пользование ИИ разных производителей привело за пару лет к некоему выводу.
Я являюсь профессионалом в нескольких предметных областях.
И вот во всех них что несет ИИ кажется мне глубокой чушью. Рассуждения малограмотного бездаря по теме в которой он вовсе не в курсе но очень хочет поговорить.
А вот в тех областях в которых я мало что понимаю ИИ выглядит вполне таким грамотным и разумным.
Но со всей очевидностью я понимаю, что в этих мало знакомых мне областях есть свои специалисты и уже они когда обращаются к ИИ видят в них откровенных дураков и лживых бездарей.
А в итоге если сложить всех специалистов и дать им оценить ответы ИИ то выясняется, что все эти модели создают лживых и малограмотных дилетантов, пригодных только для того чтобы морочить голову по темам в которых пользователь не разбирается.

Теги:
+2
Комментарии14

Тестирование сегодня — это не просто «проверить, как работает», а «понять, как будет работать лучше». ИИ, аналитика, автоматизация, диалог с командой — инженер по тестированию стал одной из ключевых фигур в создании продуктов.

Мы поговорили с нашими тестировщиками Дашей и Алёной о том, какие навыки особенно важны, какие технологии меняют подход к работе и как развиваться в профессии, где все постоянно меняется.

Что происходит с профессией?

Тестировщики все чаще подключаются на этапе проработки аналитики, еще до реализации фичи. Уточняют детали и находят пробелы в логике — это помогает избежать багов на старте.

Ручное тестирование тоже постепенно меняется — в приоритете исследовательский подход: важно не просто слепо следовать кейсу, а использовать нестандартные методы проверок, которые помогут отловить скрытые ошибки.

Почему ИИ — главный тренд?

ИИ — отличный рабочий инструмент, а не просто модный тренд. Например, его можно использовать при написании автотестов и тест‑кейсов, а также для разбора логов и поиска ошибок в скриптах. Но важно понимать, что ИИ не заменяет эксперта — он расширяет возможности.

Какие навыки важны?

Чтобы быть полезным тестировщиком, важно развивать как технические, так и гибкие навыки:

  • Внимательность, критическое и системное мышление — чтобы видеть не только конкретную ошибку, но и ее влияние на продукт в целом.

  • Английский язык — чтобы читать логи, понимать настройки.

  • Информационная безопасность — чтобы понимать принципы защиты данных, шифрования и как избежать утечек.

Что еще необходимо?

  • REST, HTTP, Linux, Docker — это основа, особенно если вы работаете с DevOps‑задачами. Чтобы глубже тестировать инфраструктурные задачи, полезно пройти курсы и прокачать навыки.

  • Работа в команде и инициативность — в любой задаче важно уметь взаимодействовать с разными ролями: аналитиками, разработчиками, другими тестировщиками. Тестировщик не просто проверяет — он помогает команде находить и устранять слабые места.

Как развиваться тестировщику?

  • Развитие через практику и обмен опытом

Новые подходы можно черпать на конференциях, например, Heisenbug, SQA Days. Дополнительное развитие — брать задачи не только по тестированию, но и по улучшению процессов, участвовать в аналитике, работать над задачами смежного продукта, тестировать мобильное приложение. Наставничество также помогает расти — учишься вместе с теми, кого поддерживаешь.

  • Развитие через ИТ-сообщество и техбазу

Начинающим тестировщикам будут полезны материалы Артёма Русова. У него есть сайт и тг-каналы: @qachanell, @qa_sklad.

Развиваться помогают и внутренние ресурсы в компании: коллеги делятся опытом, обсуждают кейсы, рассказывают, как решают задачи. Если у вас в компании есть что‑то подобное — не упускайте. Это классный способ расти и смотреть на профессию шире.

Полезные книги:

  1. «Тестирование DOT COM», Роман Савин

  2. «Тестирование ПО», Святослав Куликов

Теги:
0
Комментарии0
1
23 ...

Вклад авторов