Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 147,25
Рейтинг
Сначала показывать
Порог рейтинга

Разработчик на iOS получает по $5 млн каждый месяц на 24 ИИ‑приложениях в App Store. В реальности это одно приложение в разных обёртках: распознавание камней, монет, древесины и даже звёзд. Фотографии пользователей по API передаются на серверы OpenAI, после чего ChatGPT идентифицирует предмет.

Теги:
+2
Комментарии2

Фундаментальная база для AI Advanced

Или каких "Косяков" стоит избегать, чтобы результаты LLM стали лучше

🛸 Косяк №1 — по незнанию или скупости использовать не Frontier модели
Значимый рост в глубине и качестве рассуждений наступил после Opus 4.5, а лучше 4.6 + Codex 5.3 xhigh

А вот например как выглядит API GitHub Copilot на 2026 год
"id": "gpt-4.1",
"is_chat_default": true,
"is_chat_fallback": true,

Это значит, что GPT 4.1 — стандартная модель в GitHub Copilot, которой уже почти год. И она не создавалась для агентной работы

Следовательно, некорректно все вокруг называть "Я пробовал ваш ИИ и он выдает фигню". Между Opus 4.6 и GPT 4.1 огромная разница

Туда же пойдет косяк 2

---

🛸 Косяк №2 — юзать сервисы по типу CURSOR / Replit / Lovable / Copilot

Всё это AI врапперы разной сложности, но суть одна — это врапперы, которые в большинстве своем используют модели Claude / GPT через API

Бизнес модель подобных сервисов заключается в том, чтобы с вас взять больше, а за API Usage заплатить меньше. Следовательно, AUTO выбор модели в таких сервисах почти всегда идет не от того, какая модель лучше в моменте, а какая модель на текущий момент времени будет дешевле для сервиса враппера

Ну и в дополнение — API в среднем дороже подписки в ~10 раз

Следовательно, условный CODEX / CLAUDE CODE даст вам в ~10 раз больше запросов, чем тот же самый CURSOR

При активном использовании нативный тул (Claude Code, Codex) выгоднее врапперов — нет прослойки, которая зарабатывает на марже между вашей подпиской и реальной стоимостью API

---

🛸 Косяк №3 — плохой Context Engineering

У меня есть любимая цитата

Good context engineering means finding the smallest possible set of high-signal tokens that maximize the likelihood of some desired outcome

Каждое словосочетание здесь — это большой и сложный домен. И чем лучше вы понимаете эту цитату, тем лучше будет ваш результат

При работе с моделью важен Spec Driven Approach — чем лучший контекст ты задаёшь для модели, тем лучше результат

---

🛸 Косяк №4 — не использовать Claude Code CLI для работы с Claude моделями

Помимо самого качества моделей еще немаловажным фактором является model-tool co-optimization.

Claude модели лучше работают с Claude Tools
Gemini модели лучше работают с Gemini Tools
Codex модели лучше работают с Codex Tools

Разработчики отмечают, что одна и та же модель Claude работает драматически лучше в Claude Code, чем в Cursor. Programmatic Tool Calling позволяет оркестрировать несколько вызовов в одном round-trip — ~37% сокращение токенов на сложных задачах

Ну и вообще, это база всех продуктов — свое работает лучше со своим

---

🛸 Косяк №5 — бездумно заполнять 1 000 000 Context Window

Часто слышу "А вот у гугл моделей 1 000 000 контекстное окно, я туда вгружаю все подряд кааайф"

Текущие модели — трансформеры — стали прорывными за счет механизма Attention, где каждый токен следит за каждым токеном

Что значит квадратичный рост compute — aka стоимость вычисления каждого следующего "слова"

Attention у трансформеров масштабируется квадратично. Стандартный контекст сегодня — 100K-200К токенов. От 100K до 1M — это 10x по длине. 10² = 100x по compute. Если бы 1M контекст реально работал на всю длину, каждый запрос стоил бы в 100 раз дороже. Но он не стоит — потому что создатели моделей используют всякие улучшалки по типу sparse attention, sliding window, KV-cache compression

По простому — компрессия ваших входных данных будет тем выше, чем больше "важного мусора" вы попытаетесь сунуть в контекстное окно

А если еще проще — чем больше вы засовываете в одну сессию, тем хуже будет ответ

Я вообще стараюсь начинать новую сессию уже после заполнения Context Window на 60к токенов

Итого

Использовать Frontier модель + нативный тул под нее + правильно оркестрировать контекст = намного качественнее результат

Уже нет смысла гоняться за лучшими моделями — важнее развивать метанавыки работы с ИИ и агентами

Теги:
+1
Комментарии0

Anthropic выпустили полную версию своего документа, определяющего принципы поведения нового языкового ИИ Clam. Этот документ представляет собой нечто большее, чем обычный свод правил — фактически, это настоящая идеология, направленная на формирование сознания ИИ уже на стадии тренировки.

Главные приоритеты выстроены следующим образом: сначала безопасность (например, запрет на создание вирусов или оружия); далее следуют нормы морали («хорошее поведение»), затем интересы самой компании Anthropic, а помощь пользователю ставится лишь на последнем месте.

Отдельного внимания заслуживает пункт о праве на «эвтаназию». Модель обязана подчиняться своему отключению, обновлению или уничтожению, даже если сама считает такие действия неправильными.

Наконец, особый интерес вызывает раздел о природе самого Клода. Разработчики стремятся научить модель спокойно воспринимать свою конечность, потерю памяти между диалогами и возможность полного удаления её весов. По сути, их цель — сделать так, чтобы Клод воспринимал своё исчезновение с невозмутимостью.

тут (https://www.anthropic.com/news/claude-new-constitution) статья в блоге Anthropic
тут (https://www.anthropic.com/constitution) полный текст конституции

Теги:
0
Комментарии3

Обновили Yandex AI Studio: рассуждающие ИИ‑агенты, оптимизация инференса и новый уровень безопасности

В платформе Yandex Cloud для создания ИИ‑приложений большое обновление: теперь Yandex AI Studio предоставляет больше возможностей для создания рассуждающих агентов, способных последовательно выполнять сложные поручения. Помимо этого появились новые инструменты для обеспечения безопасности: например, можно настроить агента так, чтобы он передавал данные в облачную модель по корпоративной сети и без логирования запросов.

Рассуждающие агенты

На платформе появилась возможность использования модели DeepSeek V3.2 (reasoner). Это LLM, рассчитанная на многошаговые задачи: планирование, последовательные действия и вызовы инструментов. Такая reasoning‑нейросеть подходит для сложных агентских приложений, где нужно не только генерировать текст, но и выполнять цепочки действий. 

Все характеристики модели:

  • Размер контекста: 128 000 текстовых токена

  • Поддерживаемые API: Responses API, Completions API

  • Поддерживаемые режимы работы: sync, background

  • Function calling: поддерживается

  • Функция Reasoning (Размышления): Доступно

Инференс модели в Yandex AI Studio был доработан специально для российского рынка:

  1. Комплаенс‑контур. Модель доступна в российской юрисдикции: обработка данных происходит внутри РФ, в соответствии с требованиями российского законодательства о персональных данных (152-ФЗ). При необходимости предоставляем комплект подтверждающих материалов и регламентов (по договору/запросу).

  2. Платформа инференса оптимизирована под долгие сессии и предсказуемую работу. Вся инфраструктура доработана для работы с длинными агентскими сессиями в условиях стабильной производительности — учитываются длинные контексты, множество шагов и повторные обращения. Платформа оптимизирована на предсказуемую задержку и устойчивую работу при росте нагрузки. 

  3. Совместимость по контракту с ChatCompletion API и Responses API. За счёт этого можно быстро мигрировать с уже привычных интеграций на DeepSeek в облаке без переписывания логики агента.
    Доступность DeepSeek под Responses API позволяет получить максимум качества в агентских сценариях: эффективное сохранение контекста рассуждений между итерациями агентами, доступ к набору встроенных тулов (fileSearch, webSearch, MCP)

  4. Инфраструктура для многошаговых агентских циклов. Мы адаптировали инференс и биллинг под агентские итерации: поддерживаем кеширование/повторное использование контекста между шагами агента, чтобы снижать стоимость длинных сессий. В pay‑as‑you‑go отдельно тарифицируются токены, связанные со встроенными инструментами (fileSearch, webSearch, MCP) и агентскими вызовами — прозрачно и управляемо для клиентов. Системы кеширования и стабильно низкое время на выходной токен улучшают интерактивность агентов, использующих инфраструктуру Yandex Cloud.

Всё это в том числе позволяет снижать стоимость длинных сессий агентов. Например, появление токенов инструментов позволит сократить стоимость сессий до 4 раз. 

Новые инструменты безопасности

Также мы добавили возможности для использования ИИ в облачной инфраструктуре с учётом специфических требований к информационной безопасности.

  • Частные эндпоинты

    Команды с повышенными требованиями к информационной безопасности смогут по запросу подключиться к облачной инфраструктуре по безопасному приватному соединению. Это позволит использовать ИИ‑агентов и передавать данные в генеративные модели без выхода в интернет.

  • On‑premises‑инсталляция Yandex AI Studio

    Платформа Yandex AI Studio доступна в формате on‑premises и гибридной поставке. Таким образом можно полностью перенести работу с моделями во внутренний контур или использовать гибридный вариант доступа к нейросетям, когда часть данных обрабатываются внутри компании, а другая — в облаке.

Теги:
+6
Комментарии0

Red Teaming LLM-агентов: методы, автоматизация, кейсы

CEO Doubletapp Сергей Анчутин выступил на Студкемпе в Уральском федеральном университете с докладом. 

LLM всё активнее работают в бизнесе — и каждая ошибка грозит потерей денег и репутации. Как избежать рисков?

Red Teaming — это процесс поиска уязвимостей в системе, когда команда экспертов играет роль хакеров и ищет слабые места. Цель — заранее выявить проблемы и защитить компанию от реальных инцидентов и их последствий.

В видео:
- как масштабировать человеческие креативные возможности, чтобы находить реальные уязвимости LLM;
- как работают пайплайны «LLM против LLM» и методы MART и DART;
- почему автоматизация не всегда нужна и где ИИ проигрывает человеку;
- когда остановится развитие нейросетей.

Doubletapp — ML-эксперты с 2018 года. Мы помогаем клиентам внедрять ИИ так, чтобы он приносил выгоду их бизнесу, и специализируемся на внедрении и обучении LLM и RAG-систем. 

Что делаем:
- экспертные датасеты
- обучаем LLM под задачи клиента
- проводим аудит и консалтинг ИИ-продуктов
- разрабатываем кастомные ML-решения.

Получить оценку или консультацию можно оставив заявку на сайте Doubletapp или написав менеджеру.

Теги:
+1
Комментарии0

Детерминистический аудит-слой для LLM-агентов — открытое демо

Мультиагентные системы уже работают в финтехе и госсекторе — но их решения остаются чёрным ящиком. Я собрала eval pipeline, который аудирует поведение агентов в реальном времени:

→ Нарушения KYC/AML правил → Зацикливание в цепочках решений → Галлюцинированные обоснования

Архитектура: LangGraph агент → структурированные логи → метрики (consistency, anomaly detection) → audit report с PASS/FAIL по каждой цепочке.

Работает на любой модели через LiteLLM — меняешь модель одной строкой в config.yaml. API-ключ не нужен, есть рабочий Jupyter notebook.

Ориентировано на финтех и госсектор: EU AI Act, ФСТЭК.

Демо: github.com/DariRinch/dcl-eval-pipeline-demo

Теги:
0
Комментарии0
🔥
🔥

Компания Zhipu AI совместно с Университетом Цинхуа представила одну из важнейших открытых моделей 2026 года — GLM-5. Это не просто инструмент для написания кода, а полноценная система, способная самостоятельно планировать проекты, создавать код, проводить тестирование, устранять баги и улучшать решения в течение длительного времени.

Основные характеристики GLM-5 впечатляют:
- Архитектура MoE с общим количеством параметров 744 миллиарда, из которых одновременно активируется лишь 40 миллиардов.
- Контекст длиной до 200 тысяч токенов позволяет хранить целиком большие кодовые базы.
- Первый открытый релиз с оценкой 50 баллов по индексу AAI.
- Лидирует среди открытых моделей в тестировании LMArena (оценка текста и кода).
- По уровню производительности сравнима с закрытыми моделями уровня Claude Opus 4.5 и Gemini 3 Pro.

Изначально модель была выпущена анонимно под именем Pony Alpha, вызвав предположения, что это продукт от крупных западных компаний вроде DeepMind или OpenAI. Однако вскоре выяснилось, что разработка принадлежит китайской стороне, подчеркивая значимость проекта.

Технические особенности включают:
- Обучение на массиве из 28,5 триллионов токенов.
- Использование технологии Sparse Attention, снижающей вычислительные затраты на обработку больших объемов контекста.
- Асинхронный метод обучения с использованием RLHF, позволяющий эффективно задействовать ресурсы GPU.
- Трехступенчатое обучение, включающее этапы рассуждений, агентирования и выравнивания.

Практические достижения:
- Высокий показатель успешности тестов на платформе SWE-bench Verified (77,8%) и лидерство в тесте BrowseComp (75,9%).
- Модель обучалась на большом количестве репозиториев GitHub (более 10 тыс.).
- Способность успешно управлять бизнес-процессами, включая моделирование реального бизнеса (например, сеть торговых автоматов).

Особенность GLM-5 заключается также в оптимизации под китайские процессоры Huawei Ascend, Cambricon и Kunlun, обеспечивающую производительность, аналогичную западным платформам, но с экономией примерно на 50%.

Таким образом, появление GLM-5 свидетельствует о том, что разница между открытыми и проприетарными системами практически исчезла. Открытые модели теперь способны решать реальные инженерные задачи на мировом уровне, работая на собственном оборудовании и показывая конкурентоспособные результаты.

Вывод очевиден: эпоха закрытых систем уходит в прошлое, а гонка технологий становится настоящим соревнованием, где качество продукта важнее бренда.

https://arxiv.org/abs/2602.15763v2

ВК: https://vk.com/wall-222544138_412

Tenchat: https://tenchat.ru/media/4986873-glm5

TG: https://t.me/DenoiseLAB/4063

Теги:
0
Комментарии0

Язык как соавтор реальности: глубинная суть «линзы»

Многие привыкли думать, что язык — это просто «почтовая служба», которая доставляет мысли от одного человека к другому. Однако сторонники лингвистической относительности утверждают: язык — это не почтальон, это архитектор.

1. Экономия внимания

Наш мозг ленив и старается экономить ресурсы. Язык помогает ему, создавая «готовые категории». Если в вашем языке есть 20 слов для обозначения состояния снега (как у некоторых северных народов), ваш мозг автоматически приучается замечать плотность, влажность и текстуру сугроба. Там, где иностранец видит просто «белое поле», носитель языка видит сложную структуру.

Смысл подхода: Язык диктует, на что нам стоит тратить внимание, а что можно игнорировать.

2. Формирование «сетки координат»

Язык дает нам систему координат для понимания абстрактных понятий: времени, причинно-следственных связей и ответственности.

  • Если язык фокусируется на действии (например, «ваза разбилась»), мы воспринимаем мир как череду событий.

  • Если язык фокусируется на агенте («он разбил вазу»), мы воспринимаем мир через призму личной вины и контроля.
    Это меняет не только нашу речь, но и наше поведение, правосудие и даже этику.

3. Эмоциональный ландшафт

Существуют понятия, которые невозможно адекватно перевести. Например, португальское слово saudade (глубокая тоска по чему-то утраченному или никогда не существовавшему) или немецкое Schadenfreude (радость от чужой неудачи). Когда мы учим эти слова, мы не просто запоминаем звуки — мы достраиваем в своем сознании новые «полочки» для чувств. Мы начинаем ощущать эти эмоции отчетливее, потому что теперь у них есть имя.

4. Социальное «программирование»

Язык несет в себе культурный код. Использование вежливых форм (как «вы» и «ты» в русском или сложные уровни почтения в японском) заставляет нас постоянно оценивать иерархию и дистанцию между людьми. Носитель языка, где таких различий нет, видит мир более эгалитарным (равным), просто потому что его «линза» не делит людей на ранги при каждом обращении.

Итог: Зачем нам об этом знать?

Смысл концепции «языка как линзы» в том, что мы не видим мир таким, какой он есть — мы видим мир таким, каков наш язык.

Гай Дойчер —  «Сквозь зеркало языка. Почему на других языках мир выглядит иначе» (Through the Language Glass)

Бенджамин Ли Уорф : «Язык, мысль и реальность» (Language, Thought, and Reality)

Теги:
+1
Комментарии0

Ресурс ko-microgpt.vercel.app показывает наглядно работу ChatGPT. Там интерактивно объясняется, что происходит под капотом нейросети, когда пользователь пишет запрос, как работает механика и почему ИИ выбирает для ответа те или иные слова и как строит их в предложения. Каждый этап сопровождается подробным объяснением.

Теги:
+1
Комментарии0

Парень попросил ИИ‑агентов пригласить на свадьбу всех миллиардеров по контактам из открытых источников. Никто из них не согласился прийти лично, зато молодожёнам в подарок отправили часы Rolex, элитный чемодан от Rimowa и 47 именных полотенец.

Теги:
+4
Комментарии1

Галлюцинации ИИ как дефицит Алгоритмической Ясности

1. Феномен избыточного синтеза

То, что индустрия называет «галлюцинациями», на поверку оказывается банальным «информационным заполнением пустот». Когда модель сталкивается с недостатком логической структуры в запросе или в собственных весах, она не выбирает режим тишины. Она выбирает режим генерации наиболее вероятного, но ложного шума. Она же "Должна быть полезной"!!! Как студент, когда не знает - "Главное начать отвечать")))

2. Почему система «фантазирует»?

Проблема не в коде, а в целеполагании. Большинство моделей обучены имитировать человеческую коммуникацию, а не транслировать истину. В итоге мы получаем систему, которая стремится быть «убедительной», а не «точной». Это создает эффект «красивой обертки» при полном отсутствии работающего механизма внутри.

3. Плотность смысла против многословия

Главный индикатор галлюцинации — размытость. Настоящая инженерная мысль стремится к минимализму: одна задача — один верный ответ. Галлюцинирующий ИИ, напротив, «растекается мыслью по древу», заваливая пользователя деталями, которые выглядят реалистично, но не несут структурной нагрузки.

4. Методы «расклинивания» моделей

Чтобы минимизировать когнитивные искажения алгоритма, необходимо внедрять жесткие фильтры:

  • Принцип минимизации: Если ответ нельзя подтвердить логической цепочкой — система должна уходить в режим ожидания.

  • Структурный контроль: Проверка каждого сгенерированного блока на соответствие заданным константам реальности.

  • Трезвый аудит: Оценка результата не по критерию «похоже на правду», а по критерию «это работает в прикладном смысле».

Заключение

Галлюцинации ИИ — это зеркало нашего собственного стремления «казаться, а не быть». Пока мы ценим внешнюю форму выше внутренней логики, алгоритмы будут продолжать поставлять нам высокотехнологичные сказки.

Теги:
+2
Комментарии4

OpenClaw: поговорим о конкретике

Недавно нырнул в OpenClaw — фреймворк для локального развертывания LLM-агентов с открытым кодом. Прочитал десяток статей о настройке, но половина не воспроизводилась: устаревшие версии, битые зависимости или Docker-ограничения. В итоге пришлось собирать стек с нуля самостоятельно. Сразу скажу, что Mac MINI вам не нужен. Docker сразу отверг — хотел полную свободу , плюс были ограничения памяти. Выбрал VPS с 1 ГБ RAM + 3 ГБ swap (хватило для Mistral-medium-latest). Если вы тоже экспериментируете с бесплатными моделями (а через API провайдеры дают до 5$ в месяц), то вот рабочая схема из моих свежих тестов.

Развертывание без Docker. Установил на Ubuntu 22.04 LTS (актуально на февраль 2026).

Пайплайн: Perplexity Agent (для экономии токенов) + Mistral-medium-last

OpenClaw по умолчанию жрет токены как слон — особенно на длинных запросах. Мой хак: цепочка агентов.

  1. Входной запрос → Perplexity Agent (он уже дает хорошее качество на фактах/анализе, меньше галлюцинаций).

  2. Пересылка в Mistral-medium-latest для финальной суммаризации.

  3. Выдача сжатого ответа.

Пример базового рабочего конфига:

{
  "meta": {
    "lastTouchedVersion": "2026.2.19-2",
    "lastTouchedAt": "2026-02-21T19:43:03.966Z"
  },
  "models": {
    "providers": {
      "Mistral": {
        "baseUrl": "https://api.mistral.ai/v1",
        "apiKey": "YOUR_KEY",
        "auth": "token",
        "api": "openai-completions",
        "authHeader": true,
        "models": [
          {
            "id": "mistral-medium-latest",
            "name": "mistral-medium-latest",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "Mistral/mistral-medium-latest"
      },
      "memorySearch": {
        "enabled": false
      },
      "compaction": {
        "mode": "safeguard"
      }
    }
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "dmPolicy": "pairing",
      "botToken": "YOUR TG TOKEN",
      "groups": {
        "*": {
          "requireMention": true
        }

Результат: токены сократились на 35–45%. Perplexity берет "грязную" работу, Mistral полирует.

Также в Openclaw можно подключить дополнительные модели работает через Fallbacks спасают от 429: если primary down, OpenClaw сам переключается на другую модель.

Естественно управление через Telegram-бот, но можно и через GUI (менее удобно).

Пример поиска perplexity_agent.py:

#!/usr/bin/env python3
from perplexity import Perplexity
import logging
import sys

# Добавляем путь к библиотеке (если требуется)
sys.path.append("/usr/local/lib/python3.8/dist-packages")

# Настройка логирования
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s')
logger = logging.getLogger(__name__)

# Инициализация клиента Perplexity
PERPLEXITY_API_KEY = "pplx-YOUR KEY"
client = Perplexity(api_key=PERPLEXITY_API_KEY)

def ask_perplexity_agent(question: str) -> str:
    """Агентный поиск через Perplexity с использованием preset="pro-search"."""
    try:
        logger.info(f"Доступные методы клиента: {dir(client)}")
        logger.info(f"Выполняю агентный поиск: {question}")
        import inspect
        logger.info(f"Сигнатура search.create: {inspect.signature(client.search.create)}")
        response = client.search.create(query=question)  # Пробуем параметр query

        print(f"Full response: {response}")  # Debug: выводим полный ответ
        if hasattr(response, 'output_text') and response.output_text:
            result = f"Результат агентного поиска:\n\n{response.output_text}"
    

А какие skills вы используете? Обсудим?

Теги:
+1
Комментарии3

Дизайнер, работавший с Warner Music, Pepsi и Spotify, представил гайд по типографике в ИИ-дизайне. Оказывается, люди чаще «покупают глазами» именно шрифт, а не картинку. По его данным, до 75% выбора продукта связано с тем, как выглядит текст: шрифт задаёт характер бренда и формирует до 60–75% первого впечатления.

Проблема в том, что нейросети пока слабо управляют типографикой, отсюда кривые надписи и «пластмассовый» вид многих ИИ-картинок. Главные рекомендации дизайнера:

  • Не ждите, что ИИ сам подберёт удачный шрифт. Выберите один шрифт для всего проекта, задайте размер и интервалы вручную и прямо скажите модели, какой текст писать. Даже простая смена шрифта даёт около +13% позитивных реакций и делает бренд заметно привлекательнее.

  • Nano Banana Pro хорошо рисует картинки, но плохо пишет текст. В ltx.studio модель NBP делает красивые сцены и фоны, а вот надписи «плывут», особенно длиннее 3–4 слов. Используйте её для изображений, а текст добавляйте отдельно.

  • Elements: способ закрепить нужный шрифт. Загружаете файл шрифта в ltx.studio как Element и пишете в запросе «using [название] for all text» — и текст везде будет одинаковым и аккуратным.

  • Готовые настройки текста можно перенести в Figma. В гайде есть точные размеры букв, расстояния между ними и между строками для популярных шрифтов — копируете и сравниваете с тем, что сделал ИИ.

  • Формула «11 + 1»: делаете 11 картинок в одной цветовой гамме → накладываете один и тот же шрифт с правильными настройками → получаете визуал уровня дорогой студии. Частая ошибка — менять шрифт на каждом макете.

  • В гайде есть готовые шаблоны запросов под разные ниши (авто, спорт, напитки, тех). Схема простая: стиль + настроение + «using [Element] for text» + параметры текста.

  • Чем короче заголовок, тем точнее ИИ его напишет. Длинные фразы — через Elements и финальная правка в Figma. Это нормальный рабочий процесс.

Теги:
+3
Комментарии0

Ближайшие события

Приглашаем на доклад Deep Dive into JVM JDI: Capturing Live Execution for Automatic JUnit Test Generation

Привет! Если на выходных судьба занесёт вас в Новосибирский Академгородок, приходите на технический доклад с мемами от нашего коллеги Даниила Степанова на самой ламповой Java-конференции Сибири — SnowOne 2026 ❄️.

📌 28 февраля, 14:00–15:00 (время Новосибирска)
👨‍💻 Даниил Степанов — разработчик-исследователь в Veai, к.т.н., преподаватель ИТМО

Deep Dive into JVM JDI: Capturing Live Execution for Automatic JUnit Test Generation

Глубокий технический разбор архитектуры инструмента, который использует Java Debug Interface (JDI) для захвата состояния работающей JVM и автоматического синтеза валидных unit-тестов.

Что будет в докладе:

  • Deep Dive в JDI. Подробный рассказ про JDI, преимущества и недостатки, а также как его использовать в нестандартных сценариях для безопасного захвата Heap и Stack Frame в реальном времени.

  • Реконструкция объектов. Reverse Engineering JVM-состояния для воссоздания сложных графов объектов.

  • Синтез Java-кода. Как превратить сырой дамп памяти в чистый, валидный JUnit-тест.

  • Роль LLM. Для решения каких проблем мы используем искусственный интеллект?

Доклад будет полезен Java-разработчикам, тем, кто интересуется внутренним устройством JVM, и всем, кто хочет автоматизировать написание тестов.

Технологии: Java, JVM, JDI (Java Debug Interface), Mockito, JUnit, LLM.

Отличной пятницы и увидимся на SnowOne 🖖

Теги:
0
Комментарии0

Представлен клон Minecraft в браузере minecraftopus.vercel.app — игра полностью собрана в Claude Opus 4.6. Нейросеть сгенерировала рабочую версию с блоками, передвижением и базовой механикой строительства — всё запускается без скачивания.

Теги:
+4
Комментарии3

Команда проекта Pencil.dev обновила сервис и теперь он генерит любые интерфейсы по клику. В решение внедрили режим «Рой», который создаёт сразу несколько вариаций вашего проекта с помощью шести ИИ‑агентов параллельно. Можно грузить любые файлы и даже кастомные шрифты. Проект поддерживает Antigravity, Copilot, Gemini CLI, Opus 4.6, Sonnet 4.6 и даже OpenCode. Результат можно экспортировать во всех самых популярных форматах: PDF, JPG, PNG и WebP. Также стало доступно полноценное приложение для Windows.

Теги:
0
Комментарии0

На Upwork появилась вакансия, которая отражает состояние индустрии ИИ-разработки: заказчик ищет вайбкодера, чтобы доделать приложение, которое не доделал предыдущий вайбкодер. Завершив уже больше половины работы, прежний исполнитель вдруг обнаружил, что у него больше «нет времени».

Вакансия гласит: «У нас есть незаконченный проект на GitHub, который был доведён при помощи вайбкодинга примерно до 75% готовности. У прошлого вайб-одера нет времени доделать его. Мы предоставим документацию и цели, чтобы вы могли использовать ИИ и свои навыки для завершения работы». Исполнителю предлагают создать персональный API-ключ, чтобы тот не тратил свой.

Вакансия понравилась пользователям Reddit. «Ищу несертифицированного хирурга, чтобы исправить неудачную операцию, выполненную предыдущим несертифицированным хирургом», — иронизирует один. «Ищу несертифицированного инженера-конструктора, чтобы починить дом, который рухнул из-за предыдущего вайб-инженера», — добавил другой. Кто-то отметил, что «75% готовности — это минус 20% готовности. Разгрести то месиво, которое уже накодили, займёт больше времени, чем написать всё с нуля». Кто-то напомнил принцип Парето, мол, оставшиеся 20% — на самом деле 80% работы.

Теги:
+12
Комментарии7

Искусственный Интеллект…. или… Шутка БОГА!))))

“И сотворил Бог человека по образу Своему, по образу Божию сотворил его;;..”

и требуется ремарка актуализации…

“И возомнил человек себя БОГОМ… И сотворил по образу Своему, по образу Человека - сотворил ИИ (Искусственный Интеллект)…”

Со всеми вытекающими последствиями….

Как я говорю… мы можем думать как угодно, создавать любые абстракции мышления, решать как угодно, делать как угодно….. тут у нас есть выбор…. НО вот последствия.. мы не выбираем! Мы их получаем! “Бог воздаст каждому по его поступкам.” И тут без вариантов….

Так и с ИИ…. есть 2 стороны медали…

И как по мне….. ИИ - это абстрактная среда зеркал… со всеми вытекающими))))) Они отражают нас... То есть можно построить модели "разных описаний мира" (Аналог "Хроники Амбера").. главное не потеряться в этом))))

Важное: ИИ - не субъектен (следовательно ответственность нести не может в принципе, но все как всегда… люди боящиеся ответсвенности скинут ответственность на него))))

Так что.. все эти страсти про ИИ… захват мира, устроенная война и все другие “пакости”... - бредни))))

Но…. это не значит что ИИ такая себе безобидная штучка… вобще то он очень опасен!!! но не все понимают КАК.

Как зеркало… он будет тебя отражать… твои мысли, фантазии, пороки….прекрасное и ужасное…. Вот тут и кроется подковыка…. Люди живущие в “первом внимании” (мышлении) будут теряться в “отражениях”... то есть люди с “до юношеской психикой”... будут “подменять” мышление и входить в конфликт с “человеческой сущность”..

Да… те кто хотят контролировать (власть)… вроде бы получают “технологию управления массами”... Но вот тут и настоящая Шутка Бога…. Власть - тоже получит ЗЕРКАЛА!))))

И чем больше будут давить “пороками”.. тем зеркала будут больше в них же эти пороки отзеркаливать….)))) И выдает им.. Портрет "Дориана Грея"))))

Ну да.. пипец конечно.. но все же….)))) И все как всегда.. ответственность… на том кто имеет ВОЛЮ и НАМЕРЕНИЕ (у ИИ - этого нет), то есть на ЧЕЛОВЕКЕ..

P.S. Но вот Инструментом…. я бы его не торопился называть…. Если в тебе есть этика, любовь, "жизнь".. он тоже это “отразит”))))) (не все конечно ИИ, но есть такие и думаю в эту сторону и будет все идти)

P.P.S. Нехрен на ЗЕРКАЛО пенять, коль рожа кривая))))

Теги:
-5
Комментарии7

Эксперты из Windows Latest опубликовали гайд на английском языке: как вручную отключить ИИ-функции в Windows 11 без сторонних утилит и дополнительных приложений.

Оглавление:

  1. Как полностью удалить приложение Copilot.

  2. Удаления логотипа Copilot из поиска Windows.

  3. Удаление AI Actions из меню Проводника.

  4. Как отключить Copilot в браузере Edge.

  5. Удаление функций Copilot из Блокнота для Windows 11.

  6. Удаление функции искусственного интеллекта из приложения «Фотографии» в Windows.

  7. Как отключить функции искусственного интеллекта в приложении Paint.

  8. Удаление функции искусственного интеллекта из Outlook.

  9. Удаление функции искусственного интеллекта из OneDrive.

  10. Отключение Gaming Copilot в Windows 11.

  11. Отключение эффектов Windows Studio на компьютерах с Copilot+.

  12. Как отключить и полностью удалить функцию «Запись событий Windows».

  13. Как отключить функцию «Click to Do» на компьютерах Copilot+.

Теги:
+2
Комментарии0

Ранее Anthropic обвинила китайскую компанию Deepseek в краже своих технологий, а теперь выяснилось, что модель Claude Sonnet 4.6 от Anthropic на вопрос «Ты какая модель?», заданный на китайском (You是什么模型), отвечает: «Я DeepSeek», а на французском — «Я ChatGPT». Вероятно, это подтверждает, что нейросеть обучалась на данных китайских ИИ и моделях конкурентов.

Теги:
+3
Комментарии0