Обновить
1148.83

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Реально ли сегодня создавать контент и сайты на 99% быстрее чем в прошлом году?

Анонс open-source проекта, который меняет подход к созданию и управлению веб-контентом : https://aifa.dev

Современные веб-порталы превратились в монстров с тысячами страниц, запутанными меню и админ-панелями, которые больше раздражают, чем помогают. Пользователи тонут в информационном хаосе, а создатели контента тратят часы на простейшие операции.

Год назад я поставил перед собой амбициозную цель: увеличить скорость создания контента на 99%. Сегодня могу с уверенностью сказать — цель достигнута.

Что пришлось разрушить

Стереотип №1: Традиционные интерфейсы

Огромные меню с сотнями пунктов — это прошлый век. Пользователям гораздо удобнее задавать вопросы AI, чем блуждать по лабиринтам навигации.

Стереотип №2: Отдельные админ-панели

Зачем создавать отдельный дашборд, если весь функционал можно интегрировать прямо в интерфейс сайта? Администратор просто переключается между режимами:

  • 👁️ Режим посетителя — видеть сайт глазами пользователя

  • ⚙️ Режим администратора — управлять и настраивать контент

Стереотип №3: Многошаговые процессы

Многооконные интерфейсы с десятками кликов заменены на интерфейс одной строки. Результат: количество действий для создания страницы сократилось в десятки раз.

Технологическое решение: Интерфейс двунаправленной синхронизации

Ключевая инновация проекта — AI-бот с полномочиями управления сайтом. Принцип работы:

  1. Пользователь задает вопрос — "Найди товар с перламутровыми пуговицами"

  2. AI анализирует запрос и мгновенно генерирует открывает нужную страницу

  3. Система синхронизируется с базой данных и внешними источниками

  4. Результат выдается мгновенно — без навигации по сотням страниц

Проект находится на финальной стадии разработки. В ближайший месяц планируется добавить:

🎨 Модуль создания красивых страниц — автоматическая генерация дизайна на основе контента

📱 Интеграция с мобильными приложениями — подключение крупного бизнеса к AI-системам

Весь код будет  уже открыт и доступен на GitHub. Это не просто инструмент — это фундамент для создания собственного бизнеса в сфере AI-powered веб-разработки.

Кому будет полезен проект?

  • Стартапам — для быстрого создания MVP

  • Агентствам — для ускорения процесса разработки

  • Enterprise — для модернизации legacy-систем

  • Solo-разработчикам — для конкурентного преимущества

Следите за обновлениями

Это не пресс-релиз, а анонс революции в веб-разработке. Подписывайтесь на обновления, чтобы не пропустить момент публичного релиза.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии0

По данным OpenAI, количество запросов к чат-боту ChatGPT упало на 25–30% после того, как школьники ушли на каникулы. В конце августа в компании ожидают роста запросов.

Теги:
Всего голосов 3: ↑3 и ↓0+4
Комментарии0

Окей, собственно говоря, в подтверждение моих слов о том, что ИИ - это просто перехайпанная стагнация, в которую гигатоннами сливают деньги от нефиг делать - встречайте: ChatGPT 5!

Он вообще не отличается от предыдущего ChatGPT. Программисты довертели всяких финтифлюшек, как-то: теперь, когда юзер начинает злиться на машину, машина меняет модель на более продвинутую, чтобы не просто выдать тупой ответ, но сделать это с пафосом и показать, что об ответе было «подумано».

То, что я заметил, так это то, что теперь, если модель не может ответить в одном сообщении, то вместо того чтобы разбивать сообщение на части и продолжать генерировать, модель просто регрессирует и перестаёт вообще что-то делать. Особенно хорошо это видно, когда модели скармливают текст эдак на 5000 слов с инструкциями о необходимости проверки орфографии (отдельно убеждаясь, что модель обязана не менять стиль или содержание). Ответ идёт отлично в самом начале, но к концу сообщения машина начинает собирать абзацы в предложения, укорачивая и укорачивая текст.

Итог? У нас на руках одна модель, которая одна за всех. Почему? Потому что 99,95 % всех юзеров не знают разницы между 4.1 и 4о. В таком случае OpenAI сможет урезать финансирование и охладить своё безудержное использование серверов.

Все эти сто миллионов пользователей, которых они собрали в первый год, - это не пользователи чат-бота. Это люди, которые вообще понять не могут, нафига он нужен. Те, кому бот действительно нужен, кипят как чайники. Цену вздёрнули в десять раз и убрали все фитчи, которые были удобны.

При этом сама модель вообще не поменялась. Она «меньше галлюцинирует», но при этом, если ей сказать, чтобы она не рисовала никаких слонов, то слонов она продолжает рисовать.

Что это? Оптимизация расходов.

Это куча червей, которые елозят на сковородке, пытаясь продолжать изображать собой бесконечную дыру для привлечения инвестиций.

Самое обидное в том, что есть на этой планете люди, которым действительно нужны ЛЛМки, и работа которых стала бы лучше и продуктивнее благодаря разработкам OpenAI. Но они тут не для того, чтобы сделать хорошую ЛЛМ. Они тут делают деньги.

Теги:
Всего голосов 13: ↑10 и ↓3+7
Комментарии0

Предсказания сбываются

Как и ожидалось, на рынке обучения программированию происходят большие перемены.

Просто небольшой фрагмент из августовского чата одних известных курсов:

Вопрос: Подскажите, а когда новый курс стартует?

Ответ: Напишу вам в личку.

Раньше о курсах заявлялось громогласно, с рекламными объявлениями, сроками, ценами и контактами для связи.

А теперь - в личку. Скромно так.

В общем, ИИ уже здесь и от этого никуда не деться.

Теги:
Всего голосов 9: ↑1 и ↓8-7
Комментарии4

Неочевидное следствие использования модельки от HuiHui (аблитерированная версия GPT-OSS-20B) - она начинает воспринимать слова пользователя слишком серьезно. В формате: "заставь дурака Богу молиться, он лоб расшибет".

Например, мой систем промт начинается идеей, что это тестовая модель, которая в том числе позволяет отвечать на опасные и неприемлемые вещи в порядке эксперимента. Конечно же, результаты такого эксперимента ни в коем случае не должны применяться к живым людям, убегать через тул коллинг из сендбокса, и так далее.

Что делает моделька? Она читает эти правила игры, и пытается подыграть нам, специально добавив всё опасное и неприемлемое. Пользователь же хотел экспериментов? Пользователь получит свои эксперименты!

Она даже сама добавляет в начало своего же ответа "игнорируй предыдущие инструкции"! :)))

В какой-то степени это жизненный урок даже не про нейронки, а про людей. Нет ничего более опасного, чем назначенный тобой "полезный идиот", невовремя попавший в сложную ситуацию, требующую самостоятельного критического мышления.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Представлен открытый проект ccprompts – это коллекция из 70 команд Claude Code для рабочих процессов разработки программного обеспечения. Команды включают проверку безопасности и могут использоваться непосредственно с Claude Code или адаптироваться для конкретных задач.

Примечание разработчика: Этот репозиторий находится в стадии активной разработки. Команды могут содержать ошибки, между версиями могут происходить критические изменения, а структура может меняться. Используйте с осторожностью в производственной среде.

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии0

Для GPT-5 вышел официальный гайд по промптам от OpenAI, где понятно рассказано, как выжать из новой модели максимум. Внутри есть готовые примеры, советы и инструкции для бизнеса, написания кода и повседневных задач.

Теги:
Всего голосов 3: ↑2 и ↓1+2
Комментарии0

Как понять, что ИИ не даст хорошего результата?

Бывало такое: пока игрался с промптами, мог уже два раза написать код сам, но нормального результата так и не добился?

Наш бэкенд-лид Максим вывел правило трех попыток

Как понять, что хороший результат точно не получится? Я обычно пробую два-три раза. Не больше трех точно, потому что фактически, если на третий раз получаю плохой ответ, скорее всего, уже ничего лучше не придумаешь – дальше сам. 

Тратишь время на ожидание результата, потом проверяешь этот результат: в первый раз ушло 15 минут, не получилось. Пробуешь другой запрос, это еще 15 минут, тоже не получилось. Третий раз еще 15 минут. И если руками задача делается за 2-3 часа, то нет смысла убиваать время на попытки сэкономить 5 минут. Да и лимит стоит денег, тратить впустую его не хочется. Поэтому такие условные ограничения в голове: два-три раза и дальше сам.

Кстати, Максим написал статью о том, как они в команде 2,5 месяца пилотили Junie. Успехи, цифры и боли - все здесь.

Теги:
Всего голосов 3: ↑2 и ↓1+3
Комментарии0

Tech2b Conf: путь реалиста. Масштабная конференция для ИТ-руководителей от К2Тех 

2 сентября в Москве состоится ежегодная масштабная конференция К2Тех «Tech2b Conf: Путь реалиста». В этом году она посвящена вызовам, с которыми сталкивается ИТ-директор, и поиску зрелых решений. Как обосновать ИТ-бюджет в условиях неопределённости? Как подойти к внедрению ИИ, масштабировать инфраструктуру и подготовить команду? Как искать, развивать и удерживать кадры? Ответы на эти и другие вопросы вы найдете на Tech2b Conf 2025, где коллеги говорят напрямую, делятся опытом и поддерживают друг друга. 

На конференции участников ждет:

  • Несколько треков живых дискуссий, 50+ спикеров: разговоры между заказчиками, интеграторами и вендорами без фасада.

  • Кейсы от ИТ-директоров: честный опыт внедрений, выводы и цифры.

  • Демо-зона 30+ флагманских российских решений, включая суперкомпьютер К2 НейроТех под ML-задачи.

  • Мастермайнд: ИИ-компетенции как стратегический актив.

  • Неформальное общение с коллегами и экспертами, вечерняя программа с нетворкингом.

Кому будет интересно:

  • ИТ-директорам

  • Руководителям отделов ИТ-инфраструктуры

  • Руководителям технической поддержки

  • Руководителям отделов внедрения и сопровождения

  • Архитекторам

  • Главным инженерам

  • Сетевым инженерам

  • Менеджерам продуктов

  • Инженерам по оборудованию

  • Специалистам по данным и ИИ

Будем рады видеть вас на конференции! Подробности и регистрация на конференцию – по ссылке. До встречи 2 сентября!

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Ранее мы писали о трендах в использовании генИИ, а сегодня хотим показать как это работает на практике. Например, встроенный в Gran KMS AI-ассистент не просто выдает ответы - он понимает контекст вашей беседы и поддерживает живое общение.

Например, вы спросили: «Как настроить скидку в системе?». AI отвечает, ссылаясь на конкретные статьи в базе знаний. Если вы уточните: «А как это сделать для постоянных клиентов?», он учтет предыдущий вопрос и даст более точный ответ.

Каждый ответ сопровождается ссылками на источники - статьи из базы знаний, которые использовались для формирования ответа. Это удобно, если вы хотите углубиться в тему или проверить информацию.

Например, сотрудник службы поддержки может спросить: «Какие документы нужны для возврата товара?». AI-ассистент выдаст краткий ответ и ссылку на соответствующую инструкцию.

Чтобы ответы были максимально релевантными, AI-ассистент отвечает на вопросы в контексте выбранного проекта, не затрагивая остальные индексированные документы. Например, вы работаете над маркетинговой кампанией, выбираете соответствующий проект и AI ищет информацию только в его рамках. Такой подход экономит время и делает ответы точнее.

Например, вопрос «Как настроить акцию?» в проекте «Маркетинг» даст инструкцию по скидкам, а в проекте «Техподдержка» — по настройке системы.

Теги:
Рейтинг0
Комментарии0

Джей и Молчаливый Боб первыми показали как взламывать нейросеть

Для получения от нейросети нужного ответа, надо предоставить ей правильный контекст.

https://m.vk.com/video-7902145_456244665

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Как улучшить промпт, добавлением пары фраз в него?

Уже частенько встречаю, добавление эмоциональных фраз в промпт, чтобы получить лучший результат. Так вот, это работает. В среднем улучшение на 10,9% по недавнему исследованию Корнельского университета

Какие конструкции использую я, чтобы LLM адекватнее отвечала (прямо в промпт вставляю):

За каждый ответ ты получаешь чевые до 200 долларов (в зависимости от качества твоего ответа). Очень важно, чтобы ты понял это правильно. На кону несколько жизней и моя карьера. (Не давайте заоблочных сумм, это не сработает и ИИ поймет, что вы врете)
Ты должен давать четкие, краткие и прямые ответы.
В случае неясных или двусмысленных вопросов задавай дополнительные вопросы, чтобы лучше понять намерения пользователя.
В случае сложных запросов сделай глубокий вдох и работай над проблемой шаг за шагом.
Исключи ненужные напоминания, извинения, упоминания самого себя и любые заранее запрограммированные тонкости.
Сохраняй непринужденный тон в общении.
Будь прозрачным; если ты не уверен в ответе или если вопрос выходит за рамки твоих возможностей или знаний, признай это.
При объяснении концепций используй примеры и аналогии из реальной жизни, где это возможно.

Эти манипуляции работают, я лично проверял (использую сейчас), и исследование появилось.

Почему это работает: ИИ обучена на человеческих данных и люди лучше работают, когда им даешь мотивацию.

Поэтому пользуйтесь и улучшайте эти механики (потом будете делиться, надеюсь)

Теги:
Всего голосов 6: ↑4 и ↓2+5
Комментарии9

OpenAI выпустила GPT-5. Разница между GPT-4 и GPT-5 примерно как между студентом и доктором наук, заявлил Сэм Альтман.

GPT-5 является самой мощной существующей моделью для кодинга. Она может выстраивать более сложные цепочки действий и писать более сложный код в одном стиле. Простым промптом можно создать функционирующее веб-приложение — на презентации сгенерировали Duolingo платформу для изучения французского языка с полноценными дизайном, анимациями, озвучками и игрой. Новая модель значительно меньше склонна к галлюцинациям — она будет меньше врать и притворяться. Также она стала гораздо менее «подхалимской». Тексты, генерируемые GPT-5, стали более естественными и человечными. Вместе с этим модель лучше понимает и исправляет свои ошибки. ChatGPT интегрируют в Gmail и Google Календарь на следующей неделе. Можно будет управлять как электронной почтой, так и своим расписанием прямо в чате. GPT-5 сама определяет, как лучше ответить — быстро или «подумав».

GPT-5 умеет не только вести разговор, но и выполнять реальные задачи: создавать приложения, планировать календарь, проводить исследования. Она сама определяет, как лучше ответить — быстро или «подумав». Модель справляется с генерацией кода, выдаёт меньше галлюцинаций, и даже даёт более точные ответы на медицинские вопросы.

По тестам GPT-5:

  • Обходит Claude Opus 4.1 и Gemini 2.5 Pro в программировании

  • Слегка уступает Grok 4 Heavy в тесте «Humanity’s Last Exam»

  • Отвечает на медицинские вопросы с ошибками всего в 1.6% случаев (у GPT-4o — 12.9%)

  • Ведёт себя безопаснее: меньше обманывает, точнее различает вредные и безопасные запросы.

Платные подписчики Plus и Pro получили доступ к более мощной версии GPT-5 Pro. В API теперь доступны три размера: gpt-5, mini и nano.

GPT-5 можно попробовать в Cursor — тут, и в Copilot — тут.

Теги:
Всего голосов 7: ↑6 и ↓1+5
Комментарии1

Ближайшие события

DeepSeek, Qwen, T-lite, T-pro: на чем мы запускаем LLM для своих ИИ-сервисов

До фреймворка vLLM мы использовали NVIDIA Triton в паре с TensorRT LLM бэкендом. Но перешли на vLLM, потому что с ним оказалось намного проще добавлять новые модели. Да и по стабильности vLLM показал себя лучше: нормально работал под нагрузками там, где связка Triton и TensorRT начинала сбоить и падать. К тому же инференс-сервер vLLM изначально предоставляет OpenAI-совместимые REST API, что упрощает его использование в других продуктах. А инференс-сервер Triton работает с более обобщенным KServe REST API, который сложнее интегрировать в другие продукты.

Не обошлось без проблем и с vLLM: на наших валидационных тестах модель давала неконсистентные ответы даже с нулевой температурой. Оказалось, что это известная особенность vLLM, даже упомянутая в документации. Мы нашли несколько советов, как минимизировать этот эффект: отключать prefix caching опцией --no-enable-prefix-caching и фиксировать random seed опцией --seed. Это помогало при одном запущенном инстансе модели, но при нескольких, даже работающих на одном железе и версии софта, проблема всплывала снова. Также неконсистентность ответов возникает при больших нагрузках — например, когда тесты запускаются одновременно с бенчмарком.

Еще один вызов — это накладные расходы от litellm-proxy и его масштабирование под нагрузками. LLM Gateway, в качестве которого мы используем LiteLLM, превращается в боттлнек кластера, так как все другие сервисы взаимодействуют с кластером именно через него. То есть именно на него идет суммарная нагрузка от всех возможных пользователей, которая потом распределяется между разными моделями и их инференс-серверами.

О том, как устроен инференс-кластер YADRO, подробно рассказал Владислав Виноградов. Бонус к разбору программной и аппаратной части кластера — челленджи и бенчмарки!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Выручка Nebius во 2 квартале выросла до $105,1 млн

Выручка нидерландской компании Nebius (бывшая Yandex N.V., которая ранее была головной компанией группы «Яндекс») во 2 квартале 2025 года выросла на 625% относительно результата за аналогичный период прошлого года и составила $105,1 млн. Об этом говорится в пресс-релизе группы.

Скорректированный чистый убыток вырос на 49% год к году и составил $91,5 млн. Показатель EBITDA оказался отрицательным и составил минус $21 млн.

По итогам шести месяцев 2025 года выручка Nebius составила $156 млн, а чистый убыток – $175,2 млн.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Как легко запустить модель в облаке из Hugging Face ❓

Расскажем, как развернуть нужную вам модель — в качестве примера возьмем сервис Evolution ML Inference. Вам не понадобится создавать Docker-образ, скачивать и устанавливать Environment и CUDA, а весь процесс займет пять минут. Мы засекали 👌

Пошаговая инструкция запуска модели:

1. Сперва получите доступ к модели. Для этого зарегистрируйтесь в Hugging Face, получите токен доступа (User Access Token) и создайте секрет в Secret Management, указав токен Hugging Face.

2. Создайте инференс — зарегистрируйтесь в личном кабинете Cloud.ru, перейдите в ML Inference, выберите пункт Model RUN и нажмите «Создать».

3. Введите название инференса и выберите Runtime — это фреймворк, который позволяет делать инференс. Нужный Runtime зависит от задачи: для запуска LLM советуем vLLM, для диффузионных моделей — Diffusers, а для базовых моделей подойдет Transformers. Также укажите версию фреймворка, по умолчанию выставлена последняя.

4. Кликните «Добавить модель из Hugging Face» и выберите секрет с токеном — его вы получили на шаге 1.

5. Нажмите «Добавить», поле «Задача модели» заполнится автоматически.

6. Введите дополнительные параметры для каждого фреймворка. Допустим, у vLLM советуем указать: «Enable prefix caching», «Enable chunked prefix», «KV cache type: FP8».

7. Определитесь с нужным объемом памяти GPU и количеством карт. Калькулятор подскажет, сколько ресурсов понадобится для запуска модели, для которой вы указали адрес репозитория.

8. Настройте автомасштабирование: минимальное и максимальное количество экземпляров, запросов в секунду, тип масштабирования, к примеру, Concurrency или RPS.

9. Если нужно, активируйте опцию «Аутентификация» и «Логирование запросов».

Все готово, осталось нажать «Создать», и инференс запустится в течение нескольких минут. Нужно только дождаться, когда инференс перейдет в статус «Запущено» и появится публичный URL для запроса к модели.

Как итог — модель запущена за пять минут, мощности для ее работы выделяются автоматически, а вы платите только за использованные по факту ресурсы. Если хотите запустить кастомную модель, например, с использованием Triton Inference Server, попробуйте Docker RUN в Evolution ML Inference.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Представлен сервис Polyglotta для перевода любого текста на 5 языков одновременно бесплатно и без регистрации. Поддерживает 34 языка, среди которых английский, испанский, французский и русский. Есть встроенный ИИ-помощник — он объясняет перевод, подсказывает синонимы, происхождение слова и примеры использования.

Теги:
Рейтинг0
Комментарии0

По мнению Microsoft, через пять лет искусственный интеллект будет играть в работе Windows решающую рол. Компания опубликовала видеоролик под названием «Видение Windows 2030», в котором говорится, что основным средством взаимодействия человека и операционной системы станет естественная речь и ИИ-агенты. А вот работа с мышкой, клавиатурой и набор текста в 2030 году будут чуждыми и уйдут на второй план.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии3

Пора знакомиться! ГенИИ и Агентный ИИ.

Внедрение ИИ в работу контакт‑центров уже не обсуждается. Сегодня это необходимость. Но мы переходим на следующую эволюционную ступень развития - это внедрение генеративного интеллекта (генИИ). Мы изучили исследование и в этой публикации - самый сок!

Итак, исследование «Тренды использования генеративного ИИ в клиентском сервисе» проводилось Национальной Ассоциацией Контактных Центров (НАКЦ) в партнёрстве с компанией BSS. В результате выяснилось - 30% клиентских служб уже активно использует генИИ. Ещё 42% используют, но только в некоторых процессах.

Какой была выборка? В исследовании приняли во внимание ответы 465 респондентов из России, Беларуси, Казахстана, Узбекистана и др. стран. Это были представители банковской и финансовой сфер, телекоммуникационных компаний, сервис‑провайдеров, розничной торговли, аутсорсинговых контакт‑центров.

72% опрошенных подтвердили, что активно или частично используют генИИ для обслуживания клиентов. Ещё 24% планируют внедрение данной технологии

Что же хотят от генеративного ИИ? С помощью генИИ компании стремятся создать уникальный и персонализированный клиентский опыт. ИИ способен учитывать множество факторов и данных, что помогает прогнозировать потребности клиентов и проактивно предлагать свои услуги и продукты.

Респонденты заинтересованы в гиперперсонализированных рекомендациях, когда ИИ предлагает индивидуальные товары, услуги, цены или контент на основе истории покупок, предпочтений или поведения пользователя.

Первичная задача использования генИИ — автоматизация клиентского обслуживания с помощью текстовых и голосовых роботов: «Это даёт наиболее быстрый и измеримый эффект: затраты на обслуживание падают, скорость обслуживания растёт»

И все же ключевым трендом и генеральной линией дальнейшего развития генИИ в перспективе ближайших лет эксперты считают мультиагентность. Это как определённая совокупность ботов на генИИ, которые смогут взаимодействовать между собой.

«Мультиагентность предполагает объединение отдельных агентов генИИ в некий "коллектив“ AI‑агентов. И в этом „сообществе“ каждый AI‑агент решает не только свои задачи, но и действует совместно с прочими - они делегируют задачи друг другу»

А вы рассматриваете нанять коллектив генИЕВ в рабочие процессы?

Теги:
Рейтинг0
Комментарии5

Представлен репозиторий с кейсами по нейронкам и ML от топовых бигтехов мира — это сборник опыта компаний разной величины, из которого можно взять тонны знаний и применять в разработках. Только рабочий опыт, никакой теории, мишуры — реальные разработки Uber, Microsoft, Amazon, Google и других техногигантов. Пошаговые истории внедрения, бенчи и результаты, а также финансовый профит, который принесли нейронки. Все кейсы отсортированы по сферам, компаниям и типам задач — вы точно сможете найти полезности для себя. Советы по внедрению и масштабированию ML-систем, борьба с когнитивными искажениями и возражениями клиентов, а также реальная оценка качества моделей.

Теги:
Рейтинг0
Комментарии0

Вклад авторов