Все потоки
Поиск
Написать публикацию
Обновить
1089.28

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Ранее мы писали о трендах в использовании генИИ, а сегодня хотим показать как это работает на практике. Например, встроенный в Gran KMS AI-ассистент не просто выдает ответы - он понимает контекст вашей беседы и поддерживает живое общение.

Например, вы спросили: «Как настроить скидку в системе?». AI отвечает, ссылаясь на конкретные статьи в базе знаний. Если вы уточните: «А как это сделать для постоянных клиентов?», он учтет предыдущий вопрос и даст более точный ответ.

Каждый ответ сопровождается ссылками на источники - статьи из базы знаний, которые использовались для формирования ответа. Это удобно, если вы хотите углубиться в тему или проверить информацию.

Например, сотрудник службы поддержки может спросить: «Какие документы нужны для возврата товара?». AI-ассистент выдаст краткий ответ и ссылку на соответствующую инструкцию.

Чтобы ответы были максимально релевантными, AI-ассистент отвечает на вопросы в контексте выбранного проекта, не затрагивая остальные индексированные документы. Например, вы работаете над маркетинговой кампанией, выбираете соответствующий проект и AI ищет информацию только в его рамках. Такой подход экономит время и делает ответы точнее.

Например, вопрос «Как настроить акцию?» в проекте «Маркетинг» даст инструкцию по скидкам, а в проекте «Техподдержка» — по настройке системы.

Теги:
Рейтинг0
Комментарии0

Джей и Молчаливый Боб первыми показали как взламывать нейросеть

Для получения от нейросети нужного ответа, надо предоставить ей правильный контекст.

https://m.vk.com/video-7902145_456244665

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Как улучшить промпт, добавлением пары фраз в него?

Уже частенько встречаю, добавление эмоциональных фраз в промпт, чтобы получить лучший результат. Так вот, это работает. В среднем улучшение на 10,9% по недавнему исследованию Корнельского университета

Какие конструкции использую я, чтобы LLM адекватнее отвечала (прямо в промпт вставляю):

За каждый ответ ты получаешь чевые до 200 долларов (в зависимости от качества твоего ответа). Очень важно, чтобы ты понял это правильно. На кону несколько жизней и моя карьера. (Не давайте заоблочных сумм, это не сработает и ИИ поймет, что вы врете)
Ты должен давать четкие, краткие и прямые ответы.
В случае неясных или двусмысленных вопросов задавай дополнительные вопросы, чтобы лучше понять намерения пользователя.
В случае сложных запросов сделай глубокий вдох и работай над проблемой шаг за шагом.
Исключи ненужные напоминания, извинения, упоминания самого себя и любые заранее запрограммированные тонкости.
Сохраняй непринужденный тон в общении.
Будь прозрачным; если ты не уверен в ответе или если вопрос выходит за рамки твоих возможностей или знаний, признай это.
При объяснении концепций используй примеры и аналогии из реальной жизни, где это возможно.

Эти манипуляции работают, я лично проверял (использую сейчас), и исследование появилось.

Почему это работает: ИИ обучена на человеческих данных и люди лучше работают, когда им даешь мотивацию.

Поэтому пользуйтесь и улучшайте эти механики (потом будете делиться, надеюсь)

Теги:
Всего голосов 6: ↑4 и ↓2+5
Комментарии9

OpenAI выпустила GPT-5. Разница между GPT-4 и GPT-5 примерно как между студентом и доктором наук, заявлил Сэм Альтман.

GPT-5 является самой мощной существующей моделью для кодинга. Она может выстраивать более сложные цепочки действий и писать более сложный код в одном стиле. Простым промптом можно создать функционирующее веб-приложение — на презентации сгенерировали Duolingo платформу для изучения французского языка с полноценными дизайном, анимациями, озвучками и игрой. Новая модель значительно меньше склонна к галлюцинациям — она будет меньше врать и притворяться. Также она стала гораздо менее «подхалимской». Тексты, генерируемые GPT-5, стали более естественными и человечными. Вместе с этим модель лучше понимает и исправляет свои ошибки. ChatGPT интегрируют в Gmail и Google Календарь на следующей неделе. Можно будет управлять как электронной почтой, так и своим расписанием прямо в чате. GPT-5 сама определяет, как лучше ответить — быстро или «подумав».

GPT-5 умеет не только вести разговор, но и выполнять реальные задачи: создавать приложения, планировать календарь, проводить исследования. Она сама определяет, как лучше ответить — быстро или «подумав». Модель справляется с генерацией кода, выдаёт меньше галлюцинаций, и даже даёт более точные ответы на медицинские вопросы.

По тестам GPT-5:

  • Обходит Claude Opus 4.1 и Gemini 2.5 Pro в программировании

  • Слегка уступает Grok 4 Heavy в тесте «Humanity’s Last Exam»

  • Отвечает на медицинские вопросы с ошибками всего в 1.6% случаев (у GPT-4o — 12.9%)

  • Ведёт себя безопаснее: меньше обманывает, точнее различает вредные и безопасные запросы.

Платные подписчики Plus и Pro получили доступ к более мощной версии GPT-5 Pro. В API теперь доступны три размера: gpt-5, mini и nano.

GPT-5 можно попробовать в Cursor — тут, и в Copilot — тут.

Теги:
Всего голосов 7: ↑6 и ↓1+5
Комментарии1

DeepSeek, Qwen, T-lite, T-pro: на чем мы запускаем LLM для своих ИИ-сервисов

До фреймворка vLLM мы использовали NVIDIA Triton в паре с TensorRT LLM бэкендом. Но перешли на vLLM, потому что с ним оказалось намного проще добавлять новые модели. Да и по стабильности vLLM показал себя лучше: нормально работал под нагрузками там, где связка Triton и TensorRT начинала сбоить и падать. К тому же инференс-сервер vLLM изначально предоставляет OpenAI-совместимые REST API, что упрощает его использование в других продуктах. А инференс-сервер Triton работает с более обобщенным KServe REST API, который сложнее интегрировать в другие продукты.

Не обошлось без проблем и с vLLM: на наших валидационных тестах модель давала неконсистентные ответы даже с нулевой температурой. Оказалось, что это известная особенность vLLM, даже упомянутая в документации. Мы нашли несколько советов, как минимизировать этот эффект: отключать prefix caching опцией --no-enable-prefix-caching и фиксировать random seed опцией --seed. Это помогало при одном запущенном инстансе модели, но при нескольких, даже работающих на одном железе и версии софта, проблема всплывала снова. Также неконсистентность ответов возникает при больших нагрузках — например, когда тесты запускаются одновременно с бенчмарком.

Еще один вызов — это накладные расходы от litellm-proxy и его масштабирование под нагрузками. LLM Gateway, в качестве которого мы используем LiteLLM, превращается в боттлнек кластера, так как все другие сервисы взаимодействуют с кластером именно через него. То есть именно на него идет суммарная нагрузка от всех возможных пользователей, которая потом распределяется между разными моделями и их инференс-серверами.

О том, как устроен инференс-кластер YADRO, подробно рассказал Владислав Виноградов. Бонус к разбору программной и аппаратной части кластера — челленджи и бенчмарки!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Выручка Nebius во 2 квартале выросла до $105,1 млн

Выручка нидерландской компании Nebius (бывшая Yandex N.V., которая ранее была головной компанией группы «Яндекс») во 2 квартале 2025 года выросла на 625% относительно результата за аналогичный период прошлого года и составила $105,1 млн. Об этом говорится в пресс-релизе группы.

Скорректированный чистый убыток вырос на 49% год к году и составил $91,5 млн. Показатель EBITDA оказался отрицательным и составил минус $21 млн.

По итогам шести месяцев 2025 года выручка Nebius составила $156 млн, а чистый убыток – $175,2 млн.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Как легко запустить модель в облаке из Hugging Face ❓

Расскажем, как развернуть нужную вам модель — в качестве примера возьмем сервис Evolution ML Inference. Вам не понадобится создавать Docker-образ, скачивать и устанавливать Environment и CUDA, а весь процесс займет пять минут. Мы засекали 👌

Пошаговая инструкция запуска модели:

1. Сперва получите доступ к модели. Для этого зарегистрируйтесь в Hugging Face, получите токен доступа (User Access Token) и создайте секрет в Secret Management, указав токен Hugging Face.

2. Создайте инференс — зарегистрируйтесь в личном кабинете Cloud.ru, перейдите в ML Inference, выберите пункт Model RUN и нажмите «Создать».

3. Введите название инференса и выберите Runtime — это фреймворк, который позволяет делать инференс. Нужный Runtime зависит от задачи: для запуска LLM советуем vLLM, для диффузионных моделей — Diffusers, а для базовых моделей подойдет Transformers. Также укажите версию фреймворка, по умолчанию выставлена последняя.

4. Кликните «Добавить модель из Hugging Face» и выберите секрет с токеном — его вы получили на шаге 1.

5. Нажмите «Добавить», поле «Задача модели» заполнится автоматически.

6. Введите дополнительные параметры для каждого фреймворка. Допустим, у vLLM советуем указать: «Enable prefix caching», «Enable chunked prefix», «KV cache type: FP8».

7. Определитесь с нужным объемом памяти GPU и количеством карт. Калькулятор подскажет, сколько ресурсов понадобится для запуска модели, для которой вы указали адрес репозитория.

8. Настройте автомасштабирование: минимальное и максимальное количество экземпляров, запросов в секунду, тип масштабирования, к примеру, Concurrency или RPS.

9. Если нужно, активируйте опцию «Аутентификация» и «Логирование запросов».

Все готово, осталось нажать «Создать», и инференс запустится в течение нескольких минут. Нужно только дождаться, когда инференс перейдет в статус «Запущено» и появится публичный URL для запроса к модели.

Как итог — модель запущена за пять минут, мощности для ее работы выделяются автоматически, а вы платите только за использованные по факту ресурсы. Если хотите запустить кастомную модель, например, с использованием Triton Inference Server, попробуйте Docker RUN в Evolution ML Inference.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Представлен сервис Polyglotta для перевода любого текста на 5 языков одновременно бесплатно и без регистрации. Поддерживает 34 языка, среди которых английский, испанский, французский и русский. Есть встроенный ИИ-помощник — он объясняет перевод, подсказывает синонимы, происхождение слова и примеры использования.

Теги:
Рейтинг0
Комментарии0

По мнению Microsoft, через пять лет искусственный интеллект будет играть в работе Windows решающую рол. Компания опубликовала видеоролик под названием «Видение Windows 2030», в котором говорится, что основным средством взаимодействия человека и операционной системы станет естественная речь и ИИ-агенты. А вот работа с мышкой, клавиатурой и набор текста в 2030 году будут чуждыми и уйдут на второй план.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии3

Пора знакомиться! ГенИИ и Агентный ИИ.

Внедрение ИИ в работу контакт‑центров уже не обсуждается. Сегодня это необходимость. Но мы переходим на следующую эволюционную ступень развития - это внедрение генеративного интеллекта (генИИ). Мы изучили исследование и в этой публикации - самый сок!

Итак, исследование «Тренды использования генеративного ИИ в клиентском сервисе» проводилось Национальной Ассоциацией Контактных Центров (НАКЦ) в партнёрстве с компанией BSS. В результате выяснилось - 30% клиентских служб уже активно использует генИИ. Ещё 42% используют, но только в некоторых процессах.

Какой была выборка? В исследовании приняли во внимание ответы 465 респондентов из России, Беларуси, Казахстана, Узбекистана и др. стран. Это были представители банковской и финансовой сфер, телекоммуникационных компаний, сервис‑провайдеров, розничной торговли, аутсорсинговых контакт‑центров.

72% опрошенных подтвердили, что активно или частично используют генИИ для обслуживания клиентов. Ещё 24% планируют внедрение данной технологии

Что же хотят от генеративного ИИ? С помощью генИИ компании стремятся создать уникальный и персонализированный клиентский опыт. ИИ способен учитывать множество факторов и данных, что помогает прогнозировать потребности клиентов и проактивно предлагать свои услуги и продукты.

Респонденты заинтересованы в гиперперсонализированных рекомендациях, когда ИИ предлагает индивидуальные товары, услуги, цены или контент на основе истории покупок, предпочтений или поведения пользователя.

Первичная задача использования генИИ — автоматизация клиентского обслуживания с помощью текстовых и голосовых роботов: «Это даёт наиболее быстрый и измеримый эффект: затраты на обслуживание падают, скорость обслуживания растёт»

И все же ключевым трендом и генеральной линией дальнейшего развития генИИ в перспективе ближайших лет эксперты считают мультиагентность. Это как определённая совокупность ботов на генИИ, которые смогут взаимодействовать между собой.

«Мультиагентность предполагает объединение отдельных агентов генИИ в некий "коллектив“ AI‑агентов. И в этом „сообществе“ каждый AI‑агент решает не только свои задачи, но и действует совместно с прочими - они делегируют задачи друг другу»

А вы рассматриваете нанять коллектив генИЕВ в рабочие процессы?

Теги:
Рейтинг0
Комментарии5

Представлен репозиторий с кейсами по нейронкам и ML от топовых бигтехов мира — это сборник опыта компаний разной величины, из которого можно взять тонны знаний и применять в разработках. Только рабочий опыт, никакой теории, мишуры — реальные разработки Uber, Microsoft, Amazon, Google и других техногигантов. Пошаговые истории внедрения, бенчи и результаты, а также финансовый профит, который принесли нейронки. Все кейсы отсортированы по сферам, компаниям и типам задач — вы точно сможете найти полезности для себя. Советы по внедрению и масштабированию ML-систем, борьба с когнитивными искажениями и возражениями клиентов, а также реальная оценка качества моделей.

Теги:
Рейтинг0
Комментарии0

OpenAI выпустили в Open Source две бесплатные модели gpt-oss, которые почти не уступают o3 и o4-mini.

Это самые умные модели, которые вы можете запустить у себя дома — маленькая gpt-oss-20b летает на домашнем ПК. А ещё это первый релиз в опенсорс от OpenAI за 6 лет — последний раз они так выпускали GPT-2.

gpt-oss доступна в двух версиях: с 20 млрд и 120 млрд параметров. Для первой для работы требуется минимум 16 ГБ видеопамяти, а для второй — 80 ГБ.

Теги:
Всего голосов 4: ↑4 и ↓0+5
Комментарии1

Что будем обсуждать и про что рассказывать на GoCloud Tech ☁️

3 сентября, уже почти через месяц, состоится наша вторая технологическая IT-конференция про облака и AI — GoCloud Tech.

Мы запланировали для вас четыре трека:

🤖 AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать

☁️ Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.

📈 Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.

⚙️ Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.

А еще вас ждет:

  • демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;

  • технические воркшопы;

  • нетворкинг, кастомный мерч и afterparty.

Как принять участие:

Подключайтесь к онлайн-трансляции в VK и на Twitch (ссылка придет зарегистрированным участникам в письме) или приходите в Лофт-пространство Goelro в Москве. Собираемся 3 сентября в 10:00, а основную программу начинаем в 11:00. Кстати, ей мы тоже совсем скоро с вами поделимся.

Зарегистрироваться 👈

А пока можно почитать, как прошли наши предыдущие конференции:

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

Ближайшие события

В этот чудный день захотелось рассказать пару занятных историй про ИИ

Талси Габбард занимает должность, которую можно описать как куратора всех разведывательных органов США. Ответственная должность, между прочим. Настолько же ответственно она подошла к задаче оптимизации работы с секретными документами. Ведь оптимизация значит что? Надо использовать ИИ. Она говорит, мол, вот раньше с секретными документами работали вручную, а теперь мы можем использовать ИИ коммерческих компаний для анализа, что именно нужно засекретить, а что нет. Вот и скормила все документы по Кеннеди ИИ…

Что ж, не забудьте скоро спросить у ChatGPT, что он может сказать по поводу убийства Кеннеди, посмотрим, что он скажет (если умные дядьки не успели всё подчистить).

Опуская вопрос необоснованного преклонения перед большими языковыми моделями (они именно языковые, а не божественные, и даже не могут нормально сыграть в шахматы) по анализу документов, имеющих отношение к государственной безопасности, я на всякий случай напоминаю, что информация, которую вы даёте таким нейросетям, является частью их обучения и она может быть запомнена и выдана стороннему человеку, если ранжирование доступа к определённым типам информации не было предусмотрено.

Это большая правовая проблема, что и как именно используют нейросетки при обучении как запоминают информацию и т.д., предоставляют об этом информацию сторонним людям, а также как именно от этого защищаться (в целом защита персональных данных от ИИ).

Ну и кроме того, набивший оскомину спор о том, нарушает ли условный Midjourney интеллектуальные права. Disney и Universal, два колосса Голливуда, объединившись, таки решили дать судебный бой. Основное обвинение – плагиат. Защита ИИ – концепция добросовестного использования (таким образом, к примеру, защищены пародии на известные хиты). Основной вопрос – является ли использование «преобразующим», т.е. добавляет ли оно новое значение или выражение.

Также занятен аргумент, что изображения персонажей в новых образах может наносить (и наносило раннее) ущерб брендам. Это, кстати перекликается с другим интересным спором из сферы Интеллектуальной собственности, пародийные средства индивидуализации товара (напишу пост, обещаю).

Если спросите меня, на какую лошадку ставить, я бы ставил на Midjourney, потому что факт обучения чего-то на примере чужой интеллектуальной собственности вообще ничего не значит, да и преобразующий элемент генерации, по-моему, очевиден. Я почти уверен, что настройки системы не позволяют скопировать чужую ip, и всегда «пародирует» что-то по дефолту, хотя, утверждать, конечно, не могу.

Но многое, как водится, зависит от качества оказанных сторонам юридических услуг.

Подводя подитог размышлениям на эту тему, нельзя забывать про влияние самого пользователя на обучение и результаты генерации. Я это к тому, что вполне может оказаться так, что сами же художники этих уважаемых студий в ту же Midjourney загружали дартов вейдеров, прототипы Pixar и т.д., а потом генерили картинки, выдавая за свои. Вот откуда ИИ знать, что это какая-то внутренняя разработка, и договоримся ли мы до того, что нейронка сама может подать на плагиат?

Теги:
Рейтинг0
Комментарии0

Диалоги с ИИ в Google, локальные модели и немного паранойи⁠⁠

или почему я всё чаще задумываюсь об оффлайн-LLM

Стал смотреть в сторону локального запуска моделей. Не из-за хайпа, а скорее из-за недоверия.
Причина - не сами технологии, а то, как с ними обращаются.

Облако это удобно. Но публично, если не уследил

Недавно в Google начали всплывать реальные диалоги пользователей с Grok и ChatGPT.
Обычные ссылки на чаты, которые кто-то где-то засветил. Google их подхватил - и вот, они уже в выдаче. OpenAI убирали из индекса ~50 000 ссылок на публичные диалог, они подчистили Google, но забыли про Archive.org.
А там всё ещё висят штуки с логинами, ключами, приватными планами.

Анализ показал: из 512 чатов 20% содержали явно конфиденциальную информацию.

Поделился ссылкой? Потерял контроль

Даже если вы делитесь диалогом «только внутри команды» - дальше всё по классике:

  • может попасть в Google

  • сохраниться в Archive

  • быть расшаренной кем угодно

  • остаться в кэше навсегда

Почему вообще об этом думаю

Планирую собрать поделку: связать LLM и Obsidian.
А в Obsidian у меня почти всё личное - от заметок до чувствительных штук.

И вот тут уже важно, чтобы данные не утекали наружу, даже случайно. Поэтому и смотрю в сторону локального inference - без облаков, логов и внешнего API.

🎁 Бонусы

🧮 LocalScore.ai
Сервис, который показывает, какие LLM потянет ваша видеокарта. Удобно, если хотите запускать модель у себя - а не в чьём-то дата-центре.

🔑 ai-keys-leaks.begimher.com
Ищет утёкшие API-ключи от OpenAI, Claude, Gemini и других.
Не факт, что что-то сработает — 99% ключей мёртвые. Но наличие таких баз говорит о многом.

Я не стал параноиком. Но теперь всё, что потенциально приватно — я не пишу в облако.Потому что модель забудет, а интернет - нет.

Если тебе близка тема ИИ, агентных систем и ты хочешь быть в числе тех, кто не просто читает новости, а сам их делает — залетай в мой Telegram-канал debug_leg. 🔗 Ссылка - https://t.me/debug_leg

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии0

⚠️ Рутинные задачи отнимают время

⚠️ Сложности с интеграцией внешних сервисов

⚠️ Неэффективное управление задачами

Как создать собственного AI-агента, который автоматизирует задачи и повысит эффективность работы? Разберем на вебинаре «AI-агент под ключ: от настройки ChatGPT до интеграции с внешними сервисами» 8 августа в 16:00.

Что будет на эфире:

✔️ Введение в Zapier Actions и OpenAPI-интеграцию

✔️ Подключение и настройка схемы API Zapier

✔️ Создание агента: от запроса до выполнения действия

✔️ Постановка задач в Task Manager через агента

✔️ Практика: настройка собственного агента шаг за шагом

✔️ Ответы на вопросы и рекомендации по оптимизации работы с AI

👨‍🎓 Спикер: Кадочников Алексей — опытный фронтенд-разработчик и преподаватель, помогает осваивать AI в кодинге.

👥 Кому будет полезно

— Разработчикам и no-code специалистам

— Продакт-менеджерам и системным аналитикам 

— Техпредпринимателям 

— Всем, кто хочет освоить возможности AI и интеграции с внешними сервисами

👉 Записаться

Теги:
Рейтинг0
Комментарии0

Находим новые игры с помощью ИИ — представлен бесплатный сервис SteamScore, который подскажет всю нужную информацию об игре и выдаст список похожих проектов. Проект считывает все обзоры и выписывает все плюсы и минусы, показывает среднее время прохождения, составляет список игр с похожей атмосферой или геймплеем, показывает самый полезный и самый смешной отзыв.

Теги:
Рейтинг0
Комментарии6

Что такое PRoPE? Рассказывают наши коллеги из лаборатории искусственного интеллекта ИТ-компании "Криптонит"

В системах машинного зрения часто требуется обрабатывать изображения одного объекта с разных камер, учитывая их взаимное расположение и параметры. Традиционный метод Naive raymaps добавляет к пикселям информацию о положении в 3D, но он вычислительно затратен и ограничивает обобщающую способность модели при изменении условий съёмки.

PRoPE (Projective Positional Encoding) предлагает новый подход к кодированию пространственных отношений, улучшая работу нейросетей-трансформеров в задачах обработки изображений с нескольких ракурсов.

Как работает PRoPE? PRoPE — метод относительного позиционного кодирования, интегрирующий параметры камер (внутренние и внешние) в блоки внимания трансформеров.

В отличие от традиционных подходов, кодирующих геометрию на уровне пикселей, PRoPE встраивает её на уровне внимания, что делает модель независимой от глобальной системы координат. Метод учитывает расположение, ориентацию, фокусное расстояние и разрешение камер, что важно для систем с разными характеристиками.

Преимущества PRoPE:

  • улучшенная производительность: PRoPE превосходит другие методы в задачах синтеза, оценки глубины и пространственного распознавания, показывая лучшие метрики (PSNR, LPIPS, SSIM) на датасетах RealEstate10K и Objaverse.

  • гибкость: эффективен при разных параметрах камер или изменении числа входных изображений.

  • совместимость: комбинируется с методами вроде CamRay, повышая точность.

  • масштабируемость: сохраняет преимущества при увеличении ресурсов и размеров моделей (LVSM, CAT3D).

Недостатки PRoPE:

  • сложность реализации: требует модификации блоков внимания, усложняя разработку.

  • ограниченная применимость: преимущества менее заметны при фиксированных однотипных камерах.

Несмотря на некоторые ограничения, PRoPE открывает новые возможности для создания более точных и универсальных моделей компьютерного зрения.

Теги:
Рейтинг0
Комментарии0

10 задач, в которых AI действительно помогает QA-инженеру

Этот пост – саммари пилота нейросетей на реальном проекте. На тесте было несколько моделей: DeepSeek, Qwen, Gemma. 

Вот универсальный список задач по тестированию, с которым все они справляются хорошо:

– анализ логов и stack trace;
– поиск причин неочевидных ошибок в пайплайне;
– генерация SQL-запросов и объяснение незнакомых конструкций (например, JSONB);
– экранирование кавычек в больших XML-фрагментах;
– автоматическая генерация тест-кейсов из BPMN- или XML-схем;
– генерация случайных данных для теста;
– сравнение параметров (включая UTF-8 кодировку) при ошибках интеграции;
– проверка SQL-запросов, XSD (XML) и JSON-схем на соответствие структуре;
– подсказки по фиксам в случае ошибок, связанных с отсутствием логов;
– преобразование описаний ТЗ в чек-листы (но только если текст написан понятно и ТЗ описано подробно, подойдет не для всех и нужно внимательно ревьюить результаты);
– написание сниппетов для postman.

Вывод ожидаем: ИИ все еще не заменяет тестировщика, но ускоряет работу. Главное – не забывать проверять то, что получилось.

💬 А какие кейсы сработали у вас?

Теги:
Рейтинг0
Комментарии0

В США вместо офисных зданий и рабочих помещений начали активно строить дата-центры для ИИ.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0