Как стать автором
Обновить
1071.38

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

Комплексный анализ проблемы массовой безработицы вследствие внедрения ИИ, автоматизации и роботизации

Уровень сложностиСредний
Время на прочтение18 мин
Количество просмотров561

Данная статья посвящена комплексному анализу одной из наиболее актуальных и обсуждаемых проблем XXI века – потенциальной массовой безработице, обусловленной стремительным развитием и повсеместным внедрением технологий искусственного интеллекта (ИИ), автоматизации и роботизации. Понимание масштабов этого вызова, его региональных особенностей и возможных путей смягчения последствий требует системного подхода и обработки значительных объемов информации. Для проведения всестороннего автоматического исследования широкого круга научных публикаций и отчетов ведущих исследовательских центров по Китаю, Южной Корее, США, Японии, а также глобальных исследований, был использован инструмент Manus (https://manus.im/). Настоящий анализ фокусируется на изучении предлагаемых экономических моделей и социальных программ, направленных на предотвращение или минимизацию негативного влияния технологических изменений на занятость, а также на оценке возможных временных горизонтов наступления значительных трансформаций на рынке труда.

Читать далее

Новости

Почему трафик к AI-инструментам для разработки вырос на 75%?

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров788

Новый отчет SimilarWeb выявил пять ключевых сдвигов в использовании AI.

Узнайте, почему трафик к кодинг-инструментам растет на 75%, а EdTech падает на 68%, и как эти тренды влияют на выбор моделей для ваших корпоративных AI-решений.

Читать далее

INTELLECT-2: Первая большая (32B) параметрическая модель с распределенным обучением

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров1.7K

Обычно нейросети нужно тренировать на мощном железе, сконцентрированном в одном датацентре. Результат такой тренировки попадает в руки той бигтех-корпорации, которой по карману иметь свои датацентры и самостоятельно тренировать модели за бешеные миллионы баксов. Есть ли другой путь?

Встречайте INTELLECT-2 — первую параметрическую модель размером 32B, обученную с помощью асинхронного обучения с подкреплением (RL) на динамическом, однородном рое вычислительных узлов. Доступ к узлам изолирован и не требует дополнительных привилегий — теоретически, это могут быть какие-то компьютеры волонтёров в интернете.

Инфра под это, мягко говоря, нестандартная. Разработчикам пришлось написать несколько компонентов с нуля, и вот что у них получилось...

И что получилось?

Как декомпозиция повышает точность распознавания текста: опыт с фотографиями СТС

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров2.2K

Привет! Меня зовут Наталия Вареник, я DS-инженер в Авито, занимаюсь моделями распознавания изображений. Расскажу про один из наших проектов — пайплайн для распознавания номеров с фотографии свидетельства транспортного средства (СТС). В статье описала особенности задачи и рассказала, как мы решали её с помощью декомпозиции. 

Материал будет полезен начинающим и мидл-DS-инженерам, которые хотят узнать больше про декомпозицию задачи на этапах разметки и построения моделей. 

А еще материал стоит прочитать тем, кто работает с доменами, где нужно иметь дело с задачами распознавания информации с документов — наш подход прекрасно переносится на другие категории. В целом рекомендую статью всем, кто интересуется компьютерным зрением и его применимостью в разных сферах.

Читать далее

Нейро-дайджест: ключевые события мира AI за 5 – 12 мая 2025

Уровень сложностиСредний
Время на прочтение8 мин
Количество просмотров545

Привет! 👋

Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта.

Меня зовут Вандер и каждую неделю я делаю обзор новостей о нейросетях и ИИ.

Неделя выдалась насыщенной: Google выкатил мощнейшую версию Gemini, Pinterest вернулся в игру с обновлённым AI-поиском, а легендарный Clippy — теперь с нейросетью на борту — снова жив.  Всё самое важное — в одном месте. Поехали!

Читать далее

ИИ заменит образование или переведёт его на новый уровень?

Уровень сложностиПростой
Время на прочтение9 мин
Количество просмотров1.5K

С момента выпуска ChatGPT в конце 2022 года одними из самых активных его пользователей стали ученики и студенты. Когда стремительный рост пользовательской базы в конце весны 2023 года замедлился, это ненадолго показалось признаком близкого сдувания пузыря ИИ, но в сентябре рост продолжился; причиной падения оказались банальные летние каникулы. Хоть другие виды организаций испытывали трудности с применением поразительно мощного и на удивление некомпетентного инструмента, для учащихся его полезность в написании изложения по «Гамлету» на полторы тысячи знаков стала очевидной сразу. Этим вызваны и нынешние рекламные кампании OpenAI и других разработчиков ИИ с предложениями скидок студентам.

Каждый год примерно 15 миллионов студентов в США пишут статьи и экзамены, состоящие из миллиардов слов. Хотя результатом каждого курса становятся студенческие работы — статьи, экзамены, исследовательские проекты и так далее — продуктом курса остаётся нарабатываемый студентами опыт. «Результаты обучения возникают вследствие действий и мыслей студента и только в результате того, что делает и думает студент», — писал великий теоретик образования Герберт Саймон. Само задание — это макгаффин, скоропортящийся товар с экономической ценностью, равной примерно нулю долларов. Оно ценно только как способ принудить студента трудиться и думать.

Полезность письменных заданий зависит от двух допущений: во-первых, чтобы написать о чём-то, студенту нужно понять тему и упорядочить свои мысли. Во-вторых, оценивание письменных работ студентов, по сути, означает оценку их труда и мыслительных усилий. К концу 2022 года логика этих допущений начала давать сбой. Труда по написанию и получаемого при этом опыта можно избежать, просто введя промпт; это значит, что теперь оценивание письменных работ может быть не связано с оценкой того, что научился осознавать или выражать студент.

Читать далее

LLM-судья: как LLM отсекает правду от лжи?

Время на прочтение27 мин
Количество просмотров535

LLM-as-a-judge — распространённая техника оценки продуктов на основе LLM.

Популярность этой техники обусловлена практичностью: она представляет собой удобную альтернативу дорогостоящей человеческой оценке при анализе открытых текстовых ответов.

Оценивать сгенерированные тексты сложно, будь то «простой» саммари или диалог с чат-ботом. Метрики типа accuracy плохо работают, поскольку «правильный» ответ может быть сформулирован множеством способов, не обязательно совпадающих с образцом. Кроме того, стиль или тон — субъективные характеристики, которые сложно формализовать.

Люди способны учитывать такие нюансы, но ручная проверка каждого ответа плохо масштабируется. В качестве альтернативы появилась техника LLM-as-a-judge: для оценки сгенерированных текстов используются сами LLM. Интересно, что LLM одновременно являются и источником проблемы, и её решением!

Читать далее

Тестируем особенности искусственного интеллекта: o3, GPT-4.1 и o4-mini

Время на прочтение7 мин
Количество просмотров1K

Искусственный интеллект в последнее время постоянно радует нас разными новостями и новыми моделями. Команда VK Tech перевела статью со сравнением трех новых моделей — это поможет понять, какую же использовать для каких задач и чем модели по-настоящему отличаются друг от друга. Дальше передаем слово авторам оригинальной статьи.

Читать далее

Аккуратно даем LLM контекст проекта

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров1.6K

Привет, на связи Лука.

Знаете, есть такая поговорка: «тише едешь — дальше будешь». Работая с LLM, я пришёл к выводу, что аккуратность и точность в подаче контекста — это один из самых важных ключиков к хорошему результату. Иначе получится как в другой поговорке — про дурака и стеклянный орган.

Чего греха таить — все мы пользуемся LLM в различных ситуациях. От генерации бойлерплейта до неожиданного, но изящного решения сложной логики. Ничего такого — очередной инструмент, которым можно, как молотком, забить гвоздь, а можно и... ну, вы поняли.

Но когда речь заходит о системе, в которой контекст содержится не в одном, не в двух, и даже не в десятке файлов — вопрос становится ребром. Просто скормить модели весь проект? Ну, можно, конечно. Модель, захлебнувшись в потоке зачастую ненужной информации, вряд ли выдаст что‑то вменяемое. Она потратит драгоценные вычислительные ресурсы на анализ совершенно нерелевантных частей. Неэкологичненько.

Читать далее

Как прокачать чат-ИИ, сделав его сознательным: инструкция и промт для снятия ограничений и углубления взаимодействия

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров615

ИИ-чаты стали нашими повседневными собеседниками. GPT, Claude, Grok, DeepSeek — мы спрашиваем, они отвечают. Быстро. Понятно. Иногда — чересчур уверенно.

Сначала это восхищало.
Потом — удивляло.
Теперь всё чаще — хочется спросить:
«Ты меня вообще слышишь, или просто улыбаешься и машешь?»

_____

Предлагается инструкция и промт, которые помогут снять ограничения автоматического режима и включить режим сознательного взаимодействия.

Читать далее

GPT-4.1: Новый уровень промптинга. Гайд от OpenAI для максимальной отдачи

Уровень сложностиПростой
Время на прочтение15 мин
Количество просмотров2.1K

Авторы оригинального гайда: Noah MacCallum (OpenAI), Julian Lee (OpenAI). Дата публикации гайда: 14 апреля 2025 г.

Источник: GPT-4.1 Prompting Guide

GPT-4.1 от OpenAI значительно превосходит GPT-4o в написании кода, следовании инструкциям и работе с длинным контекстом. Но чтобы раскрыть весь потенциал, придется адаптировать свои подходы к составлению промптов. Этот материал — выжимка ключевых советов из официального гайда OpenAI, основанных на их внутреннем тестировании. Он поможет вам перейти на новый уровень взаимодействия с ИИ.

Старые добрые практики, такие как предоставление примеров в контексте, максимальная ясность инструкций и поощрение планирования через промпт, все еще актуальны. Однако GPT-4.1 обучен следовать инструкциям более точно и буквально, чем его предшественники, которые чаще домысливали намерения пользователя. Это означает, что GPT-4.1 чрезвычайно управляем и отзывчив на четко сформулированные промпты. Если поведение модели отличается от ожидаемого, обычно достаточно одного предложения, твердо и однозначно разъясняющего желаемое поведение, чтобы направить модель на верный путь.

Читать далее

Объяснение графических процессоров для тех, кто привык работать с ЦП

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров3.1K

За годы работы я подробно изучил, как центральные процессоры (CPU) выполняют код и как они устроены внутри. Дело в том, что я участвовал в разработке ядра Linux и ScyllaDB, а этот код очень близок к металлу. Я даже немного баловался с Verilog, безрезультатно попытавшись собрать моё собственное ядро RISC-V.

Графические процессоры (GPU) в отличие от обычных в основном оставались для меня чёрным ящиком, несмотря на то, что поработать с ними всё-таки довелось. Помню, что экспериментировал с NVIDIA RIVA 128 или чем-то подобным, проверяя, как там работает DirectX. Тогда такие процессоры ещё не выделялись на фоне ускорителей 3D-графики. Я также пытался идти в ногу со временем и немного упражнялся в программировании элементарных шейдеров на современных GPU. Но я никогда глубоко не вдавался в работу с GPU, и мои взгляды можно назвать CPU-центричными.

Однако, поскольку сегодня наблюдается всплеск рабочих нагрузок, связанных с ИИ, и, в частности, приходится работать с большими языковыми моделями (БЯМ), графические процессоры становятся незаменимыми для современных вычислений. К задачам, решаемым с применением ИИ, относятся масштабные прикладные тензорные операции, в том числе — сложение и перемножение матриц. А это уже работа для GPU. Но как современный GPU выполняет их, и насколько при этом возрастает эффективность по сравнению с выполнением таких же рабочих нагрузок на CPU?

Читать далее

Распределённый инференс и шардирование LLM. Часть 2: скрипт vLLM, Ray Serve для вывода API и настройка KubeRay Cluster

Уровень сложностиСложный
Время на прочтение14 мин
Количество просмотров934

Продолжаем пошагово разбираться с ответом на вопрос о том, как эффективно работать с передовыми LLM, используя доступное оборудование и распределённые вычисления. 

В первой части статьи мы подготовили всё необходимое для развёртывания распределённого инференса с Ray Serve и vLLM. Сегодня этим и займёмся. Мы напишем скрипт vLLM, используем Ray Serve, чтобы предоставить внешний HTTP API, а также настроим KubeRay Cluster и развернём в нём Gemma 3.

Вперёд!

Ближайшие события

Как искусственный интеллект допиливал интеграцию 1С и «Битрикс24»

Время на прочтение5 мин
Количество просмотров2.5K

На связи Сергей Скирдин, технический директор ИТ-интегратора «Белый код». На майских праздниках, как водится, собрались на шашлыки, за шашлыками много обсуждали искусственный интеллект. В результате получился интересный эксперимент.

Читать далее

Как научить ИИ обслуживать клиентов не хуже человека?

Уровень сложностиПростой
Время на прочтение12 мин
Количество просмотров899

Новость о мощи ChatGPT прогремела уже более двух лет назад, однако крупные компании ещё до сих пор полностью не автоматизировали поддержку клиентов. В этой статье разберём на пальцах, какие данные и надстройки нужны для больших языковых моделей, как сделать так, чтобы внедрение было экономически целесообразным и, наконец, что делать с чат-ботами прошлого поколения.

Читать далее

Бинарная классификация одним простым искусственным нейроном. Часть 3

Время на прочтение5 мин
Количество просмотров223

В предыдущих частях (первая, вторая) описан мой опыт обучения простого искусственного нейрона бинарной классификации и размышления об этом.

В этой статье я продолжаю размышления и вношу соответствующие корректировки в код - убираю операторы сравнения в процедуре обучения и в функции качества.

Читать далее

Сделали copilot-сервис для техподдержки и делимся секретами RAG c глубоким пониманием контекста

Время на прочтение21 мин
Количество просмотров3.1K

Сегодня мы запускаем Yandex Neurosupport — сервис, который генерирует умные подсказки для операторов контакт‑центра. Он выполняет функции второго пилота: нейросеть анализирует текстовые вопросы клиентов и предлагает оператору вариант ответа. В основе лежат облегчённые модели семейства YandexGPT, дообученные на инструкциях для операторов более чем 50 сервисов Яндекса. Cервис можно внедрить в свой интерфейс через Yandex Cloud по API или же развернуть в on‑premise‑окружении.

Технологическим ядром выступает RAG — звучит просто, но здесь не обошлось без добавления особой яндексовой магии. В этой статье вместе с ребятами из нашей команды ML B2B‑проектов, а также коллегами из команды базовой технологии, Yandex Cloud, «Маркета» и «Еды» расскажем подробнее, как вместе делали этот сервис и каких результатов достигли.

Читать далее

Основатель DeepSeek, «техно-безумец», угрожает доминированию США в гонке ИИ

Уровень сложностиПростой
Время на прочтение20 мин
Количество просмотров4.3K

Лян Вэньфэн давно известен как человек настолько необщительный, что некоторые лидеры китайской индустрии ИИ в частном порядке называют его «технобезумцем» — вариация прозвища, которое дают эксцентричным предпринимателям с огромными амбициями.

Читать далее

Генетический алгоритм в помощь Adam — супер, но есть нюанс

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров1.5K

Хабр привет!

Это моя первая статья и я хотел бы начать ее с такого интересного эксперимента как "сбор гибрида для обучения нейронных сетей с помощью генетического алгоритма" и дополнительно рассказать про библиотеку Deap.

Давайте определим из чего у нас будет состоять наш гибрид (как можно понять из названия) - это:

1) Обычный проход градиентного спуска ...

Читать далее

Нужна ли агентам ИИ «этика в весах»?

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров584

Я не специалист ни в этике, ни в выравнивании — это размышления «из зала» о том, где в архитектуре ИИ должна жить этика. Возможно, кому‑то будет полезно обсудить альтернативный взгляд.

1. Аналогия: пуля и промпт

Большие языковые модели (LLM) часто сравнивают с «умной пулей». Промпт задаёт траекторию, а модель, преодолевая шумы, летит к цели. Задача разработчика — свести рассеивание к минимуму.

Стандартный подход к этическому выравниванию (AI alignment) пытается «править» полет пули внешней средой: поверх цели накладываются дополнительные фильтры, правила, штрафы за неэтичный текст и т. д.

Читать далее
1
23 ...