В Германии доступен способ общения с ChatGPT по факсу. Пользователю нужно отправить запрос на бумаге на специальный номер, а ИИ пришлёт факс в ответ.
Номер для связи:0531-490590019
.

AI, ANN и иные формы искусственного разума
Большие популяционные модели (LPM): как ИИ симулирует социальное поведение?
В знаменитой серии «Основание» Айзека Азимова математик Хари Сэлдон создает «психоисторию» — науку, способную предсказывать будущее человечества на основе законов массового поведения. Хотя это художественная выдумка, идея отражает глубокую истину: чтобы формировать наше общее будущее, нам необходимо понимать коллективное человеческое поведение.
Сегодня мы стоим на пороге революции в изучении общества. Большие популяционные модели (Large Population Models, LPMs) предлагают нам постоянно обновляющийся портрет человечества, который отражает сложные взаимодействия миллионов отдельных людей.
Большие языковые модели (LLMs) уже продемонстрировали способность генерировать связный текст, предсказывая следующее слово (токен) в предложении. LPMs берут эту концепцию, но вместо предсказания следующего слова, они предсказывают неизвестные атрибуты людей на основе известных данных. Это позволяет моделировать поведение целых обществ, заполняя пробелы в данных и создавая более полную картину человеческого взаимодействия.
Например, если мы знаем возраст, пол и место жительства человека, модель может предсказать его уровень дохода, образование или поведенческие привычки.
Потенциальные области применения больших популяционных моделей обширны:
- Здравоохранение: В период пандемии LPMs могут помочь моделировать распространение заболеваний, основываясь на передвижениях и контактах людей;
- Социальные исследования: Предупреждение о возможных социальных волнениях или гуманитарных кризисах путем анализа настроений и поведения больших групп людей;
- Экономика: Правительства и корпорации могут использовать модели для прогнозирования экономических тенденций и адаптации политик в соответствии с динамикой местных экономик.
Недавно ученые разработали модель под названием «Кентавр». Эта модель способна предсказывать и симулировать человеческое поведение в различных экспериментах, выраженных на естественном языке. Центавр создан путем дообучения Llama 3.1 70B методом QLoRA на уникальном наборе данных Psych-101. Этот набор данных охватывает более 60 000 участников, совершивших более 10 миллионов выборов в 160 различных экспериментах.
Интересно, что дообучение модели также улучшает согласованность внутренних представлений Кентавра с нейронной активностью человека. Это означает, что модель не только предсказывает поведение, но и демонстрирует внутренние процессы, схожие с теми, что происходят в человеческом мозге. Это не просто шаг вперед в когнитивных науках, но и пример того, как большие модели могут помочь нам понять сложность человеческого поведения.
Сегодня в сфере маркетинговых исследований появляются так называемые синтетические респонденты — искусственные персоны для имитации человеческих ответов. Они могут использоваться для быстрой оценки новых продуктов или идей без необходимости проведения масштабных опросов.
AgentTorch - открытая платформа для создания и запуска масштабных симуляций популяций с использованием больших популяционных моделей. Долгосрочная цель платформы — «переизобрести перепись населения», создав полностью симулированную, но точно отражающую реальное население систему.
LPMs предлагают нам инструменты для более глубокого понимания общества для принятия обоснованных решений. С такой мощной технологией приходит и большая ответственность. Важно обеспечить, чтобы использование LPMs было этичным и уважало конфиденциальность людей. Цель должна быть не в том, чтобы манипулировать обществом, а в том, чтобы лучше его понимать и принимать обоснованные решения. Будущее не предопределено, поэтому с помощью LPMs у нас есть возможность формировать его в лучшую сторону, используя знания для общего блага и прогресса всего человечества.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
США ТРАТИТ В 100 РАЗ БОЛЬШЕ НА ИИ ЦОДЫ, ЧЕМ РОССИЯ
🔥Мир стоит на пороге новой эры искусственного интеллекта, и Америка не просто намерена участвовать в этой гонке — она стремится занять лидирующие позиции.Компании OpenAI, Oracle и SoftBank запускают амбициозный проект Stargate, который предполагает создание сверхмощных дата-центров и суперкомпьютеров, способных изменить правила игры в области ИИ, подержанный Трампом, привлечет инвестиции в размере ПОЛУТРИЛЛИОНА ДОЛЛАРОВ — сумма, сопоставимая с ВВП Израиля или Египта. Участники проекта готовы выделить 100 миллиардов уже на начальном этапе, оставшиеся 400 миллиардов будут инвестированы в течение следующих четырех лет. При этом SoftBank берет на себя финансовую ответственность, а OpenAI операционную. По информации с сайта OpenAI, строительство объектов уже началось, первая площадка создается в Техасе. Кроме того, компания активно ищет и оценивает потенциальные площадки по всей стране для организации новых ИИ-кампусов. После полного запуска потребляемая мощность всех комплексов составит около 5 ГВт, что сопоставимо с 83,3 миллионам обычных лампочек, работающих одновременно.
😥От этой новости голова идет кругом, когда сравниваешь такие инвестиции с российскими. Но стоит упомянуть, что США может себе ПОКА позволить напечатать эти зеленые бумажки, так как еще является резервной валютой, а вот России необходимо быть аккуратнее с инвестициями, чтобы не создать дисбаланс во всех отраслях - жаль, что мы не можем печатать, как в США... Помимо этого, не нужно забывать про количество населения в Америке чуть более 300 миллионов, а в России чуть более 140 миллионов - а это сказывается на количестве потребления и покупательской способности.
Недавно я писал пост, почему потребление ИИ увеличиться, а не уменьшится.
🇷🇺В России расклад такой, в перспективе ближайших 5 лет в отрасли «ЦОДы и Дата-центры» будут проинвестированы 120 проектов на сумму 596,4 млрд рублей. Это крупные дата-центры (от 500 стойко-мест), не считая, маленьких периферийных ЦОДов, в которые также активно инвестируют компании. Чуть-чуть отвлекся, теперь назову самых крупных инвесторов в традиционные дата-центры: Сбер (142 млрд), ЕвросибЭнерго (120 млрд), Датапро (50 млрд), Газпром (41 млрд) и Тензор (30 млрд).
❗️НО, мы планируем стать технологическим лидером в БПЛА (после заявлений нашего президента), а это поможет нам более быстрее исполнять разного рода задачи на ШИРОКИХ просторах матушки России и возможно сделать прорыв в экспорте, помимо нефти и газа.
Как вы считаете, сможет ли Россия быть технологическим лидером в общей гонке технологий? Жду ваших прогнозов в комментариях. Пишу об инновациях и взрывных новостях в технологическом секторе в своем тг-канале.
Будущее сельского хозяйства тесно связано с технологическими достижениями, в отчёте Agritecture Consulting и CEAg World выделили 5 факторов, подчёркивающих растущую роль технологий в агроотрасли.
Улучшение качества и урожайности культур — главное, чего ждут от новых технологий. Улучшение урожайности, даже на уровне 5%, может существенно повлиять на финансовые модели фермеров. Производители придают большое значение использованию технологий для повышения как качества, так и количества своих культур. Современные системы, такие как инструменты точного земледелия, климат-контроль и оптимизированное орошение, помогают максимизировать производство и обеспечивать высокое качество продукции.
Упрощение операций для повышения эффективности. Автоматизация, ИИ и робототехника снижают ручной труд и улучшают рабочие процессы. Для агроотрасли это минимизация операционных затрат.
Снижение затрат на рабочую силу. Рабочая сила является значительной статьей расходов в сельском хозяйстве, и многие производители ищут технологии для снижения зависимости от человеческого труда. Автоматизация и робототехника рассматриваются как ключевые факторы для сокращения этих затрат при сохранении производительности.
Принятие решений на основе данных. Умение собирать и анализировать данные для более обоснованного принятия решения имеет важное значение для современного сельского хозяйства. Технологии, такие как датчики, IoT и ИИ, предоставляют информацию в реальном времени, помогая производителям оптимизировать свои операции и вносить коррективы на основе данных.
Поддержка устойчивых практик. Многие производители рассматривают технологии как способ достижения большей устойчивости через более эффективное использование воды и энергии или через снижение отходов и выбросов. Сельское хозяйство стремится сбалансировать продуктивность с экологической ответственностью.
Большие поведенческие модели (LBM): новый этап в развитии ИИ
Представьте робота, который изучает, как вы готовите еду, и с каждым приготовленным вами блюдом он сам становится всё более искусным поваром. Разбираемся, как большие поведенческие модели (LBM) помогут роботу в этом деле.
Несмотря на впечатляющие достижения больших языковых моделей (LLM) в обработке и генерации текста, они не умеют обрабатывать изображения или сенсорные данные, необходимые роботу для ориентации в физическом пространстве, “понимания” объектов и обучения действиям пользователя. Так Visual Language Models (VLM), обрабатывающие визуальные данные, могут “понимать” содержимое изображений и отвечать на вопросы по изображениям.
Large Action Models (LAM) обучены на данных о действиях (в том числе из сенсоров). LAM превращают LLM в автономных агентов, способных выполнять комплексные задачи, ориентированные на вызов определённых функций, улучшенное понимание и планирование.Salesforce уже начали выпускать такие модели для автоматизации процессов.
Visual Language Action Models (VLA) обучены на визуальных данных и данных о действиях. Они дают LLM возможность быть “воплощённым” агентом (Embodied Agent) в физическом мире. Например, RT-2 демонстрирует способность робота выполнять сложные команды благодаря использованию цепочки рассуждений. PaLM-E — мультимодальная языковая модель с 562 миллиардами параметров, демонстрирующая высокую универсальность и эффективность. А OpenVLA — открытая модель с 7 миллиардами параметров поддерживает управление несколькими роботами одновременно.
Для обучения агентов применяется обучение с подкреплением. Существуют различные RL-методы, но в целом обучение агента построено на политике вознаграждений и наказаний за совершение определённых действий. Среди RL-методов также есть обучение с подкреплением на основе обратной связи от пользователя.
Комплексно задачу по обучению роботов действиям человека решают LBM (Large Behavior Models) — большие мультимодальные поведенческие модели, представляющие новое направление в ИИ. LBM направлены на понимание, моделирование, адаптивное обучение и генерацию человеческого поведения в физическом мире (похоже на RLHF на основе данных из физического мира).
Большие поведенческие модели уже используются на практике:
1. В Lirio разработали первую в мире LBM для здравоохранения. Их модель создаёт гиперперсонализированные рекомендации для пациентов на основе медицинских данных и данных о поведении пациента от различных датчиков.
2. Toyota Research Institute совершил прорыв в обучении роботов новым сложным навыкам с помощью метода Diffusion Policy. Их роботы могут быстро осваивать новые действия, такие как наливание жидкостей или использование инструментов, без необходимости перепрограммирования.
3. Стартап Physical Intelligence привлёк $400 миллионов инвестиций от Джеффа Безоса, OpenAI и других крупных игроков. Они стремятся создать роботов, которые смогут выполнять любые задачи по запросу пользователя, будь то уборка, сборка мебели или обслуживание клиентов.
Однако, как отмечал философ Людвиг Витгенштейн в своём "Логико-философском трактате": "Границы моего языка означают границы моего мира". Это актуально для LBM, так как они всё ещё ограничены данными, на которых обучены. Их "мир" определяется теми модальностями, что они могут воспринимать через сенсоры и понимать с помощью алгоритмов.
Для обучения качественной поведенческой модели нужно больше датчиков для сбора данных из различных модальностей. Так данные электроэнцефалографа позволили бы лучше распознавать и имитировать эмоции. А обучение моделей с помощью синтетических данных из симуляций делает "картину мира" LBM более разнообразной.
В реальном мире мы пока можем отличить робота от человека. Но возникает вопрос: а как мы будем отличать человеческое поведение от ИИ в цифровом мире?
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
У китайской компании ByteDance был случай. Их стажёр на что-то обиделся и решил саботировать работу: он внедрял зловреды в модели машинного обучения и подменял её чекпоинты. В итоге вся команда два месяца, вместо того, чтобы работать, пыталась понять, что же происходит? Стажёры, не надо так!
А это стажёр сделал вещи, которые заметны. А что если кто-то будет делать то, что незаметно по логам или по метрикам? Например, в модель встроит триггеры и изменит в целом смысл продукта.
Тут вновь встаёт вопрос доверия к искусственному интеллекту и его аудиту.
Что нужно делать, чтобы доверять моделям ML?
так обучать модели, чтобы они были устойчивы к разному классу атак (состязательный шум, состязательные патчи и так далее);
проверять наборы данных на закладки, аномалии; проводить очистку данных;
проверять модели на закладки, проводить очистку;
повышать интерпретируемость моделей;
защищать модели на основе пред- и постобработки;
противодействовать краже, инверсии моделей, определению принадлежности;
проводить постоянный мониторинг.
Доверенной может называться только та система, которая разрабатывалась на платформе с правильной методологией разработки и которая контролирует процесс.
А вот признаки, что этой ML-платформе можно доверять:
правильная методология разработки в ML;
много переиспользуемых инструментов обеспечения доверия;
автоматизация и прозрачность использования инструментов обеспечения доверия;
интеграция со всеми этапами жизненного цикла модели машинного обучения:
появились новые угрозы — появились новые инструменты борьбы.
Пост написан по мотивам доклада Максима Рындина «Роль ПО автоматизации процессов для обеспечения доверия в машинном обучении». Он представил его на V встрече экспертного сообщества по криптографии и большим данным, которую организовал «Криптонит» при поддержке Музея криптографии. Дискуссия была посвящена теме аудита безопасности систем ИИ.
12 перспективных российских стартапов в области AI по версии RB Choice.
Metamentor — разработчик корпоративных решений на базе генеративного искусственного интеллекта. Проект проводит анализ внутренних документов и регламентов клиента, после чего собирает всю полученную информацию в боте-ассистенте. Это помогает бизнесу настроить внутренние и внешние процессы, упростить онбординг сотрудников, выделить сильные и слабые стороны работы отделов и собрать умную базу данных.
Anix — стартап работает над созданием нейросети для мультипликаторов, которая рисует кадры для анимации быстрее и дешевле человека. Таким образом, у работников освобождается время для творческого процесса вместо рутинной работы.
SalesAI — компания занимается разработкой собственной нейросети, которая интегрируется в CRM-системы и занимается оценкой качества звонков. Продукт нацелен на повышение качества работы менеджеров в малом и среднем бизнесе.
Fabula AI — мультиплатформенное приложение для создания и редактирования изображений на основе искусственного интеллекта при помощи десяти различных онлайн-инструментов.
НейроХудожник — стартап Университета Иннополис, разрабатывающий нейросеть для генерации изображений с удобным интерфейсом. Для создания картинки достаточно ввести одно слово в поле для описания, после чего сервис сам определит детали объекта и другие параметры. Также в «НейроХудожнике» есть полноценный конструктор ИИ-моделей на основе Stable Diffusion и Kandinsky.
Dialext — сервис подключается к CRM и проводит аудит телефонных переговоров. При помощи ИИ — языковых моделей и сетей-трансформеров — он определяет, насколько речь менеджера соответствует установленному компанией сценарию разговора.
mymeet.ai — стартап по разработке ассистента для онлайн-встреч. Это нейросеть, которая транскрибирует звонки и собирает на их основе краткую выжимку из всего, что было озвучено на встрече. Кроме того, ассистент помогает назначать задачи всем присутствующим на созвоне.
JetHub — компания работает над программой, которая помогает разработчикам и инженерам по безопасности находить уязвимости в коде и исправлять их. В основе проекта лежит технология распознавания ошибок на базе ИИ.
presentsimple — стартап помогает создавать презентации при помощи нейросети, делая процесс верстки слайдов простым и быстрым. Программа автоматизирует рутинные задачи пользователей, генерируя релевантный текст для каждого слайда и подбирая оформление по поставленным запросам. Для старта работы достаточно загрузить черновик в формате PDF, PowerPoint или Word.
DetAFake — сервис для распознавания дипфейков на реалистичных фото-, видео- и аудио-материалах. Стартап ставит своей целью защиту людей и бизнеса от мошенничества. Согласно сайту компании, точность выявления ИИ-фейков составляет 94%, 98% и 99% при работе с фото, аудио и видео соответственно.
Mobidriven — ИИ-платформа для оптимизации рекламных кампаний в реальном времени. Проект помогает закупать персонализированные показы интернет-рекламы под нужды клиентов. Mobidriven работает как с брендами, так и с профильными агентствами.
Метранпаж — онлайн-сервис автоматической верстки печатных и электронных изданий при помощи ИИ. Платформа значительно ускоряет процесс создания сложных книг, позволяя пользователям сверстать их за час, минимизируя ошибки и затраты.
Большой потенциал малых языковых моделей
Современный бум ИИ уже давно не сводится к крупным разработкам от гигантов вроде OpenAI или Anthropic, инвестирующих миллиарды в большие языковые модели. Наоборот, всё чаще в фокус внимания попадают малые языковые модели (Small Language Models, SLMs), способные решать узкоспециализированные задачи не хуже (а порой и лучше) своих «старших собратьев».
Яркий пример — стартап Patronus AI со своей моделью Glider, имеющей 3,8 миллиарда параметров. Большинство компаний применяют для оценки своих продуктов большие закрытые модели вроде GPT-4. Но это дорого, не всегда прозрачно и несет риски для конфиденциальности. Glider же, будучи относительно компактной, способна работать на более простом «железе» и при этом давать детальное объяснение своих оценок по сотням критериев (точность, безопасность, стиль, тон и т. д.).
По результатам тестов Glider превосходит GPT-4o mini по нескольким метрикам и отвечает в среднем менее чем за секунду, что делает ее практически идеальным решением для генерации текста в реальном времени.
Большие языковые модели, безусловно, продолжают впечатлять своей универсальностью, но их недостатки очевидны:
- Высокие затраты на ресурсы. Обучение и инференс больших моделей требуют колоссальных вычислительных мощностей, что приводит к дополнительным расходам на инфраструктуру, электроэнергию и обслуживание;
- Низкая конфиденциальность. Использование больших закрытых моделей предполагает отправку данных во внешний облачный сервис, что критично для финансовых организаций и здравоохранения;
- Зависимость от интернета. При отсутствии доступа к сети такие модели попросту недоступны;
Малые языковые модели, напротив, легко разворачиваются на локальном сервере или даже на обычном пользовательском устройстве, снижая задержки при ответах и повышая контроль над безопасностью. Им не нужны сотни гигабайт видеопамяти, а адаптация к узконаправленной задаче и интеграция в собственную инфраструктуру обходятся заметно дешевле и проще. Дополнительно малые модели экономят электроэнергию и бережнее относятся к экологии.
Малые языковые модели можно либо обучать с нуля под конкретную задачу, либо «сжимать» уже готовые большие модели, используя методы прунинга, квантизации и дистилляции знаний, сохраняя высокое качество при сокращении числа параметров.
Набирают популярность и гибридные системы, в которых несколько малых моделей берут на себя простые запросы, а большая модель выступает их «роутером» и используется для более сложных задач.
Помимо Glider, существуют такие модели, как Ministral (Mistral AI), Phi (Microsoft) и Llama 3.2 (Meta). Все они ориентированы на локальное использование в задачах, где высоки требования к приватности и быстроте отклика.
Малые языковые модели незаменимы там, где требуется локальная обработка данных: в медицине (электронные записи пациентов, выписки, рецепты) или финансовой сфере (работа с регулятивными документами). Их размер снижает риск «галлюцинаций», помогает быстрее достичь высоких результатов в узкоспециализированных областях и защищает конфиденциальную информацию.
В действительности большие и малые языковые модели — это две параллельные ветви эволюции, которые не исключают, а взаимно дополняют друг друга. Большие модели лучше справляются с универсальными задачами, требующими миллиарды параметров и богатого контекста, а малые эффективнее работают над узкоспециализированными кейсами, обеспечивая локальную приватность и минимизируя затраты.
В ближайшие годы мы увидим стремительный рост гибридных решений, где оба типа моделей будут работать вместе. В результате мы получим еще более умные, надежные и быстрые ИИ-сервисы, способные удовлетворить самые разнообразные потребности практически любого бизнеса.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Можно ли внести программу на базе искусственного интеллекта или нейросеть в Реестр ПО?
Если коротко, то да. Такой вывод можно сделать, проанализировав уже внесенные программы в Реестр ПО. В этом списке: «ILAI - искусственный интеллект для управления продажами на маркетплейсах», «Программа ЭВМ «ИИ «Распознавание речи», «Q.AIML, Искусственный интеллект и машинное обучение», «Программа ЭВМ «ИИ «АТОМ», «Система управления моделями и приложениями технологий искусственного интеллекта RAISA – RSHB AI Systems and Applications», «AI.СТВ (Модуль искусственного интеллекта (AI) для системы технологического видеонаблюдения (СТВ))» и многое другое.
Что надо знать о программе с искусственным интеллектом, чтобы претендовать на включение в Реестр?
1. Нормативное определение ИИ появилось в российском праве относительно недавно (см. напр. Указ Президента РФ от 10.10.2019 № 490). Юридические документы РФ относят к AI совокупность технических решений, могущих, например, самообучаться и выдавать такие результаты, которые сопоставимы с тем, что делает человек.
2. Юридическое отнесение к категории ПО с ИИ производится в Приказе Министерства экономического развития РФ от 29 июня 2021 г. № 392.
3. Технологиями искусственного интеллекта (как следует из вышеупомянутого документа) считаются:
Обработка текста и речи, распознавание голоса и его синтез;
Помощь для принятия тех или иных решений;
Машинное зрение;
Иные возможности — их именуют (и детально расшифровывают) в упомянутом Приказе в контексте категории «перспективные методы ИИ».
Как подготовить документацию для включения программы с ИИ в Реестр?
Это достаточно сложная задача, так как необходимо соблюсти ряд требований: как перечисленных выше (например, чтобы в разработке точно имелись признаки ИИ, использовалась минимум одна из указанных технологий), так и иных, обозначенных в других нормативных актах и касающихся непосредственно самой процедуры регистрации. Вполне очевидно, что сделать эту работу неспециалисту, который не связан с данной отраслью, будет затруднительно.
Эксперты Онлайн Патента, зная досконально эту сферу, могут помочь в этом деле. Взаимодействие с вами как заказчиком осуществляется дистанционно, не требуется привозить никаких бумаг в офис компании или в Минцифры РФ. Гарантируется и результат: ваша программа с искусственным интеллектом будет точно включена в Реестр российского ПО.
Какие выгоды от внесения программы в Реестр ПО?
Войдя в этот список, вы можете претендовать на многочисленные налоговые льготы. Также у вас появляется преимущество при госзакупках.
Куда обратиться для того, чтобы моя программа была включена в Реестр российского ПО?
Оставить заявку специалистам Онлайн Патента можно здесь.
ИИ-плагины для Сhrome, с которыми можно выполнить различные задачи:
Jasper — ИИ-райтер. Напишет любой текст, поправит грамотность или сделает быстрый рерайт под любую аудиторию.
Harpa AI — универсальный ИИ-помощник, который заберет всю рутину, интегрирует Claude и ChatGPT в поиск Google, жестко бустит поиск в сети, делает саммари статей и видео.
Scalenut — создаёт SEO-контент прямо в браузере, пишет посты для блогов и даже большие, серьезные статьи, оптимизируя их для поисковиков.
Perplexity — мощный ИИ-поисковик, который сделает саммари страниц в сети, статей и ответит на любые вопросы.
Otter.ai — швейцарский нож для созвонов. За один клик интегрируется в Zoom или Google Meet, транскрибирует звонки: предоставляет текстовую расшифровку и саммари с выделением тезисов.
Copyleaks — точный ИИ-детектор, поможет выбрать только оригинальный контент для ваших задач.
DeepL — нейропереводчик и редактор. Переводит текст на любой язык прямо во время чтения или сразу при вводе.
Какой ИИ-стартап запустить: анализ перспективных направлений
Тренд на стартапы с ИИ-агентами стремительно растет. Но важно понять, где можно создать реальную ценность и построить устойчивый бизнес.
Я выделил для себя два ключевых критерия успеха ИИ-продукта:
1. Полезность продукта - он должен решать реальную проблему клиентов, за решение которой они готовы заплатить;
2. Технологическое преимущество, основанное на уникальных данных и моделях, обученных на них, что создает барьеры для конкурентов.
Поэтому есть категории ИИ-продуктов, которые, несмотря на привлекательность, нецелесообразно создавать:
- Во-первых, фундаментальные технологические продукты. Конкурировать с технологическими гигантами в этой области практически невозможно из-за их огромных ресурсов и доступа к данным.
- Во-вторых, "обёртки" поверх GPT-моделей. Такие продукты часто теряют свою ценность с каждым обновлением фундаментальных моделей. Конечно, можно занять свою долю рынка, но достаточно быстро появятся конкуренты, которые вас повторят.
- Наконец, новые продукты в нишах, где текущие игроки уже внедряют ИИ. Лидеры рынка быстро интегрируют новые технологии в свои продукты, используя обширную базу пользователей и существующие интеграции.
С другой стороны, есть перспективные направления, в которых можно развиваться:
- Первое направление — автоматизация ручных процессов в больших компаниях. Это требует глубокого понимания специфики отрасли и умения выстраивать процессы продаж и внедрения, что создает барьеры для конкурентов.
- Второе направление — вертикально интегрированные решения. Фокусируясь на узком сегменте, можно создать специализированный продукт с высокой добавленной ценностью и защитой от конкуренции. Например, Jenni — ИИ-помощник для написания научных работ, учитывающий все нюансы форматирования и ссылок.
- Третье направление — сервисные индустрии, где ИИ позволяет повысить продуктивность. Например, Dwelly автоматизирует процессы в сфере аренды недвижимости. В таких отраслях конкуренция со стороны крупных технологических компаний маловероятна.
Есть возможность и в создании принципиально новых ИИ-продуктов. Это продукты, которые переосмысливают существующие решения, предлагая пользователям новый опыт. Например, Limitless AI — устройство, запоминающее все действия пользователя и позволяющее быстро получать доступ к этой информации.
Также могут быть интересны продукты для ИИ-разработчиков. Но они требуют глубоких технических знаний и, как правило, больше подходят фаундерам с инженерным бэкграундом. Здесь востребованы продукты в области инфраструктуры для ИИ, а также инструменты для MLOps и LLMOps.
Лайфхак для сервисного бизнеса:
Для сервисного бизнеса есть отличная возможность автоматизировать свои процессы и превратиться в продуктовую компанию. Допустим, у вас кадровое агентство:
1. Определите операцию для внедрения ИИ по следующим критериям: ресурсоемкость, эффект от внедрения, сложность внедрения. Например, это скрининг резюме кандидатов и написание обратной связи.
2. Если у вас есть данные по оценкам резюме профессиональными HR’ами и их обратной связью, то вы можете дообучить ИИ на них. Автоматизируйте эту операцию с помощью ИИ и посчитайте метрики процесса найма после внедрения ИИ.
3. Переходите к следующей операции и в итоге автоматизируйте весь процесс. Вы можете дифференцироваться по вертикале, например вы нанимаете только IT-специалистов.
PROFIT: Упакуйте готовый процесс в пользовательский интерфейс и продавайте как ИИ-продукт.
Технологическое преимущество здесь заключается в том, чтобы выполнять задачи лучше, чем остальные, дообучая модели на собственных экспертных данных.
Мы живем в уникальное время, когда сервисные компании могут не только стать очень производительными за счет внедрения ИИ, но и превратиться в продуктовую компанию за счет накопленной экспертизы и данных.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Представлен открытый проект, который помогает создавать нейросети с нуля.
В Oumi вшиты все необходимые инструменты от препроцессинга данных и бенчмарков до различных видов обучения нейронок.
Решение содержит информацию как сделать ИИ‑спеца для различных задач, включая:
полную базу данных о популярных ИИ-моделях;
пошаговые инструкции для каждого этапа разработки своего ИИ;
гайд по файнтюнингу нейросетей, включая LoRA, подготовку данных и оценку производительности по бенчамаркам;
дистилляция моделей для снижения их размеров и повышения эффективности;
метрики работоспособности ИИ и необходимые фреймворки для тестов;
данные для удаленной тренировки моделей — AWS, Azure, GCP, Lambda с подробной документацией к каждой платформе;
инструменты для фильтрации данных для нейросетей и их цензурирования;
примеры готовых конфигураций.
Представлен открытый проект, который помогает создавать нейросети с нуля.
В Oumi вшиты все необходимые инструменты от препроцессинга данных и бенчмарков до различных видов обучения нейронок.
Решение содержит информацию как сделать ИИ‑спеца для различных задач, включая:
полную базу данных о популярных ИИ-моделях;
пошаговые инструкции для каждого этапа разработки своего ИИ;
гайд по файнтюнингу нейросетей, включая LoRA, подготовку данных и оценку производительности по бенчамаркам;
дистилляция моделей для снижения их размеров и повышения эффективности;
метрики работоспособности ИИ и необходимые фреймворки для тестов;
данные для удаленной тренировки моделей — AWS, Azure, GCP, Lambda с подробной документацией к каждой платформе;
инструменты для фильтрации данных для нейросетей и их цензурирования;
примеры готовых конфигураций.
Победи DeepFake! ИТ-компания «Криптонит» запускает соревнование Kryptonite ML Challenge!
Сегодня открылась регистрация на соревнование Kryptonite ML Challenge. Главная задача участников — создать DeepFake-устойчивую Face ID-модель. А призовой фонд — 600 тысяч рублей.
Кто может принять участие?
Молодые специалисты и профессионалы в областях Data Science, Computer Vision, Face Recognition и Metric Learning.
Студенты старших курсов, проходящие обучение по специальностям «Прикладная математика», «Информатика» или «Информационная безопасность».
Участвовать можно как одному, так и в команде до 5 человек. Авторы лучших решений получат возможность стать частью команды «Криптонита»💙
Регистрация открыта до 1 марта! Скорее переходите по ссылке и участвуйте в Kryptonite ML Challenge!
Чего ждать от ИИ в этом году: технологические тренды Gartner 2025
Аналитическая компания Gartner представила свои технологические прогнозы, сгруппировав их в три основные категории:
1. ИИ: Императивы и риски ИИ для защиты организаций
- Agentic AI: Автономные ИИ-агенты, способные сами планировать и действовать для достижения поставленных целей;
- AI Governance Platforms: Платформы для управления ИИ позволяют организациям управлять юридическими, этическими и операционными аспектами ИИ-систем;
- Disinformation Security: Технологии защиты от дезинформации снижают уровень мошенничества и защищают репутацию бренда через усиленные меры проверки.
2. Новые технологии побуждают организации пересматривать свои подходы к вычислениям
- Post-Quantum Cryptography (PQC): Постквантовая криптография защищает данные от угроз квантовых вычислений;
- Ambient Invisible Intelligence: Использование незаметных сенсоров для выявления ранее скрытых процессов в организациях, повышая эффективность и улучшая принятие решений;
- Energy-Efficient Computing: Энергоэффективные вычисления повышают устойчивость за счёт оптимизированной архитектуры и использования возобновляемой энергии;
- Hybrid Computing: Гибридные вычисления комбинируют различные механизмы для решения вычислительных задач, например, сочетание тензорных (TPU) и графических (GPU) вычислений.
3. Синергия человека и машины объединяет физические и цифровые миры
- Spatial Computing: Пространственные вычисления используют технологии расширенной (XR), дополненной (AR), смешанной (MR) и виртуальных реальностей (VR) для создания иммерсивных миров;
- Polyfunctional Robots: Многофункциональные роботы, выполняющие различные задачи и способные работать вместе с людьми;
- Neurological Enhancement: Нейронные улучшения повышают когнитивные способности, считывая мозговую активность.
Углубимся в категорию императивов и рисков ИИ для защиты организаций.
Что касается ИИ-агентов, мне интересно наблюдать за компанией Artisan, которая разработала ИИ-сотрудника по имени Ava. Ava автоматизирует процессы отдела продаж — от поиска клиентов до закрытия сделок. Ava функционирует как полноценный член команды, не требуя постоянного контроля.
Такие инструменты, как AutoGen, LangChain и CrewAI, помогают создавать ИИ-агентов, которые могут самостоятельно выполнять задачи без постоянного вмешательства человека. Агентный ИИ обладает потенциалом кардинально преобразовать множество отраслей. Однако с ростом возможностей таких агентов возникает необходимость в строгом регулировании и этических стандартах.
Поэтому возникает потребность в инструментах, позволяющих контролировать и регулировать его применение. Платформы для управления ИИ становятся незаменимыми для компаний, стремящихся эффективно и безопасно интегрировать ИИ в свои процессы. Они предназначены для мониторинга работы ИИ-систем, регулярной проверки соответствия ИИ-решений установленным стандартам и нормам, а также для обнаружения возможных угроз, включая предвзятость алгоритмов и проблемы конфиденциальности данных. Один из примеров таких систем — Holistic AI.
В эпоху информационных войн и фейковых новостей технологии борьбы с дезинформацией становятся жизненно необходимыми. Например, Sensity AI помогает обнаруживать дипфейки в реальном времени. По прогнозам Gartner, к 2028 году 50% предприятий будут использовать продукты и услуги, направленные на борьбу с дезинформацией, что значительно выше текущих показателей.
В ближайшие годы прогнозируется стремительный рост инвестиций в эти направления, и только те организации, которые оперативно адаптируются к быстро меняющемуся технологическому ландшафту, смогут сохранить свои лидирующие позиции и оставаться конкурентоспособными на рынке.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Учимся писать промты для о3-mini с помощью мини-гайда, который научит правильно пользоваться новой моделью. У «думающих» нейросетей отличается логика построения промтов — привычные подсказки к ChatGPT тут не работают.
Ранее OpenAI выпустила o3-mini для всех. Она чуть качественнее и заметно быстрее o1.
Конец профессии? Может ли ИИ заменить аналитиков?
Всем привет на связи data dreamen!
На фоне новостей о выходе новых моделей ИИ — DeepSeek и Qwen2.5-Max, которые, судя по тестам, местами даже превосходят решения OpenAI, снова возникает вопрос: что будет дальше? Сможет ли ИИ заменить меня, аналитика? И что мне с этим делать?
Если коротко — пока нет. Это подтверждает исследование Всемирного экономического форума: профессии, связанные с аналитикой данных и Data Science, занимают 11-е место среди самых перспективных к 2030 году. DWH-инженеры находятся на 6-м месте, а специалисты по Big Data и вовсе возглавляют этот список.
Однако, несмотря на высокий спрос на аналитиков, ИИ все же серьезно повлияет на рынок и характер работы в этой сфере. Вопрос в том, как именно.
① Автоматизация инструментов. ИИ будет активно заменять рутинные задачи, в том числе у аналитиков. Написание кода, выгрузка данных, подготовка отчетов — всё это будет автоматизироваться, минимизируя ручной труд.
② Развитие self-service. Чем больше задач автоматизируется, тем меньше заказчикам потребуется обращаться к аналитикам напрямую. Многие вопросы смогут решаться через self-service инструменты, снижая нагрузку на команду аналитики.
③ Масштабирование и рост зоны ответственности. ИИ возьмёт на себя базовые аналитические задачи, а аналитикам останутся более сложные, стратегические и ответственные решения — там, где автоматизация не справляется.
Что все таки ИИ не сможет сделать с аналитиками?
① Разработка и принятие нестандартных решений. ИИ — это модель, обученная на данных, но он не обладает креативностью и не умеет находить альтернативные пути решения. Когда нужно выйти за рамки типовых сценариев, роль человека остаётся ключевой.
② Контекст, бизнес-логика и коммерческая тайна. Во многих компаниях процессы настолько сложны, что даже человеку требуется несколько лет, чтобы в них разобраться. ИИ может помогать, но учесть все нюансы и скрытые факторы ему пока не под силу. К тому же, передача коммерческих данных открытым моделям может быть небезопасной.
③ Коммуникация. Аналитика — это не только цифры, но и умение "продать" свои выводы бизнесу, донести ценность и добиться внедрения решений. Даже идеальный расчет не будет полезен, если его не смогли правильно презентовать. Ну и, конечно, навыки постановки ТЗ у заказчиков пока не оставляют шансов ИИ полностью заменить аналитиков.
Что же в итоге нас ждет?
Скорее всего, компании будут разрабатывать собственные решения или внедрять рыночные инструменты для автоматизации аналитики, например:
конвертеры текстовых запросов в SQL-скрипты
АВ-платформы, которые смогут работать без участия аналитиков
визуализаторы данных, создающие отчёты по текстовому запросу
В результате акцент в работе аналитиков сместится: на первый план выйдут не базовые хард-скиллы (SQL, Python, BI-инструменты), а умение применять их в сложных и нестандартных ситуациях.
📉 К сожалению, это сильнее всего ударит по джунам — для принятия сложных решений нужен опыт, а простые задачи постепенно автоматизируются.
Но те, кто сможет адаптироваться, будут только в выигрыше! 🚀
Подписывайтесь на тг, там еще больше полезного и интересного про аналитику - https://t.me/data_dreamen
ИИ на распутье: продолжится ли стремительный рост или нас ждет замедление?
В последние годы мы наблюдаем бум искусственного интеллекта (ИИ). Кажется, что ИИ скоро сможет заменить человека во всех сферах — от генерации контента до управления бизнесом. Но так ли это на самом деле?
Термин «искусственный интеллект» появился в 1950-х годах, когда считалось, что создание «настоящего ИИ» — вопрос ближайших лет. Однако оптимизм быстро угас из-за недооценки сложности задач и недостатка вычислительных мощностей, что привело к скептицизму и сокращению финансирования в 1970-х.
В 1980-е годы интерес к ИИ возродился благодаря экспертным системам для узкоспециализированных бизнес-задач, но высокие затраты и трудоемкость снова привели к спаду интереса через десятилетие.
К концу 1990-х интерес вновь вырос благодаря увеличению вычислительных мощностей и победе IBM Deep Blue над Гарри Каспаровым. В 2010-х ИИ пережил расцвет благодаря глубокому обучению, большим данным и дальнейшему росту мощностей. В 2016-м алгоритм AlphaGo победил чемпиона мира по го Ли Седоля, а появление трансформеров в 2017 году дало начало моделям GPT и современным достижениям.
Но не ждет ли ИИ следующая зима? Все зависит от ожиданий общества, инвесторов и экспертов относительно способностей ИИ. Сейчас многие прогнозируют появление AGI (общего ИИ) в ближайшие годы, как и в 1960-х. Однако современные системы ИИ основаны на хорошо известных математических методах: векторные пространства, перемножение матриц, методы оптимизации. Трансформеры лишь предсказывают вероятность следующего токена. Можно ли это назвать интеллектом?
Проблема в том, что мы пока не знаем, что такое интеллект как феномен. Существует множество определений интеллекта, однако общее одно - способность решать когнитивные задачи. Сегодня мы имеем дело с «узким» ИИ, способным решать специфические задачи: распознавание лиц, машинный перевод и т.д. ИИ уже применяется в разных индустриях, от медицины до банкинга, принося значительную прибыль. Мы действительно живем в эпоху 4-й промышленной революции, где ИИ помогает решать задачи быстрее и качественнее, а иногда заменяет человеческий труд.
Насколько далеко расширится применение ИИ? Есть несколько сдерживающих факторов:
- Алгоритмы. Помимо трансформеров и диффузионных моделей для генерации картинок, музыки и видео, нет качественно новых алгоритмов, требующих меньше данных для обучения. Методы обучения с подкреплением развиваются, но на горизонте не видно прорывных решений.
- Данные. Для обучения ИИ нужны большие объемы качественных данных. OpenAI уже сталкивается с тем, что данные в интернете истощаются, а наполнение синтетическими данными может вести к деградации моделей. Нужно либо больше данных, либо новые алгоритмы обучения. Вероятно, необходимо и то, и другое.
- Вычисления. Закон Мура, предсказывающий удвоение числа транзисторов каждые два года, больше не обеспечивает прежнего прироста мощностей. Большие языковые модели требуют огромных вычислительных ресурсов, и это создает новые вызовы. Необходим качественно новый тип вычислений — например, квантовый. Тема квантового машинного обучения набирает обороты, но работающие квантовые компьютеры для прикладных задач пока недоступны.
В результате мы видим, что ИИ уже сегодня совершает революцию в различных индустриях и что многие ожидают от него и стоящих за ним в сущности банальных математических методов чего-то сверхъестественного. Прогресс продолжается: ИИ учится рассуждать и решать все более сложные задачи.
Я думаю, что ИИ недалекого будущего поможет нам преодолеть эти ограничения, если мы будем применять его в науке, ускоряя общий технологический прогресс. Мы живем в удивительное время, и хочется верить, что зима не близко.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Студентам на заметку: как обучить ИИ писать эссе и курсовые так, чтобы их не распознали
Однажды мне предложили поучаствовать в проекте для одного зарубежного стартапа, в котором ИИ должен был писать школьникам и студентам эссе и статьи, способные обойти системы антиплагиата и ИИ-детекторы.
ИИ-детекторы вроде GPTZero работают следующим образом:
• Используется модель детектирования, обученная на данных студенческих работ;
• Проверяется, насколько текст в целом похож на то, как пишет ИИ. Текст, написанный человеком, стилистически неоднороден. ИИ создает текст по другим принципам и это нетрудно определить;
• Для выявления смешанных текстов проводится дополнительное исследование, чтобы выявить, какие конкретно предложения написаны ИИ;
• Для этого после каждого слова в предложении языковая модель предполагает, какое слово будет следующим. Она проверяет, совпадают ли предположения с текстом, и делает выводы на основе количества совпадений.
Как сделать так, чтобы языковая модель начала генерировать человекоподобный текст? Я решил задачу так:
1. Скачал множество эссе на различные тематики и разного размера c сайта, где выкладываются эссе, получился датасет. Наличие качественного и разнообразного набора человеческих текстов позволяет модели лучше понимать, какие особенности отличают человеческий текст от машинного.
2. Каждое из эссе я проверил через GPTZero на то, что оно действительно написано человеком.
3. Задал промпт ChatGPT, в котором попросил переписать эти тексты, и на выходе получил сгенерированные тексты. Теперь у меня были пары текстов — до и после обработки нейросетью. Это необходимо для последующего обучения модели имитации человеческого стиля.
4. Из полученных пар текстов собрал датасет для файнтюнинга модели: для первого раза хватило десяти экземпляров.
5. Загрузил полученный датасет на платформу OpenAI, задав стандартные параметры для дообучения модели (файнтюнинга). В результате модель научилась имитировать стилистику, интонацию и вариативность, характерные для человеческого письма.
PROFIT. Теперь полученная модель понимает, как люди пишут тексты, и легко обходит проверки ИИ-детекторов. Школьники и студенты спасены. OpenAI пытается решить эту проблему с помощью вотермарков, но нам всегда будут доступны опенсорсные LLM.
Но если нам нужно генерировать не просто эссе, а статьи, ссылаясь на определенные источники, придется немного поколдовать. Обычно для таких задач применяется RAG (Retrieval-Augmented-Generation).
RAG — это метод, который ищет релевантные документы из большой базы данных, а затем использует эту информацию для формирования ответа.
В задаче по написанию статей для студентов я собрал данные из различных источников: ArXiv, SocArXiv и BioArXiv и настроил автоматический сбор свежих статей. После чего поднял векторную базу данных ChromaDB и определил алгоритм поиска информации в базе, использовал косинусное расстояние. Нарезал статьи на чанки (минимальные фрагменты текста, в нашем случае абзацы) и настроил индексацию абзацев.
Когда пользователь задает тему статьи, языковая модель создает ее оглавление и под каждую главу запускает поиск информации в векторной базе, возвращает найденный абзац в перегенерированном под контекст виде, а также ссылку на статью. В итоге статья содержит не только факты, но и ссылки на найденные работы.
Стартап, которому я помог, сегодня зарабатывает более $1 млн MRR. С одной стороны, такая технология кажется не совсем этичной, и непонятно, как ей противодействовать.
С другой стороны, кажется, что это проблема не технологии, а системы образования: в мире, где вся информация легко доступна, и есть системы, которые могут ее обрабатывать, выступая в роли внешнего носителя памяти и логического процессора, пора учить людей чему-то другому. Прежде всего – тому, как рассуждать самостоятельно, чтобы не стать рабом таких систем.
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.
Прямо сейчас DeepSeek закрылся Cloudflare и перестал меня пускать даже через VPN