Обновить
638.18

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Все, что нужно знать об ИИ-агентах

Если вы еще не до конца понимаете, кто такие автономные ИИ-агенты, зачем они бизнесу и как они работают - это то самое видео, с которого стоит начать.

В видео разбираю:

• Почему корпорации и государства инвестируют миллиарды в автономных ИИ-агентов;

• Как работает ИИ-агент: от восприятия до принятия решений и действий;

• Где уже сейчас применяются ИИ-сотрудники;

•  Как избежать ключевых рисков и ошибок при работе с ИИ-агентами;

•  Реальные кейсы от OpenAI, Amazon, Harvey, Artisan и других.

Этот ролик для тех, кто хочет быстро войти в тему без перегруза информацией и глубокой технической подготовки. 

В следующем видео расскажу как собрать собственного ИИ-агента под свои задачи.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

⚡️Нейросеть Илона Маска Grok стала частью Telegram — об этом объявил Павел Дуров.

Уже в ближайших обновах добавят много крутых фич:
— Можно будет задавать Grok вопросы прямо в поиске;
— Grok сможет менять стиль вашего сообщения и делать его более подробным;
— Можно будет делать выжимки больших сообщений и файлов;
— Grok сможет быть модератором чатов;
— Нейронка сможет проводить фактчеккинг постов из каналов.

Также Telegram получит $300 млн. за партнёрство с Илоном Маском, которое рассчитано на год.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии5

Управляемые сервисы на базе YTsaurus и Apache Spark, новые возможности DataLens и Yandex Cloud AI Studio — о чём говорили на Data&ML2Business

Собрали самые интересные анонсы с Data&ML2Business, ежегодной конференции Yandex Cloud о практическом применении технологий. Вот что прозвучало на главном докладе 28 мая.

Трек Data

Ранний доступ к Yandex Managed Service for YTsaurus. Платформа Яндекса для хранения и обработки больших данных YTsaurus уже два года в опенсорсе, а с этого дня доступ к ней открывается ещё в двух форматах: в облаке и в инфраструктуре заказчика (on‑premise).

Создать базовый кластер YTsaurus теперь можно в привычной консоли
Создать базовый кластер YTsaurus теперь можно в привычной консоли

Для тестирования работы в этих форматах необходимо подать заявку.

Доступ к сервису Yandex Managed Service for Spark. Новый управляемый сервис на базе опенсорс-решения поможет с загрузкой и обработкой данных, а также задачами машинного обучения в облаке. Протестировать его в режиме Preview можно здесь.

Кроме этого, в публичный доступ вышел сервис управления распределённым аналитическим массивно‑параллельным движком обработки больших данных Trino в облачной инфраструктуре.

Обновления Yandex DataLens. Что появилось в сервисе BI‑аналитики:

  • DataLens Gallery — публичная витрина готовых примеров дашбордов. Теперь любой пользователь может открыть галерею, выбрать нужную отрасль или предметную область и изучить готовые дашборды и модели данных, а также стать автором галереи. При согласии автора дашборд из галереи можно развернуть у себя в качестве примера или стартового дашборда.

  • DataLens Editor — редактор для кастомизации графиков и таблиц с помощью JavaScript. Пользователи смогут создавать продвинутые визуализации и удобно интегрировать данные из нескольких источников (включая внешние API).

  • Собственная программа сертификации Yandex DataLens Certified Analyst. С её помощью специалисты могут официально подтвердить свои навыки работы с DataLens. На экзамене проверяются знания и навыки работы с чартами и датасетами, вычисляемыми полями и параметрами, внешними источниками данных, построения дашбордов и выдачи доступов.

Также на конференции рассказали про OLAP-движок для YDB. Теперь СУБД подходит для самых высоконагруженных сценариев. В последней версии YDB появился неточный векторный поиск, позволяющий использовать YDB для специализированных задач, связанных с ИИ.

Трек ML

Обновления RAG‑пайплайна в AI Assistant API. Доступный на платформе Yandex Cloud AI Studio инструмент для создания умных ассистентов дополнился новым графическим UI — теперь создать виртуального помощника можно не только через API или SDK. Возможности поиска данных по базам знаний также расширились: доступны поддержка новых типов данных (таблицы и pdf‑файлы), дообучение эмбедингов, обогащение чанков метаданными, получение метаданных ответа, а также использование дообученной модели. Также на платформе появился рефразер — отдельная модель, которая может перефразировать запросы пользователя.

Доступ к Yandex Cloud AI Studio on‑premise. AI‑платформа Yandex Cloud внесена в реестр отечественного ПО, что позволяет интегрировать решения как в облаке, так и в своей инфраструктуре.

Эксперты обсудили и уже состоявшиеся запуски: 

  • Инструменты работы с OpenAI Compatible API в облаке. API для языковых моделей в Yandex Cloud AI Studio совместим с OpenAI API. Благодаря этому модели YandexGPT проще интегрировать с популярными решениями для работы с ML, например, AutoGPT или LangChain. В совместимом с OpenAI API поддерживаются Function Calling, работа с эмбеддингами и Structured Output.

  • Смысловые теги Yandex SpeechSense — инструмент умного тегирования и поиска для анализа диалогов в колл‑центрах, доступный отдельно по клиенту и оператору.

  • Доступ к VLM и LLM в режиме Batch Processing и co‑pilot сервис для операторов Yandex Neurosupport — о которых мы рассказывали на Хабре.

На конференции более 20 спикеров представили 15 докладов по направлениям Data и ML. Подключайтесь к трансляции на странице мероприятия или смотрите в записи, чтобы познакомиться с опытом внедрения технологий.

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии0

26 мая 2025 года в соцсети X появился ролик, про кенгуру, которого не пускают на борт самолёта даже с билетом в лапах. В публикации автор отметил, что видео сгенерировано ИИ, но многие всё равно приняли его за настоящее.

Ролик создан с помощью Google Veo 3. Это одна из первых моделей генерации видео, которая автоматически добавляет звук и речь персонажей.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

💬 Google выпустил свой генератор речи.

Он в точности копирует речь живого человека, добавляя паузы, смены интонации, тембр, смех и кашель.

Также внутри есть большая библиотека голосов и возможность выбора несколько спикеров, чтобы сделать свой подкаст 😧

Работает на базе Gemini 2.5 Flash Preview TTS и поддерживает русский язык.

➡️ Потестить бесплатно можно в AI Studio. Для этого выбираем Generate Media — Gemini Speech Generation.

Кстати недавно выкладывал интересную инфу про Gemini, кто не чекал советую ознакомиться.

Теги:
Рейтинг0
Комментарии0

Представлен ИИ-сервис, который поможет понять, почему женщина может вами недовольна (Why Is My Wife Yelling at Me? AI Wife Yelling Simulator).

Нужно просто описать ситуацию, из-за которой ваша жена или девушка пришла в состояние недовольства, а сервис проведёт самую глубокую аналитику. ИИ сам возьмёт на себя роль женщины и ответит в одном из четырёх режимов — нормальном, злом, саркастичном или разочарованном.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

Рассказываем, как технологии искусственного интеллекта в облаке помогли Wildberries подготовиться к выходу на новый рынок 🛍️

Что за компания

Wildberries — самый крупный по обороту маркетплейс в России. Доставляет заказы в несколько стран, в том числе Беларусь, Казахстан и Армению. В октябре 2024 года маркетплейс запустил продажи на одном из новых рынков

Какая была задача

Перед выходом на новый рынок Wildberries планировали быстро реализовать важные проекты:

  • автоматизировать перевод карточек товаров на местный и английский языки;

  • дообучить и запустить русскоязычную LLM на закрытом GPU-кластере;

  • разработать классификатор товаров по кодам ТН ВЭД;

  • протестировать собственную гипотезу и построить прогноз.

Как ее решили

Благодаря ресурсам Cloud.ru маркетплейс:

  • дообучил модель на специфическом корпусе текстов и с помощью LLM перевел все карточки;

  • разработал классификатор кодов с использованием языковой модели, что ускорило процесс и повысило точность моделей;

  • автоматизировал выбор таможенного кода: с помощью LLM сформировал обучающую выборку и провел инференс модели на мощных GPU в облаке, а затем на базе этой выборки построил более простую модель на процессорах CPU;

  • сэкономил на закупке оборудования: команде дата-сайентистов нужен был большой объем ресурсов, чтобы проверить гипотезы и построить прогнозы, а провайдер оперативно выделил необходимые вычислительные мощности.

Что в результате

Wildberries быстро получил гибкую инфраструктуру для оперативного решения бизнес-задач, а также сократил time to market. С помощью облачных мощностей с GPU компания смогла быстрее выйти на новый рынок и снизить затраты на подготовку в несколько раз.

Читать кейс 🔍

Теги:
Рейтинг0
Комментарии1

На GitHub Представлена бесплатная база (Learn Agentic AI using Dapr Agentic Cloud Ascent (DACA) Design Pattern: From Start to Scale) по ИИ‑агентам и их правильному созданию с нуля:

  • Подробное введение в общее строение и теорию разработки ИИ‑агентов.

  • Разбор всех популярных нейросетей от ChatGPT до Gemini.

  • Важнейшие протоколы ИИ.

  • Паттерны проектирования ИИ‑агентов.

  • Множество проектов для закрепления знаний — каждый авторы разобрали пошагово. Готовых ИИ‑агентов сможете сразу применять в работе.

  • Разборы процессов в популярных нейростартапах.

Теги:
Рейтинг0
Комментарии0

Интересно применение ML и AI в борьбе за безопасность и доверие пользователей? Тогда Trust&Safety AI Meetup точно для тебя 👀

Когда? 22 мая, 18:00
Где? офлайн в Москве + онлайн-трансляция 

В программе будут 2 технических доклада, интересная дискуссия, спикеры из Wildberries&Russ, Avito, AI Masters. А еще розыгрыш классного мерча среди активных участников и нетворкинг с полезными знакомствами.

Регистрация закроется 21 мая — выбирай формат участия и успей отправить заявку. До встречи на Trust&Safety AI Meetup!

Не пропустите подробности о митапе: @wb_space 🌟

Теги:
Рейтинг0
Комментарии0

22 мая Андрей Квапил (a.k.a. kvaps) проведет вебинар на YouTube-канале CNCF и расскажет о том, как быстро и просто деплоить виртуальные машины и Kubernetes-кластеры и пробрасывать в них GPU с помощью Open Source-платформы Cozystack.

Зарегистрироваться можно по ссылке: https://tinyurl.com/yf9jcfst. Просто кликните по кнопке «Login to RSVP», чтобы получить приглашение в календаре.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Привет! 27 сентября 2025 года мы вновь соберёмся на Practical ML Conf — ежегодной конференции Яндекса о практическом применении ML‑технологий. Открываем приём заявок для тех, кто хочет выступить с докладом.

Основные темы конференции в этом году: CV, RecSys, MLOps, NLP, Speech и Data Science. Мы ждём глубокие технические доклады о прикладных решениях, которые уже приносят пользу в реальных проектах.

Как проходит работа со спикерами Practical ML Conf 2025:

  • при подготовке доклада вы получите поддержку от экспертов программного комитета;

  • перед конференцией пройдут прогоны с профессиональным тренером по публичным выступлениям;

  • мы поможем оформить вашу презентацию, чтобы донести идею максимально чётко и красиво;

  • вы сможете посетить конференцию вместе с +1 без прохождения отбора слушателей;

  • ваш доклад привлечёт внимание сообщества и экспертов: можно будет получить обратную связь, идеи для развития решения и проекта;

  • мы поддерживаем спикеров не только на конференции — ваши доклады будут промоутироваться через каналы Яндекса до и после мероприятия.

Приём заявок открыт до 9 июня 2025. Решение о включении доклада в программу примет программный комитет на основе четырех критериев: полезность, новизна, сложность и практичность.

Предложить свой доклад можно на сайте конференции. Там же можно зарегистрироваться слушателем, узнать подробности и посмотреть записи прошлых выступлений.

Теги:
Всего голосов 7: ↑7 и ↓0+9
Комментарии0

Ozon запустил бесплатный инструмент OzonGenerator для автоматической генерации описаний товаров — он встроен в личный кабинет продавца и доступен в приложении Ozon Seller. Использовать функцию можно до 50 раз в месяц, при этом сторонние сервисы больше не нужны.

Теги:
Рейтинг0
Комментарии3

Облачная инфраструктура Рег.ру для AI и ML

Рассказываем, какие решения в Облаке Рег.ру помогут развернуть полноценную инфраструктуру для работы с AI и ML. Сервисы подходят для обучения моделей, хранения больших датасетов в облачных хранилищах и внедрения решений в продакшн. 

Как работает архитектура для AI и ML:

  1. Развертывание вычислительной среды. Выбираете, где будет выполняться обучение: Bare Metal GPU или Cloud GPU.

  2. Загрузка данных. Собираете датасет в удобных инструментах: S3, DBaaS или непосредственно на виртуальной машине/сервере. 

  3. Обучение модели. Запускаете создание или дообучение модели с сохранением результатов в удобном сервисе, например, в S3 или DBaaS.

  4. Использование результатов. Модель можно тиражировать и применять для различных сервисов в продакшене.

С помощью AI и ML-решений можно упростить автоматизацию, ускорить аналитику и повысить производительность проектов.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии1

Ближайшие события

Гендиректор ИИ-подразделения Google DeepMind Демис Хассабис призвал студентов готовиться к бесконечным переменам и сказал, чему нужно учиться. На вопрос, куда студентам следует направить силы и время в эпоху ИИ. Ответ Хассабиса — «учиться учиться».

«Я думаю, что на истинное понимание: используйте своё время, пока вы студенты, чтобы лучше понять себя и то, как вы лучше учитесь», — отметил Хассабис. Он пояснил, что залог успеха сегодня в адаптивности к новым знаниям — в том, чтобы развить навык быстрого освоения и усвоения нового материала, быть гибким и эффективным в обучении.

Хассабис считает, что сегодняшним студентам придётся жить в мире, где единственной предсказуемой вещью является его непредсказуемость — всё постоянно меняется из‑за стремительного развития технологий. Но он назвал конкретные направления, которые заслуживают внимания.

«Особенно ИИ, а также виртуальная и дополненная реальность, квантовые вычисления. Все эти сферы выглядят многообещающе в перспективе ближайших 5–10 лет», — сказал Хассабис. Он добавил, что каждая перемена несёт в себе «огромные» возможности.

«Я думаю, мы на пороге периода, похожего на 1990-е, когда мы выпускались, и тогда развивался интернет, мобильные телефоны, гейминг. Думаю, мы вступаем в очередной такой период. Это очень захватывающе, но нужно быть очень шустрым и схватывать появляющиеся технологии», — продолжил Хассабис.

Также Хассабис посоветовал студентам помнить о базе. Что‑то новое будет появляться всегда, поэтому лучше не отвлекаться на вещи, которые «модны сегодня, но выйдут из моды завтра».

«Помню, моими любимыми были темы вроде теории вычислений и теории информации, изучение таких вещей, как машины Тьюринга. Это осталось со мной на протяжении всей карьеры. Мне нравятся математические основы и многое из классических, фундаментальных работ», — поделился Хассабис. При том он подчеркнул, что важно не забывать о тех вещах, к которым у вас лежит душа. К выпуску студенты должны быть способны совместить глубокое понимание своих интересов с теми знаниями и навыками, которые они получили.

В свободное время Хассабис посоветовал студентам экспериментировать в любимых направлениях. В его случае это ИИ, и здесь постоянно появляются новые инструменты, в том числе с открытым кодом, поэтому он посоветовал студентам к моменту выпуска хорошо владеть самыми передовыми.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: прозмоьла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Источник:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облако и Web archive, чтобы точно не потерять :). Хотя сам, честно говоря, до сегодняшнего дня но разу не пользовался данной моделью, теперь есть повод поэкспериментировать.

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Запустили Evolution ML Inference — сервис для развертывания ML- и DL-моделей в облаке 🤖

❓ Что за инструмент? С помощью Evolution ML Inference можно запускать и развертывать ML-модели из библиотеки Hugging Face на облачных мощностях с GPU, в том числе в пользовательских Docker-образах. А для более эффективного инференса также можно использовать среды исполнения vLLM, TGI, Ollama, Diffusers и Transformers.

🖥 Особенности и преимущества. Благодаря технологии Shared GPU ML-модели могут совместно использовать ресурсы графического ускорителя — это экономит ресурсы облака и повышает производительность. Масштабирование происходит динамически — если число запросов превышено, дополнительные мощности выделяются автоматически. Или наоборот, один GPU можно использовать для инференса сразу нескольких моделей. Оплата за использование — по модели pay-as-you-go.

👨‍💻 Кому будет полезно. Сервис найдет применение во всех сферах, где актуально машинное обучение. Evolution ML Inference можно использовать при создании ML- и DL-моделей для бизнеса, медицинских и образовательных учреждений, ретейла, кибербезопасности, производства и других областей.

✍️ Где, как и для чего использовать. Сервис подойдет для инференса LLM и TGI, диффузионных моделей и моделей-трансформеров, а также аудит-логирования. Какие задачи помогают решать модели:

  • распознавание объектов и речи;

  • прогнозирование поведения клиентов;

  • составление логистических маршрутов;

  • генерация текстов;

  • перевод, суммаризация и другие операции с текстом.

А больше об Evolution ML Inference можно узнать из доклада конференции GoCloud 2025 «Эволюция запуска ML-моделей» 😉.

Теги:
Рейтинг0
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: произошла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Оригинальный файл:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облакo [ Upd: администрация Telebox, как выяснилось, имеет доступ ко всем файлам, даже беспарольным архивам, и уже дважды удалила файл] и Web archive [здесь файл жив и здоров], чтобы у каждого была возможность покопаться в недрах этого конфига. Честно говоря, до сегодняшнего дня ни разу не пользовался данной моделью от Anthropic, теперь есть повод поэкспериментировать :).

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии0

Узнаем содержимое любого GitHub-репозитория за один клик с помощью универсального бесплатного ИИ-помощника Git-Friend.

Решение:

  • создаёт подробные и структурированные README-файлы для ваших проектов — это поможет сэкономить часы работы и сделать ваши труды более узнаваемыми.

  • делает саммари и гайды по любым репозиториям и досконально разжевывает их кодинговую базу

  • отвечает на вопросы, если вы застряли при анализе проекта или установке нового фреймворка.

  • скоро сервис сможет генерить диаграммы для еще более подробного анализа кода.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

AI-агенты в облаке: как они работают, зачем нужны — и как создать собственного

📅 13 мая | 18:00 (МСК) | Онлайн

На встрече поговорим о том, как устроены современные AI-агенты на базе LLM, какие архитектуры и инфраструктуры используются для их работы, и продемонстрируем создание агента в режиме live coding.

👨‍💻 Спикер — Михаил Дремин
Технический лидер Data Science-направления в Clоud.ru

🔍 В программе:
— Основы LLM-агентов и взаимодействие с внешним миром через инструменты (tools)
— Архитектурные подходы: Prompt chaining, ReAct, Evaluator-optimizer, ambient agents и другие
— Реальные кейсы использования
— Практическая часть: разработка собственного агента на Python (с использованием LangChain) и развертывание в облаке

💼 А также: представители компании расскажут о стажировке для студентов и молодых специалистов: какие направления доступны, как попасть в команду.

📌 Участие бесплатное

📎 Регистрация: https://mnlp.cc/mini?domain=digitalmipt&id=7

Теги:
Рейтинг0
Комментарии0

Тикток-блогер its_ken04, известная как Кен, опубликовала запись «собеседования», которая стала вирусной. В ролике ИИ-рекрутер 14 раз подряд повторяет фразу «vertical bar pilates», иногда запинаясь или заикаясь, пока Кен с невозмутимым видом смотрит на экран.

Девушка подавала заявку на работу в фитнес-центре. Кен рассказала, что компания заранее предупредила ее об использовании ИИ в процессе отбора, и платформа называлась Apriora. «Похоже, мне нужно было заслужить право говорить с человеком, ха-ха», — написала девушка в комментариях к видео.

Стартап Apriora обещает помочь компаниям «нанимать на 87% быстрее» и «проводить собеседования на 93% дешевле», поскольку может одновременно интервьюировать нескольких кандидатов. «Соискатели во многих случаях предпочитают проходить собеседование с ИИ, поскольку знание того, что интервьюер — это ИИ, помогает снизить тревогу, позволяя кандидатам проявить себя наилучшим образом», — заявили в компании.

Опыт Кен с Apriora был отрицательным. «Мне показалось это действительно жутким, я была в шоке», — сказала она. «Я не находила это смешным, пока не выложила тикток и комментарии не подняли мне настроение. Я была очень удивлена, я ничего не сделала, чтобы вызвать сбой, так что это было неожиданно. Я больше никогда не буду проходить это снова. Если другая компания захочет, чтобы я общалась с ИИ, я просто откажусь», — заявила блогер.

Теги:
Всего голосов 7: ↑7 и ↓0+11
Комментарии2

Вклад авторов