Все потоки
Поиск
Написать публикацию
Обновить
1075.82

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

🧠 Инсайты про применение LLM 🧠

Уровень материала: 🦉 #management

Пока в столице гремел РЭД, я на выходных посещал другую локальную конференцию — KD Conf. Помимо приятного чувства, что на конференцию не надо никуда лететь/ехать, подхватил два интересных инсайта про внедрение LLM-моделей в процессы:

📃 Можно валидировать ГДД:

  • Проверить документ на противоречивость информации.

  • Проверить документ на достаточность информации.

  • Отформатировать документ под конкретный отдел. Т.е. переоформить так, чтобы с доком было удобно работать программистам, художникам и т.д.

🏷️ Можно валидировать описания для задач:

  • Проверить, что описание соответствует шаблону.

  • Проверить, что информация релевантная, а не ради удовлетворения шаблона.

  • Проверить, что предоставленной информации достаточно для выполнения задачи.

Делать это можно вручную, по необходимости, или автоматизированно через API.

Нужно только подобрать подходящий для команды набор промтов и следить, чтобы нейронка не нагаллюционировала лишнего 🤩

В этой схеме есть две явные проблемы — это конфиденциальность🛡️ и стоимость запросов 💵
Решается это развёртыванием внутренней корпоративной LLM. На конференции я чаще всего слышал про Llama от Meta. И мы в команде тоже как раз смотрим в сторону этого решения.

Мероприятие было «не геймдевное» — весь этот опыт исходил от энтерпрайза, банкинга и прочего бигтеха. Поэтому интересно, пробовали ли кто уже в геймдеве вводить в процессы подобные инструменты❓

————————————

#gamedev #development #llm #ai #pipeline #геймдев #разработка #процессы #управление #ии #вопрос

Теги:
Рейтинг0
Комментарии0

Шесть прогнозов для ИИ в 2025 году от CEO и Co-Founder Hugging Face
(и обзор того, как сложились мои прогнозы на 2024 год):

Оригинальный пост

  1. Состоится первая крупная публичная акция протеста, связанная с ИИ

  2. Крупная компания увидит, как ее рыночная капитализация сократится вдвое или более из-за ИИ

  3. Будет предварительно заказано по крайней мере 100 000 персональных ИИ-роботов

  4. Китай начнет лидировать в гонке ИИ (как следствие лидерства в области открытого исходного кода ИИ)

  5. Произойдут большие прорывы в ИИ для биологии и химии

  6. Мы начнем видеть экономический потенциал и рост занятости благодаря ИИ, с 15 млн разработчиков ИИ на Hugging Face

Как сложились мои прогнозы для ИИ на 2024 год:

  1. Разрекламированная компания в сфере ИИ обанкротится или будет приобретена по смехотворно низкой цене

✅ (Inflexion, AdeptAI,…)

  1. Открытые LLM достигнут уровня лучших закрытых LLM

✅ с QwQ и десятками других

  1. Большие прорывы в ИИ для видео, временных рядов, биологии и химии

✅ для видео 🔴 для временных рядов, биологии и химии

  1. Мы будем гораздо больше говорить о стоимости (денежной и экологической) ИИ

✅ Денежной 🔴 Экологической (😢)

  1. Популярные СМИ будут в основном сгенерированы ИИ

✅ с NotebookLM от Google

  1. 10 миллионов разработчиков ИИ на Hugging Face, что не приведет к увеличению безработицы

В скором времени, пока что в их 7 млн на Hugging Face

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

«Сюрреалистичная старость»: эксперимент с AI-моделью Sora от OpenAI

Профессиональный фотограф Эудженио Маронью, получивший доступ к альфа-версии Sora от OpenAI, создал проект «Сюрреалистичная старость» ("Surreal Elderhood"). В своей работе автор стремился найти баланс между сюрреализмом и фотореалистичностью.

По отзывам первых пользователей, работа с Sora может быть непростой, а результаты не всегда предсказуемы. Несмотря на противоречивость самой модели, это не останавливает таких людей, как Маронью, от экспериментов с ней.

По словам фотографа, Sora значительно упростила его рабочий процесс. При этом он отмечает, что основные временные затраты пришлись на разработку концепции, тестирование и редактирование – весь проект занял около двух дней.

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии0

Теория когнитивной нагрузки предоставляет мощную основу для понимания того, как мы обрабатываем и усваиваем информацию, разделяя когнитивную нагрузку на три типа:

  1. Внешняя когнитивная нагрузка (Extraneous Cognitive Load, ECL): Возникает из-за способа представления информации.

  2. Внутренняя когнитивная нагрузка (Intrinsic Cognitive Load, ICL): Связана со сложностью самого материала.

  3. Герменная когнитивная нагрузка (Germane Cognitive Load, GCL): Отражает усилия, направленные на активную обработку информации и автоматизацию схем.

В контексте образовательных технологий, большие языковые модели (LLMs) открывают уникальные возможности для оптимизации когнитивной нагрузки:

  • Предоставляя прямые и лаконичные ответы, LLMs снижают внешнюю когнитивную нагрузку, связанную с необходимостью синтезировать информацию из множества источников.

  • Это освобождает ментальные ресурсы, позволяя сосредоточиться на учебных целях.

Однако существует компромисс. Снижение герменной когнитивной нагрузки (GCL), наблюдаемое при использовании LLMs, может ограничить глубокое взаимодействие с материалом и развитие сложных схем по сравнению с традиционными методами поиска. Работа с разнообразной и сложной информацией в ходе традиционного WEB-поиска способствует более глубокому пониманию и развитию критического мышления, что усиливает долгосрочное обучение.

Основной вывод: хотя LLMs упрощают доступ к информации и поддерживают быстрое усвоение знаний, критически важно поддерживать глубокое взаимодействие с материалом для освоения сложных концепций и формирования развитых навыков рассуждения.

https://pdf.sciencedirectassets.com/271802/1-s2.0-S0747563224X00072/1-s2.0-S0747563224002541/main.pdf

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Чат-бот ChatGPT не может дать ответ на вопрос о том, кто такой David Mayer и ещё несколько людей. Причина такой цензуры только на английском языке непонятна. На других языках ИИ отвечает без ошибки.

Теги:
Всего голосов 2: ↑1 и ↓1+2
Комментарии1

То, как продукт позиционируется — как "умный" (smart) или "основанный на ИИ" (AI-powered) — может существенно влиять на восприятие, отношение и решения потребителей о покупке. Недавние исследования выявляют интересные различия в том, как эти термины влияют на поведение потребителей:

  • Продукты с пометкой "умный" воспринимаются значительно более положительно, чем те, которые обозначены как "основанные на ИИ".

  • Потребители связывают "умные" продукты с более высоким качеством и проявляют большую готовность к их покупке. Кроме того, эмоциональная реакция (валентность) на "умные" продукты более положительна.

  • Напротив, позиционирование продукта как "основанного на ИИ" может вызывать беспокойство, что снижает мотивацию потребителей к его приобретению.

Этот тонкий, но важный нюанс подчеркивает значимость языка в маркетинге и разработке продуктов. Несмотря на то, что искусственный интеллект играет революционную роль в современной технологии, способ его представления может либо укрепить доверие потребителей, либо вызвать сомнения.

Для компаний, использующих ИИ, важно сосредотачиваться на понятных и обнадеживающих повествованиях, например, подчеркивать "умные" возможности продукта. Такой подход может помочь преодолеть разрыв между инновациями и доверием потребителей.

https://pdf.sciencedirectassets.com/271802/1-s2.0-S0747563224X00084/1-s2.0-S0747563224002735/main.pdf

Теги:
Рейтинг0
Комментарии0

Добрый вечер, уважаемые хабровчане!

Тандем Модемов выпустил вторую часть кибер-панк частушек, которой я спешу поделиться с вами.

В этот раз аудио было сгенерено в Suno, после того, как Udio показал себя совершенно ужасно. Видимо, они что-то поломали в своей сетке, потому что раньше он был лучше, чем конкурент. Теперь же - просто не сравнить, небо и земля.

Suno же сходу выдал так любимые мной ирландские мотивы в сочетании с нашими, исконными частушечными, этот проигрыш заставил меня сразу позабыть про эксперименты в Udio и перейти на Suno окончательно)

Графика - в основном Flux (запущенный локально) со вкраплениями Midjourney (Dall-e эту гонку проиграл).

Хорошего вам пятничного вечера и приятного просмотра!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Привет, Хабр!

В октябре на конференции Joker мы представили EAP версию Explyt Test, плагина для IntelliJ IDEA Community, который умеет генерировать тесты на базе AI и формальных методов. Мы получили много интересных и, временами, неожиданных комментариев от участников о том, что они ждут от автоматической генерации тестов и способен ли им в этом помочь AI.

Общение с живыми людьми и обратная связь повлияли на то, какая функциональность в итоге была добавлена в первый публичный релиз Explyt Test 2.0:

  • поддержана совместимость с IntelliJ IDEA 2024.3 и K2 для IntelliJ IDEA 2024.2+

  • добавлен AI ассистент Explyt Chat, который умеет объяснять код, находить в нем ошибки, поддерживает вложения и отвечает на любые вопросы пользователя

  • добавлена возможность применять Explyt фиксы не только для сгенерированного Explyt кода, но и для чужого кода

  • добавлена возможность управления выбором примера тестов при генерации и ввода дополнительных промптов

  • добавлен анализ эффективности Ollama моделей: модели низкого качества помечаются как нерекомендуемые (not recommended)

  • оптимизированы алгоритмы сбора контекста приложения, установки зависимостей, разрешения неоднозначных импортов при автоматизированном применении квикфиксов

  • поддержана совместимость с Android Studio Koala и Android Studio Ladybug (часть функциональности)

Генерация тестов:

  1. Генерация Gherkin сценариев и тестов по исходному коду

  2. Генерация дополнительных тестов с учётом существующего покрытия

  3. Исправление тестов: обеспечиваем их компилируемость и корректное выполнение

  4. Управление генерацией: выбор примеров и задание дополнительных инструкций для языковой модели, редактирование сгенерированных сценариев и создание собственных 

  5. Подготовка проекта к генерации тестов: поиск используемых тестовых фреймворков, установка дополнительных зависимостей при необходимости

AI ассистент Explyt Chat:

  1. Получение ответов на произвольные вопросы от языковой модели. Запрос может быть дополнен фрагментами кода проекта

  2. Объяснение работы кода и нюансов его использования. Action: Explain Code

  3. Анализ кода на предмет потенциальных ошибок в реализации. Action: Analyze for Bugs

Пользователи могут обращаться к языковым моделям как через серверы Explyt, так и с использованием собственных API-ключей. Поддерживаются модели от различных провайдеров (OpenAI, DeepSeek и др.), а также возможно использование локальных моделей Ollama.

Скачать плагин можно на сайте, для багрепортов и фичреквестов – GitHub Issues, для новостей и общения – телеграм.

Это наш первый публичный релиз, и хочется понять, то мы делаем или не то 🫠 снимает ли плагин часть проблем с генерацией тестов с разработчиков и тестироващиков, или мы это себе придумали. Будем благодарны за обратную связь в комментариях. 

Теги:
Всего голосов 13: ↑13 и ↓0+18
Комментарии0

В машинном обучении существуют модели, способные работать с данными в разных форматах, например — с текстом и изображениями. Причём, во втором случае они умеют не просто распознавать объекты в отдельных кадрах, но и обнаруживать между ними сложные пространственно-временные отношения, анализируя видеоролик в целом.

Такие модели называют LVLM (Large Vision Language Model), или большие зрительно-языковые модели. В их разработке используется архитектура трансформеров, что позволяет им эффективно обрабатывать большие объёмы данных.

LVLM применяются в основном для автоматического аннотирования видеозаписей, что экономит миллионы часов ручного труда. С их помощью составляется описание для роликов на YouTube и других сервисах видеохостинга. Также LVLM могут применяться для создания текстовых описаний к записям с камер видеонаблюдения и последующего поиска по ним.

Наиболее мощными LVLM сегодня считаются VideoLLaMA2, LLaVA-NEXT-Video, Video-LLaVA, VideoChat2, Tarsier и ShareGPT4Video. Из них Taiser генерирует самые точные (но и самые краткие) аннотации, а ShareGPT4Video хоть и впечатляет объёмными описаниями, чаще других галлюцинирует и повторяется.

На коротких фрагментах современные LVLM уже могут описывать видео с приемлемой детальностью. Однако им всё ещё сложно работать с контекстом при анализе длинных видеороликов, особенно с частой сменой планов.

Недавно китайскими исследователями был предложен тест FIOVA (Five In One Video Annotations) для оценки качества работы LVLM. В нём используется сравнение сразу с пятью аннотациями независимых авторов, а длина сравниваемого текста увеличена как минимум в 4 раза.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Результаты исследования подчеркивают как потенциал, так и ограничения использования больших языковых моделей (LLMs) для автоматизированной оценки эссе. LLM, несмотря на высокую степень согласования с оценками людей по языковым критериям, склонны завышать итоговые оценки. Модели GPT-4, o1 и Mixtral в среднем выставляют более высокие баллы, чем человеческие эксперты.

Закрытые модели, особенно o1, демонстрируют большую надежность при повторных запусках и более сильную корреляцию с человеческими оценками по сравнению с открытыми моделями, такими как LLaMA 3 и Mixtral. Модель o1 показала высокую корреляцию в восьми из десяти категорий оценки, особенно тесно совпадая с человеческими суждениями по языковым аспектам.

https://arxiv.org/pdf/2411.16337

Теги:
Рейтинг0
Комментарии0

Друзья, приглашаем на новый бесплатный вебинар «Генеративные модели в продуктовой разработке: от интервью до метрик»

В работе над продуктом много рутины: генерация вопросов для интервью и анализ их результатов, организация А/B тестов, классификация и подбор метрик и другие. На вебинаре рассмотрим, как часть рабочих задач менеджера продукта передать нейросетям — для чего достаточно промптов, а где уместно применить более сложные пайплайны.

📅 Дата: 29.11.2024

⏰ Время: 15:00-16:00 (Мск)

Содержание:

✔️ Задачи в продуктовой разработке

✔️ Подбор клиентов

✔️ Вопросы для интервью

✔️ Анализ транскриптов

✔️ Постоянное исследование и улучшение

✔️ Метрики

👨‍🎓 Спикер: Брейман Александр — эксперт Учебного центра IBS, кандидат технических наук, доцент департамента программной инженерии ФКН ВШЭ.

✍️ Записаться

Теги:
Рейтинг0
Комментарии0

Итоги хакатона: ML, ГОСТ, металлургия

Привет! Вот и мы с итогами!

Мне нужны твои решения для обработки текстов ГОСТов
Мне нужны твои решения для обработки текстов ГОСТов

На прошедшем хакатоне участники пытались приручить ГОСТы и создать инструмент, ищущий испытания по заданным характеристикам изделий и материалов. Легко сказать! Подача информации в ГОСТах — настоящий ужас программиста. Все расположено и структурировано нетипично. Запросы пользователей прилетают в произвольной форме. Участникам предлагалось покреативить и подключить ИИ, чтобы разобраться с этим беспорядком. Подробности в анонсе.

В хакатоне приняло участие около 30 человек. Мы протестировали все решения и выбрали три лучших:

3 место занял Андрей Леонов. Его решение основано на создании базы вопросов и ответов. Система ищет пару вопрос-ответ с помощью специального метода без использования ИИ. Мы присудили третье место за оригинальный подход.

2 место досталось Носко Виктору. Он адаптировал готовую ML-модель под наши задачи. Решение отлично понимает запросы, выдает верные результаты, но работает только через веб-интерфейс, а закрытый код усложняет доработку и интеграцию.

А победу мы отдали команде Игоря Пластова и Литаврина Ярослава. Они разработали систему на основе ИИ, которая предобрабатывает тексты ГОСТов в разных форматах и выдает точные рекомендации по запросам в свободной форме. Алгоритм имеет высокую точность и открытый код, то есть готов к интеграции.

Планируем как можно скорее внедрить и проверить решение победителя в деле! Хакатон зашел на ура, так что точно будем проводить такие штуки еще! Следите за анонсами!

Теги:
Всего голосов 6: ↑5 и ↓1+8
Комментарии3

Открываем пользователям облака доступ к AI Assistant API — инструменту для быстрого создания умных ассистентов

Сегодня мы запустили AI Assistant API — сервис, который помогает быстро создавать умных ассистентов на базе большой языковой модели YandexGPT. В его основе — объединение LLM с технологией поиска по базам знаний RAG, которая позволяет интегрироваться с внешними системами.

AI Assistant API открыт всем пользователям Yandex CLoud в режиме Public Preview и доступен через ML SDK в сервисе Foundation Models.

Как это работает на примере AI‑ассистента для оформления командировок:

  • Создание ассистента доступно в удобном интерфейсе, поэтому с сервисом могут работать сотрудники без глубокой экспертизы в Data Science.

  • Разработчик умного ассистента может выбрать подходящую версию YandexGPT — Lite или Pro, настроить уже обученные версии модели и адаптировать под свои задачи компоненты сервиса: параметры генерации текста и базы знаний, к примеру, в которой хранятся сведения о внутренних процессах оформления командировок.

  • Пользователь AI‑ассистента формулирует запрос, например на оформление командировки в Санкт‑Петербург. Умный помощник анализирует запрос в контексте всей беседы и обращается к нужной базе знаний. На основе анализа диалога и информации из базы ассистент формирует релевантный ответ с инструкциями.

Также при росте нагрузки сервис автоматически масштабируется. Более подробно ознакомиться с возможностями настройки можно в документации AI Assistant API.

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии0

Ближайшие события

Так выглядит измерительный стенд инженеров, разрабатывающих операционную систему kvadraOS

Этот нехитрый стенд позволяет детально изучить, сколько энергии под нагрузкой потребляют те или иные компоненты планшета. Он состоит из планшета массовой партии, измерительной аппаратуры и тестовых линий от измерительного прибора к точкам подключения на материнской плате планшета.

На таком стенде, например, можно оценить константную нагрузку от включенного экрана. Это необходимо для проведения более чистых экспериментов по оценке энергоэффективности отдельных функций планшета.

Оценить константную нагрузку несложно:

  • Сначала зарядим планшет до 100%, выдернем шнур USB и дадим планшету полежать с выключенным экраном ровно 2 часа. В нашем эксперименте планшет за два часа разрядился на 1%. Это уровень потребления устройства в состоянии покоя. Значит, все потребление энергии, которое мы измерим потом, будет скорее связано с дополнительными нагрузками.

  • Затем запретим экрану выключаться, опять зарядим планшет до 100%, выдернем шнур USB и дадим планшету полежать уже с включенным экраном, тоже ровно 2 часа. На этот раз планшет разрядился на 9%. Если первая проверка, с выключенным экраном, проверяла, что нет катастрофических аномалий с железом, то эта проверка говорит, что эти 9%, собственно, накладные расходы от включенного экрана и активного CPU с запущенной на нем ОС.

Для каких экспериментов понадобилась такая константа, читайте в статье → 

Теги:
Всего голосов 11: ↑10 и ↓1+12
Комментарии4

Бесплатные нейросети для работы и учёбы

Изображения

Шедеврум — понимает запросы на русском, английском и казахском. Сохранить результат можно только после публикации.

Craiyon — картинки в четырёх стилях, подсказывает, как сделать запрос точнее. Лучше общаться на английском. Бесплатно — изображения в низком качестве с водяным знаком.

Playground AI — бесплатно доступно 15 изображений каждые 3 часа без потери качества и водяных знаков. Понимает запросы на русском языке. Можно регулировать детализацию и точность соответствия запросу. Умеет редактировать изображения. Есть совместный доступ.

Звук

Whisper JAX — преобразует аудио в текст на разных языках. Подойдёт для транскрибирования интервью, лекций, выступлений.

Audo Studio — для обработки. Умеет подавлять шум, выравнивать громкость, убрать шипение. Бесплатно 20 минут в месяц.

Текст

GigaChat — может генерировать тексты, изображения, код. Распознаёт речь и озвучивает ответы, делает пересказ. Нейросеть запоминает предыдущие запросы. Нужна регистрация.

Rytr — создаёт тексты для блогов, соцсетей и рекламы на 37 языках, проверяет плагиат. Бесплатно можно написать до 10 000 символов в месяц.

YandexGPT  — бесплатно пишет, обрабатывает, переводит тексты в разных жанрах. Отвечает на вопросы, ведёт диалог. Обучена на русскоязычных текстах.

На бесплатном курсе «YandexGPT для начинающих» вы научитесь автоматизировать рутину и узнаете, как использовать ИИ в маркетинге, аналитике, менеджменте и других сферах IT.

Теги:
Всего голосов 3: ↑2 и ↓1+2
Комментарии2

Одна из фич моей читалки новостей — автоматическая генерация тегов с помощью LLM. Поэтому я периодически занимаюсь prompt engineering — хочу чтобы теги были лучше, а платить было меньше.

И вот дотюнил я промпты до состояния, когда вроде всё работает, но осадочек какой-то остаётся: правильные теги определяются, но кроме них создаётся ещё 100500 бесполезных, а иногда даже совсем неверных.

Вариантов действий в таких случаях кот наплакал:

  • Собрать обучающие данные и дообучить модель делать только правильные теги.

  • Построить цепочку акторов, где один будет создавать теги, а другой — отсеивать лишние.

  • Попытаться как-то радикально переработать промпт.

На варианты 1 и 2 нет ни денег не времени. Моя текущая стратегия — использовать только готовые ИИ решения, так как в одиночку за отраслью не угнаться. Поэтому пришлось браться за третий.

В процессе рефакторинга получилось пересмотреть подход к промпту ммм… с developer-cetric точки зрения на user-centric.

На мой взгляд это интересный разворот, поэтому я подробно описал его у себя в блоге:

https://tiendil.org/ru/posts/prompt-engineering-building-prompts-from-business-cases

Теги:
Всего голосов 2: ↑1 и ↓1+2
Комментарии0

Всё чаще слышно про подключение ИИ к процессу код-ревью. Звучит круто, но есть нюансы.

AI-ревьюеры сегодня напоминают слишком старательного джуна: пытаются найти проблемы даже там, где их нет. В хорошо написанном коде они умудряются находить множество "проблем", создавая лишний шум. В итоге разработчики тратят больше времени на фильтрацию этих замечаний, чем на исправление реальных проблем.

Кроме того, AI смотрит только на код в текущем PR, не понимая ни архитектуры проекта, ни бизнес-требований. В итоге выдает технически правильные, но часто бесполезные рекомендации. Особенно это заметно в крупных проектах, где каждое изменение влияет на кучу связанных компонентов. Где есть "исторически сложившееся"

Код-ревью — это не только поиск багов. Это обмен опытом и обсуждение подходов. AI не может понять, подходит ли решение для конкретной команды, насколько оно масштабируемо и как впишется в существующую кодовую базу.

Сильные стороны AI все же есть. Он никогда не устает и не пропускает очевидные ошибки. Он быстро проверяет синтаксис, ищет типовые уязвимости, следит за стандартами кодирования. Может быстро проверить форматирование, найти потенциальные утечки памяти, отследить использование устаревших методов API. Это реально экономит время.

Поэтому AI в код-ревью лучше использовать как доп помощника - базовые проверки и очевидные ошибки. А разработчики-люди всё еще нужны для работы с пониманием контекста.

Приглашаю всех подписаться на мой канал https://t.me/crossjoin

Теги:
Всего голосов 7: ↑3 и ↓4+1
Комментарии1

Надёжность двух чат-ботов, ChatGPT (версии 4o и o1-preview) и Gemini Advanced, была оценена в контексте предоставления ссылок на финансовую литературу и использования новых методологий.

У ChatGPT-4o уровень галлюцинаций по бинарной метрике («галлюцинация» или «без галлюцинации») составил 20,0% (доверительный интервал 95%, 13,6%-26,4%), а по альтернативной метрике — 10,8% (доверительный интервал 95%, 4,6%-13,9%). У o1-preview уровень галлюцинаций по бинарной метрике составил 21,3% (доверительный интервал 95%, 14,8%-27,9%), а по альтернативной метрике — 11,0% (доверительный интервал 95%, 6,0%-16,0%).

https://arxiv.org/pdf/2411.07031

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Яндекс разработал этические принципы синтеза речи

Соблюдение приватности пользовательских данных — одна из ключевых задач сервис‑провайдеров, которая решается с помощью комплекса мер безопасности.

Но при работе с ML‑технологиями могут быть не всегда очевидные риски, о которых должны знать все участники процесса обработки данных. Например, те, чьи голоса используются для синтеза речи.

Для защиты прав дикторов Яндекс создал принципы работы с синтезом речи. Команды Яндекса соблюдают этот кодекс и рекомендуют его к использованию в индустрии.

Принципы синтеза речи

  1. Мы не синтезируем речь людей без их разрешения

  2. Мы информируем дикторов о том, как будут использоваться их голоса

  3. Мы храним и обрабатываем данные таким образом, чтобы они всегда оставались в безопасности

  4. Мы сохраняем за собой право ограничивать сценарии использования нашей технологии синтеза речи

Данные, которые обрабатываются на стороне сервис‑провайдера, например, записи голосов, хранятся в дата‑центрах, отвечающих строгим стандартам в сфере информационной и физической безопасности.

Доступ к данным имеет ограниченное количество сотрудников — только те, кому они непосредственно нужны в работе. Такие сотрудники проходят инструктаж.

Когда пользователи синтезируют речь через API Yandex SpeechKit, сервис‑провайдер не имеет доступа к исходному тексту и результатам синтеза. Если партнёр синтезирует речь с помощью технологии Яндекса на своём сервере, провайдер также не имеет доступа к таким данным.

Полная версия принципов синтеза речи

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии1

Бесплатный бот Спич для расшифровки голосовых и кружочков

Бот впервые увидел свет год назад и успел собрать много довольных пользователей и отзывов. После перезапуска бот снова работает, всё ещё бесплатно и без ограничений.

Бот расшифровывает голосовые и кружки в текст. Можно переслать ему сообщение или добавить в чат, тогда он будет переводить все гс и кружки от всех участников.

Полезно если под рукой нет наушников, вы на важном совещании или просто не любите гс и кружки.

Ссылка на бот: https://t.me/speech_me_bot
Подробнее о боте в старой статье > https://habr.com/ru/articles/779 644/

Предвещая возможное подозрение на пиар, предлагаю заглянуть в коменты прошлого поста и опрос в конце; действительно многим людям бот оказался полезен, многие писали лично, именно в связи с этим пишу пост о том что бот перезапущен.

Только добра.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии6

Вклад авторов