Распознаем речь по аудиозаписям диалогов сотрудников и клиентов.
Сохраняем по разным дорожкам, в тексте и с таймингом.
Модель Whisper, работаем в Colab.
Личный опыт.
User
Осваиваем T5 (text-to-text transfer transformer). Fine-Tuning
Бывает, что при изучении материала по обучающей статье что-нибудь не работает, хотя коды копируются прямо из статьи.
В данном случае по обучающей статье был сделан Fine-Tuning модели T5 (text-to-text transfer transformer) по задаче машинного перевода, и в целом все получилось.
Личный опыт.
Варианты применения Искусственных Нейронных Сетей. Компьютерное зрение (Computer Vision)
Искусственные Нейронные Сети являются мощными инструментами для решения многих задач и широко применяются различными организациями.
С некоторыми допущениями применение Искусственных Нейронных Сетей можно сгруппировать следующим образом:
Регрессия / Аппроксимация
Классификация / Кластеризация
Компьютерное зрение (Computer Vision)
seq2seq (Преобразование последовательности в последовательность)
Обработка естественного языка (Narural Language Process)
Данная статья посвящена примерам из группы задач "Компьютерное зрение (Computer Vision)"
GPT без иллюзий. Насколько правдива генерация
Известно, что генерация текста с помощью GPT (Genarative Pretrained Transformers) так или иначе основана на вероятности. Рассмотрим поподробнее, к чему приводит такой подход - насколько "правдива" или "обманчива" такая генерация.
RuGPT3XL. Примеры генерации на русском языке (zero-shot coding)
Давно известно, что Сбер разработал и опубликовал свою коллекцию генеративных текстовых моделей RuGPT3.
В данной статье тестируем ruGPT-3 XL прямо на демо-странице от Сбера.
Как проводится данное исследование:
даем RuGPT3 простые запросы.
"Простые" означает, что спрашиваем естественным образом, на естественном русском языке, без затравочных примеров и определения ролей.
Такие же запросы даем ChatGPT.
RuGPT3. Исследование вариантов циклическим перебором
RuGPT3 - коллекция моделей от Сбер
Проводим автоматическое тестирование циклическим перебором вариантов.
Работаем в Colab, тестируем Small, Mediub, Large.
Параметры генерации совершенно неоптимизированы - это первый заход, чтобы посмотреть исходную ситуацию и сравнивать по мере улучшения.
Алгоритм тестирования
полный последовательный перебор
10 вопросов
3 модели: Small, Medium, Large
Несколько наборов параметров внутри каждой модели
Реплики сохраняем в гугл-таблице
О вариативности результатов обучения нейронных сетей
В статье приводятся примеры результатов обучения нейронной сети (FNN с одним скрытом слоем, распознавание MNIST) сериями по 10 запусков на каждой паре (количество нейронов скрытого слоя, размера батча) и соответствующий вывод, связанный с вариативностью результатов.
Анализ подбора гиперпараметров при обучении нейронной сети прямого распространения — FNN (на примере MNIST). Часть 2
В статье приведено исследование, зависит ли точность от количества нейронов скрытого слоя и размера батча или это случайный разброс, вызванный рандомностью инициации весов и рандомностью формирования каждого батча.
Анализ подбора гиперпараметров при обучении нейронной сети прямого распространения — FNN (на примере MNIST). Часть 3
В статье рассмотрено влияние уменьшение шага обучения и Dropout на точность тестовой выборки при обучении FNN c одним скрытым слоем распознаванию изображений рукописных цифр из набора MNIST.
Об инициации весов при обучении нейронных сетей. Личный опыт и рассуждения
Меня все время сильно смущало, что в градиентных алгоритмах инициация весов происходит как-то "небрежно" - случайным образом. Для математика, привыкшего к четкости, это было как-то сомнительно. Итак, задача - сравнить результаты различных вариантов инициации - стандартной рандомной и некоторых фиксированных.
В статье представлены результаты обучения с различными наборами инициации весов и предложены соответствующие выводы.
Поиск глобального максимума общей полезности как задача для Искусственного интеллекта и bigdata
Похоже, что Искусственный Интеллект уже достаточно освоился в нашем мире и пришла пора поручить ему реальные глобальные задачи человечества.
Искусственный Интеллект в бизнесе. Внедряем сами и без затрат
Многие ежедневные рутинные бизнес-процессы можно поручить Искусственному Интеллекту, освобождая время для более творческих или более эффективных задач.
В статье приведены примеры чат-ботов и голосовых роботов, постепенное внедрение которых возможно самостоятельно и без существенных затрат.
Автоматический подбор гиперпараметров и архитектур нейронных сетей. Часть 1
Начинаем создавать "управляющую" нейронную сеть, автоматически подбирающую гиперпараметры и архитектуры "контролируемых" нейронных сетей.
Анализ подбора гиперпараметров при обучении нейронной сети прямого распространения — FNN (на примере MNIST)
Фичей побольше, лямбду поменьше, еще dropout и batchsize...
- "играемся" с гиперпараметрами для практического понимания смысла значений и терминов.
Полезно при изучении обучения нейронных сетей.
Учим нейросеть принимать решения на основе уже известного опыта (на примере Шахмат и загруженного датасета)
Учим нейросеть играть в Шахматы, загрузив в нее датасеты уже сыгранных партий с известным результатом.
То есть никакого минимакса, деревьев и расчетов на несколько ходов вперед.
Идея в том, что если в нейросеть загрузить много партий, уже сыгранныx другими игроками, то нейросеть будет знать, как поступали другие игроки в соответствующих случаях и к какому результату это приводило. Нейросеть обобщит имеющийся опыт и будет делать ход на основе уже известного опыта и выявленных закономерностей, причем делать ход «мгновенно».
Алиса (голосовой помощник Яндекса) играет в Шахматы
Эта статья - личный опыт, как я "учил" Алису (голосовой помощник Яндекса) играть в Шахматы.
Получилось интересно ...
Обработка естественного языка (NLP). Личный опыт — мой первый запуск BERT
BERT — Bidirectional Encoder Representations from Transformers
Здесь не будет рассказываться о том, что такое BERT, как это работает и для чего применяется — в сети об этом достаточно информации.
Это статья про личный опыт — как конкретно у меня получилось запустить BERT с чистого Colab по конкретным описаниям.
Бинарная классификация. Проблема равнозначности разделяющих прямых
При обучении модели классификации объектов (подбор весовых коэффициентов) столкнулись с тем, что проблема НЕ В ТОМ, КАК НАЙТИ разделяющую прямую, а В ТОМ, КАКУЮ ИМЕННО ВЫБРАТЬ из полученного множества разделяющих прямых, одинаково удовлетворяющих условиям классификации.
В итоге дошли до двухступенчатой классификации.
Подбор коэффициентов последовательным перебором. Сокращаем вычисления и ускоряемся в 1.8 (!) раза
Простой полный последовательный циклический перебор... Куда уж проще ..
Именно так в предыдущей статье (Автоматический подбор синаптических весов. Самое начало. Циклический перебор) были подобраны коэффициенты.на примере определения цифры для 13-ти сегментного индикатора.
Можно ли что-то улучшить в этом самом простом алгоритме?
Оказывается, можно...
Сокращаем количество вычислений и ускоряемся в 1,8 (!) раза, получая на выходе те же коэффициенты.
Искусственный Интеллект. Самообучение играм на победу на примере «Крестики-Нолики»
Если робот сыграет сам с собою много-много партий, то сам научится хорошо играть.
Вот такую гипотезу мы сформулировали для обучения робота.
И это сработало (!)
За 100 секунд робот сыграл сам с собой 100 000 партий в "Крестики-Нолики" и теперь во время игры с оппонентом просто достает из памяти «лучший» ход.
Information
- Rating
- Does not participate
- Registered
- Activity