Pull to refresh
17
0
Send message

Распознавание речи (транскрибация) по аудиозаписям диалогов. Whisper. Личный опыт

Reading time5 min
Views14K

Распознаем речь по аудиозаписям диалогов сотрудников и клиентов.
Сохраняем по разным дорожкам, в тексте и с таймингом.
Модель Whisper, работаем в Colab.
Личный опыт.

Читать далее
Total votes 7: ↑6 and ↓1+8
Comments3

Осваиваем T5 (text-to-text transfer transformer). Fine-Tuning

Reading time4 min
Views4.9K

Бывает, что при изучении материала по обучающей статье что-нибудь не работает, хотя коды копируются прямо из статьи.

В данном случае по обучающей статье был сделан Fine-Tuning модели T5 (text-to-text transfer transformer) по задаче машинного перевода, и в целом все получилось.

Личный опыт.

Читать далее
Total votes 1: ↑1 and ↓0+1
Comments0

Варианты применения Искусственных Нейронных Сетей. Компьютерное зрение (Computer Vision)

Reading time10 min
Views4K

Искусственные Нейронные Сети являются мощными инструментами для решения многих задач и широко применяются различными организациями.

С некоторыми допущениями применение Искусственных Нейронных Сетей можно сгруппировать следующим образом:

Регрессия / Аппроксимация
Классификация / Кластеризация
Компьютерное зрение (Computer Vision)
seq2seq (Преобразование последовательности в последовательность)
Обработка естественного языка (Narural Language Process)

Данная статья посвящена примерам из группы задач "Компьютерное зрение (Computer Vision)"

Читать далее
Total votes 6: ↑4 and ↓2+3
Comments3

GPT без иллюзий. Насколько правдива генерация

Reading time4 min
Views4.1K

Известно, что генерация текста с помощью GPT (Genarative Pretrained Transformers) так или иначе основана на вероятности. Рассмотрим поподробнее, к чему приводит такой подход - насколько "правдива" или "обманчива" такая генерация.

Читать далее
Total votes 12: ↑6 and ↓6+1
Comments21

RuGPT3XL. Примеры генерации на русском языке (zero-shot coding)

Reading time6 min
Views3K

Давно известно, что Сбер разработал и опубликовал свою коллекцию генеративных текстовых моделей RuGPT3.

В данной статье тестируем ruGPT-3 XL прямо на демо-странице от Сбера.

Как проводится данное исследование:
даем RuGPT3 простые запросы.
"Простые" означает, что спрашиваем естественным образом, на естественном русском языке, без затравочных примеров и определения ролей.
Такие же запросы даем ChatGPT.

Читать далее
Total votes 5: ↑4 and ↓1+3
Comments16

RuGPT3. Исследование вариантов циклическим перебором

Reading time7 min
Views2.9K

RuGPT3 - коллекция моделей от Сбер

Проводим автоматическое тестирование циклическим перебором вариантов.

Работаем в Colab, тестируем Small, Mediub, Large.

Параметры генерации совершенно неоптимизированы - это первый заход, чтобы посмотреть исходную ситуацию и сравнивать по мере улучшения.

Алгоритм тестирования
полный последовательный перебор

10 вопросов
3 модели: Small, Medium, Large
Несколько наборов параметров внутри каждой модели
Реплики сохраняем в гугл-таблице

Читать далее
Total votes 6: ↑5 and ↓1+4
Comments2

О вариативности результатов обучения нейронных сетей

Reading time2 min
Views2.2K

В статье приводятся примеры результатов обучения нейронной сети (FNN с одним скрытом слоем, распознавание MNIST) сериями по 10 запусков на каждой паре (количество нейронов скрытого слоя, размера батча) и соответствующий вывод, связанный с вариативностью результатов.

Читать далее
Total votes 6: ↑6 and ↓0+6
Comments13

Анализ подбора гиперпараметров при обучении нейронной сети прямого распространения — FNN (на примере MNIST). Часть 2

Reading time4 min
Views1.3K

В статье приведено исследование, зависит ли точность от количества нейронов скрытого слоя и размера батча или это случайный разброс, вызванный рандомностью инициации весов и рандомностью формирования каждого батча.

Читать далее
Rating0
Comments2

Анализ подбора гиперпараметров при обучении нейронной сети прямого распространения — FNN (на примере MNIST). Часть 3

Reading time4 min
Views312

В статье рассмотрено влияние уменьшение шага обучения и Dropout на точность тестовой выборки при обучении FNN c одним скрытым слоем распознаванию изображений рукописных цифр из набора MNIST.

Читать далее
Rating0
Comments0

Об инициации весов при обучении нейронных сетей. Личный опыт и рассуждения

Reading time3 min
Views2.1K

Меня все время сильно смущало, что в градиентных алгоритмах инициация весов происходит как-то "небрежно" - случайным образом. Для математика, привыкшего к четкости, это было как-то сомнительно. Итак, задача - сравнить результаты различных вариантов инициации - стандартной рандомной и некоторых фиксированных.

В статье представлены результаты обучения с различными наборами инициации весов и предложены соответствующие выводы.

Читать далее
Total votes 7: ↑3 and ↓40
Comments10

Поиск глобального максимума общей полезности как задача для Искусственного интеллекта и bigdata

Reading time3 min
Views1.5K

Похоже, что Искусственный Интеллект уже достаточно освоился в нашем мире и пришла пора поручить ему реальные глобальные задачи человечества.

Читать далее
Total votes 7: ↑2 and ↓5-1
Comments11

Искусственный Интеллект в бизнесе. Внедряем сами и без затрат

Reading time4 min
Views3.3K

Многие ежедневные рутинные бизнес-процессы можно поручить Искусственному Интеллекту, освобождая время для более творческих или более эффективных задач.

В статье приведены примеры чат-ботов и голосовых роботов, постепенное внедрение которых возможно самостоятельно и без существенных затрат.

Читать далее
Total votes 6: ↑4 and ↓2+10
Comments0

Автоматический подбор гиперпараметров и архитектур нейронных сетей. Часть 1

Reading time8 min
Views4.6K

Начинаем создавать "управляющую" нейронную сеть, автоматически подбирающую гиперпараметры и архитектуры "контролируемых" нейронных сетей.

Читать далее
Total votes 2: ↑1 and ↓1+2
Comments16

Анализ подбора гиперпараметров при обучении нейронной сети прямого распространения — FNN (на примере MNIST)

Reading time10 min
Views6.3K

Фичей побольше, лямбду поменьше, еще dropout и batchsize...
- "играемся" с гиперпараметрами для практического понимания смысла значений и терминов.
Полезно при изучении обучения нейронных сетей.

Читать далее
Total votes 5: ↑5 and ↓0+5
Comments5

Учим нейросеть принимать решения на основе уже известного опыта (на примере Шахмат и загруженного датасета)

Reading time15 min
Views8.1K

Учим нейросеть играть в Шахматы, загрузив в нее датасеты уже сыгранных партий с известным результатом.

То есть никакого минимакса, деревьев и расчетов на несколько ходов вперед.
Идея в том, что если в нейросеть загрузить много партий, уже сыгранныx другими игроками, то нейросеть будет знать, как поступали другие игроки в соответствующих случаях и к какому результату это приводило. Нейросеть обобщит имеющийся опыт и будет делать ход на основе уже известного опыта и выявленных закономерностей, причем делать ход «мгновенно».

Читать далее
Total votes 9: ↑8 and ↓1+10
Comments13

Обработка естественного языка (NLP). Личный опыт — мой первый запуск BERT

Reading time4 min
Views4K

BERT — Bidirectional Encoder Representations from Transformers

Здесь не будет рассказываться о том, что такое BERT, как это работает и для чего применяется — в сети об этом достаточно информации.

Это статья про личный опыт — как конкретно у меня получилось запустить BERT с чистого Colab по конкретным описаниям.

Читать далее
Total votes 3: ↑2 and ↓1+3
Comments5

Бинарная классификация. Проблема равнозначности разделяющих прямых

Reading time7 min
Views4.6K

При обучении модели классификации объектов (подбор весовых коэффициентов) столкнулись с тем, что проблема НЕ В ТОМ, КАК НАЙТИ разделяющую прямую, а В ТОМ, КАКУЮ ИМЕННО ВЫБРАТЬ из полученного множества разделяющих прямых, одинаково удовлетворяющих условиям классификации.

В итоге дошли до двухступенчатой классификации.

Читать далее
Total votes 7: ↑7 and ↓0+7
Comments18

Подбор коэффициентов последовательным перебором. Сокращаем вычисления и ускоряемся в 1.8 (!) раза

Reading time14 min
Views1.7K

Простой полный последовательный циклический перебор... Куда уж проще ..

Именно так в предыдущей статье (Автоматический подбор синаптических весов. Самое начало. Циклический перебор) были подобраны коэффициенты.на примере определения цифры для 13-ти сегментного индикатора.

Можно ли что-то улучшить в этом самом простом алгоритме?
Оказывается, можно...

Сокращаем количество вычислений и ускоряемся в 1,8 (!) раза, получая на выходе те же коэффициенты.

Читать далее
Total votes 3: ↑1 and ↓2-1
Comments3

Искусственный Интеллект. Самообучение играм на победу на примере «Крестики-Нолики»

Reading time51 min
Views4.2K

Если робот сыграет сам с собою много-много партий, то сам научится хорошо играть.
Вот такую гипотезу мы сформулировали для обучения робота.

И это сработало (!)

За 100 секунд робот сыграл сам с собой 100 000 партий в "Крестики-Нолики" и теперь во время игры с оппонентом просто достает из памяти «лучший» ход.

Читать далее
Total votes 9: ↑9 and ↓0+9
Comments2
1

Information

Rating
Does not participate
Registered
Activity