Как стать автором
Обновить
3
0
Павел Стасиньски(Pawel Stasinski) @fuwiak

Пользователь

Отправить сообщение

Сомнительные советы, особо про использование ИИ, ATS системы часто отклоняют резюме, если увидят использование Generative AI.

В процесс обучения AI входит: 

  • сбор и подготовка данных (1-3 месяца). Сложности добавляют «грязные» данные (неверная информация), которые нужно чистить.

  • обучение и тестирование (2-6 месяцев). Подбираются алгоритмы, настраиваются гиперпараметры, проводится тестирование.

  • валидация (1-2 месяца). Проверка модели на тестовых и реальных кейсах бизнеса. Изучается корректность работы AI.

  • интеграция в продакшен (от 2-ух недель до нескольких месяцев). Модель внедряется в бизнес, подключается API и проводятся A/B-тестирования.





Эти строки взяты прямо из какой-то генеративной модели, даже вы не проверяете, что вставляете в сеть.

В статье упоминаются ключевые методы, которые влияют на точность RAG, но не приводится явных метрик, cможете сказать какие метрики вы использовали?

Я не совсем понимаю, почему все сравнивают MLFlow с Kubeflow. Действительно, у них есть общая функциональность, но сама идея Kubeflow гораздо шире, чем просто мониторинг и версионирование модели. Но я полностью согласен с автором, Kubeflow проблематичен в установке и поддержке, после многих проблем с ним у моих клиентов, я предлагаю другие решения((что угодно, только не Kubeflow :):):)), которые не создают таких частых проблем.

Чего мне действительно не хватает в этой статье, так это конкретных примеров, например, чтобы сделать бенчмарк на, например, titatic dataset и различных наборах параметров, , какой метод занимает сколько времени и т д.

Вы, ребята, придумываете все более и более слабые истории, видимо идет далеко не все по плану, если не смогли нанять толкового копирайтера.

Никто не хотел брать его на работу, но на фрилансе, где нужно быть гораздо более независимым и надежным специалистом, он уже пробился без проблем? Само описание процесса собеседования и описанных после него задач настолько инфантильно, что создается впечатление, что вся эта история произошла, но в "голове" автора.

Я понимаю, что это всего лишь перевод, поэтому здесь есть несколько ошибок и недосказанностей.

- в файле manifest не хватает "/" в пути
- не указано или это мак с процесором интель или м 1/2, для интеля нужно использовать такую строку

minikube start --driver=hyperkit --kubernetes-version=1.16.15      --cpus=6 --memory=8g --disk-size=40g --profile kf      --extra-config=apiserver.service-account-issuer=api      --extra-config=apiserver.service-account-signing-key-file=/var/lib/minikube/certs/sa.key      --extra-config=apiserver.service-account-api-audiences=api

иначе не сработает(все таки с проблемами, но хотя запупскаетя)

- Если у вас недостаточно оперативной памяти (менее 16 Гб, это все равно может не сработать, потому что некоторые поды не сработают).

Есть замечания:

  • В статье вы не показываете, как поделиться или сделать развертывание модели для производства, поскольку вы уже упомянули onnx.

    • "Я показал простой способ создать систему распознавания лиц, дающую довольно высокий уровень качества. "


    Мне не хочется вас огорчать, но без демонстрации матрицы ошибок "точность" абсолютно ничего не значит. И нельзя с уверенностью сказать. что это хорошая модель. Не говоря уже о кроссвалидации или проверке на переобучение

Все об ООП в Python хорошо, просто автор немного недостаточно образован и не совсем понимает, о чем он пишет...

Plot twist: Следущая статья - раскрываем возможности абонемента премюм в Yandex DataSphere :)))))))

Якобы в Яндексах все такие умники, а даже нормального How-to не выложили. Нет api для большой модели, не существует готовой урезанной средней или малой модели для обычных людей(в Google Colab). Не указано примера как настроить модель, как генерировать текст. Просто в статии указано пару нюансов для задротов и все. Достаточно присмотреться как сделал это банк на букву "C" и сделать так же.

У меня сложилось впечатление, что эта модель - просто один из неудачных экспериментов, который было жалко выбросить в мусор, поэтому она была выложена в Open Source, чтобы показать, какие замечательные модели создает Яндекс, и более того, это открытый исходный код!

Такую большую модель на практике могут использовать только университеты, обладающие большими вычислительными мощностями или другие гиганты, как хочет называться Яндекс (подозреваю, что у конкурентов уже есть свои модели и от Яндекса они не нужны). Вопрос в том, на кого именно рассчитана эта модель? Ни для маленьких, ни для больших эта модель не является очень полезной.

Я спрашивал про ваш опыт, другие benchmark смогу сам и найти.

Вы уже запускали эту модель продакшене? Есть ли разница в качестве сравнивая со старыми вариантами YOLO?

Тут не был уверен с переводом на русский, если на самом деле так есть, тогда изменю названия, спасибо!
Идея сама по себе супер, но статия это тыпичный clickbait.
Когда будет гораздо лучше чем на картинке в статье, тогда обязательно выложу)
Генерить да, только не советую потом выкладывать результат в интернет.
Интересно, а можно это сделать со стихами, например, Пушкина?

Можно попробовать с любом типом текста.
Сколько минимум нужно песен для обучения нейросети?

Минимально больше чем ноль. В принципе, чем больше, тем лучше.
Сделал REPО на public, уже должно работать. Если что, пишите в личку.
Уважемый Kordamon, со всем уважением, если эти курсы слишком для Вас сложные, то быть может подумайте про другой направлении?
1

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность