Pull to refresh

Comments 45

Судя по вакансиям расклад все таки другой

1) Яндекс, подавляющее кол-во вакансий от HR это RAG проекты. Хотя описано про ML/AL как только начинаешь общаться, оказывается RAG.

2) Сбер, часть чисто ML по метрикам оценки разных систем, типа онлайн кинотеатра (условно). Большая часть это чисто RAG, langchain в обвязке Сбера. ML метрики для обучения LLM моделей. Ни новые архитектуры, ни новые решения или r&d.

3) Тинькофф - RAG и недавно присылали, что собираются делать систему на базе открытой для обучения ИИ управлять компом или приложением (забыл). Замахнулись на то, что сами слабо понимают. Опять взять опенсоурс и обучать.

4) ВК - тоже по-моему в основном RAG предлагают под соусом AI/ML. Либо считать ML метрики в разных системах.

5) МТС точно не помню, что то пытались они в синтез речи. Но судя по результатам , вышло хреново.

То есть все сводится к тому, что обучать в лучшем случае готовые решения. Но чаще всего работа с RAG. Или делать обвязку вокруг готовых ACR, TTS. Ничего нового.

В целом, сетки конечно есть, пытаются то VITs для синтеза речи обучить, то tacatron2. Тоже с остальным. То есть в реальности, работа в том, что делать обвязки, готовить данные по ML метрикам, внедрять RAG и так далее.

Это не хорошо не плохо. Наверное продуктовые компании так и должны делать. Но реальным AI/ML исследованиями заниматься там все равно не будешь. В лучшем случае оптимизировать текущие, перебирая токенизаторы и гиперпараметры, считая метрики для бенчмарок.

На фоне DeepMind или deepseek это выглядит очень печально.

Вспоминаются критерии при отборе в гугл

  1. Внедрял RAG в 2023 году = +10 очков

  2. Внедрял RAG в 2025 году = -10 очков

А где посмотреть эти критерии?

Где-то на реддите видел

Запомнилась только эта часть

Если серьезно, то ничего плохого в повсеместном написании обвязок и RAGов нет

Практика показывает, что индустрия пока что не научилась нормально продукционализировать ИИ. Вот взять даже гугл - войсоверы и автосубтитры на ютубе - полное говно; над ИИ-саммари в поиске постоянно стебутся. Видать, толковых "внедрителей RAGов" им все-таки не хватает

Плюс, вы привели в пример российские компании. О каком серьезном R&D может идти речь, когда мощные GPU вообще нельзя завозить в страну?

Поясните пожалуйста мысль про полное г субтитров на ютубе. Включаю периодически английские, не сказал бы, что полное.

Он справляется только на английском в спокойных видео, да и то ошибок намного больше, чем у виспера 2022 года

  1. Не справляется с музыкой и громкими фоновыми звуками: сразу начинает выдавать дичь. С фильмами работать не способен

  2. Пунктуация часто отсутствует

  3. Работает только на нескольких самых популярных языках. Чем дальше - тем хуже. На русском уже ужасно. На каком-нибудь японском абсолютно несмотрибельно ни при каких условиях. На армянском - просто не умеет

  4. Очень часто ютуб считает, что видео слишком сложное для транскрибации, и не делает субтитры вообще

  5. Иногда ошибается даже в распознавании языка: принимает армянский за турецкий (они даже не родственны, хотя турецкий повлиял на армянский в ходе истории), а украинский за русский

Вдобавок, очень криво переводит субтитры. Сейчас можно переводить намного лучше

В общем, виспер 2022 года просто на голову выше, а ведь с тех пор ASR развивалось: ElevenLabs Scribe намного лучше виспера на сложных языках

Перевод с японского
Перевод с японского
UFO landed and left these words here

Можете подсказать, где в России на подобного типа 'диалекте'? Так как Россия централизована, русский практически один и тот же ат Калининграда до Владивостока. Посмотрите на Германию, вот там обилие диалектов

אַ שפּראַך איז אַ דיאַלעקט מיט אַן אַרמיי און פֿלאָט
a shprakh iz a dyalekt mit an armey un flot

Нет, украинский это не диалект русского. Учите лингвистику. Узнаете много нового, например, про существование древнерусского языка и про то что древнерусский != русский и много чего ещё интересного

Ни чего не имею против RAG. Речь шла о том, что из себя представляет на сегодня рынок AI/ML в России. Подавляющее число это RAG (который тоже требует метрик) либо расчет ML метрик для статистики. То что раньше считали в Excel, различные мат методы статистики, теперь перешло в ML. Но ML в продуктовых компаниях, где надо найти метрики по заказам ВкуссВилл и другие подобные, очень поверхностно затрагивает тему машинного обучения. А так вакансии RAG это сегодняшние вакансии AI/ML во всех крупных компаниях в РФ, недавно HR из СберЗдоровье писал, тоже RAG.

Мое личное мнение, что RAG это не совсем AI/ML, это что то среднее. Так как это работа с готовыми фреймворками LangChain (или подобных) с их API, а не с нейронками. Но при этом надо знать различные ML метрики, хотя их набор небольшой для оценки результата. Поэтому отчасти RAG можно отнести к ML.

Что касается R&D, то это не так. Речь не про просто обучение на готовых открытых моделях, как это делает Сбер или Тинькофф, а как DeepMind именно исследования. Тут не нужны видеокарты. Да и у Сбера приличное кол-во видеокарт, они сдают в аренды GPU сервера облачные. Здесь дело в самом подходе, приоритетах, мышлении.

Тут не нужны видеокарты

Еще как нужны. Эксперименты на маленьких масштабах далеко не всегда дают достаточное представление о том, как все будет работать на больших. Не говоря уже о том, что для вау-эффекта а-ля Сора (который нужен для инвестиций) нужно обучить большую модель. Плюс, нужен выход на зарубежные рынки, чтобы в итоге окупать свои R&D

Да и у Сбера приличное кол-во видеокарт, они сдают в аренды GPU сервера облачные.

Технологии GPU не стоят на месте. Самые новые видеокарты Сберу не продадут, а на старых Сбер не выдержит конкуренции с западными моделями

Российский ML сейчас - просто бледная тень самого себя образца 2021 года. Путин убил российский ML (да и IT в целом), точно так же, как Гитлер убил немецкую науку, на тот момент лучшую в мире

Вы путаете фундаментальные исследования и оптимизацию и производственные масштабирование продуктов. Для того, чтобы разработать трансформер, достаточно 1 нормальной видеокарты и работы. Чтобы разработать модель гиппокампа - deepmind не нужно было сотен видеокарт, так как они исследовали соответствие обучаемой модели и нейронов у крысы.

Откуда вы вообще взяли про видео карты? Причем тут обучение модели на открытых моделях и исследования? Вы пишете об оптимизации, дообучении - это сбер и яндекс как раз и делает на открытых моделях, внося косметические изменения. Я же говорю про R&D. Я говорю о том, что надо работать над разработкой "станков", а вы пишите - что не могут разработать станки, так как заводы не построены, площадей для этого нет, чтобы много станков поставить. Что вы собрались масштабировать? Если вы не занимаетесь исследованием и разработкой. Закупка чужих станков на свой завод - это не R&D, это производство продукта. Это нормальное явление. Но дело не видеокартах, а в подходе. "Плохому танцору яйца мешают", так что дело не в видеокартах, а мозгах.

Российский ML сейчас и до - не было. Был продуктовый AI/ML, а R&D и это разные вещи. Вам про исследования, а вы про производство. Вы путаете понятия R&D и разработку продукта.

Тут палка в двух концах, исследовать теоретически архитектуру можно, да, и на простых данных посмотреть будет ли они работать и скейлиться, но увы, мир работает так, что нужно показать что-то более стояще, что бы на это действительно обратили внимание. И вот тут нужны GPU.

Но в целом я согласен, лучше компаниям не подъедать объедки, а создавать что-то новое.

Речь не про исследовании архитектуры. Речь о фундаментальных исследованиях. Это тоже самое как сказать, исследовать закон Ньютона можно, но без Варп-двигателя это не нужно. А вот без топлива на нейтрино с гелием-3 нет смысла браться. Вот так это звучит. Я столько раз слышал эти левые оправдания, я бы начал фотографировать, но без зеркалки за 200 тыс руб и объектива к нему еще за 200 тыс начинать бесполезно. Один в один. И дай этим людям такой фотик, он либо будет пылиться или они придумают новый аргумент.

Почему другим это не мешает? И зачем надо, чтобы другие обращали внимания? Или вы думаете, что у китайского DeepSeek карточек было больше чем у Сбера или денег больше? У DeepSeek прежде всего были мозги. А сейчас Сбер использует их открытую модель и дообучает. Мозги - вот главный ресурс и наши компании и большинство тех кто занимается AI/ML в РФ, им явно не обладают.

Ну почему же так пессимистично про отсутствие R&D в этой области в РФ. Вот, ntechlab пилит все для Безопасного города

Я ничего не говорю про продуктовые разработки на базе нейронок в РФ. Наоборот подчеркнул, что в России именно продуктовые разработки связанные с сетками. Я же говорил про фундаментальные исследования в области AI/ML. Их нет в РФ и они не ведутся. Точнее есть их блеклая тень (есть список исследований Сбера, МФТИ, Тинькофф, Яндекс), но часть из них уже в постановке задачи неправильные. Другие не тянут на мировые, вроде квантования. И чаще всего это взяли opensource продукт и обучили на своих данных и своих метриках. Это всегда отставание.

Представим, что завтра Meta, DeepMind и китайцы перестанут публиковать свои исследования в архитектурных решениях. И в один момент у нас будет отставание в 5-10 лет в этой области, которое будет быстро расти. Да и сейчас, из-за этого, все наши компании на шаг позади. Не потому что видеокарт не хватает, а потому что для этого надо понимать куда/как/что исследовать.

ntechlab  - это продуктовая компания, которая будет готовые архитектуры и обучает их на собранных данных. Продуктовое R&D? Мне кажется тут ближе слово - оптимизация продуктового процесса. По этой же причине Сбер, Яндекс сидят на древних моделях tacatron2 (пробуют VITs) для синтеза речи, обучаях их и косметически изменяя.

Вялотекуще интересовался ии ещё году в 19-20. Потом написал диплом по мл. Думал в мл перекатиться из разработки, но пока думал случился бум gpt, и стало казаться что в ближайшие годы работа в ml будет чем-то вроде адаптации llm под свои нужды и создании сервисов вокруг llm, а это не показалось чем-то интересным. Так и не перекатился в мл

Сейчас начал раскопки RAG, копаю примерно месяц.10 лет примерно занимался написанием поисковых корпоративных систем по классике. Работа на заказчика закончилась но привычка, как говорится, осталась. Идеи на полке тоже. Решил освежить знания, немного отойти от колеи и сразу попал на RAG.

RAG по сути, есть трех типов: vanilla, это когда в лоб ищем по knn векторам составленным из кусков текста. Подобный поиск встроен в Solr/Elastic.

Hybrid Rag - когда ищем применяя knn и классический поиск по фразам и ключевым словам а затем пытаемся отранжировать и соединить результаты поиска. Как вы извлекли ключевые слова и фразы, это отдельная песня. Бывает так, что нужно отделить поиск по метаданным от поиска по контенту, и создать маппинг от онтологии в NLP запросе к полям метаданных в базе или индексе.

И третий, он же немного второй способ, RDF хранилища, SPARQ, использование graph db как хранилища и если ресурсы позволяют, нейросети для обработки и хранения связей графа знаний.

Сразу после сокращения создал проект на гитхабе, пригласил туда коллегу из QA (нас кучно сократили, отвалился клиент жирный), создал организацию на гитхаб чтобы работать в группе. Учебное окружение должно напоминать рабочее. Может еще кого подтяну из знакомых.

С недельку помучал ChatGPT, придумал себе имя для домена и заодно продукта. За небольшие деньги зарегал пару доменов, . Dev с SSL (18 баксов) и . аi (140), чтоб застолбить, заодно нормальную почту корпоративную.

Все нужно делать по настоящему, даже когда учишься. Потихоньку пилим в песочнице то что уже делали раньше но в силу NDA не могли утащить - создаю базу, улучшаю код с учетом опыта. Делаю необходимый минимум но по феншую чтоб не краснеть когда выложу в открытый доступ. Потихоньку набьем руку, затем начну прощупывание клиентов с которыми работал, попробую на контракт заскочить.

Питон если честно, раздражает, но делать нечего - учу. Он меня как Бейсик, немного выбешивает. Что то сложное поставить - надо anaconda + mamba, это просто ужасно.

Проектов масса, по RAG заинтересовал haystack. Лонгчейн, ллм индекс, пара векторных баз типа milvus, тоже мимо не пройдут.

На литкод зашел и вышел. Одной книжки по алгоритмам достаточно полистать, и пару листингов или публикаций, зачем больше то знать на обычной работе? 90 процентов разработчиков в запарке применяют наивные алгоритмы или готовые библиотеки и все на этом

поймал себя на мысли, что устал кодировать. Начал почитывать пару книг по корпоративной архитектуру и это мне зашло намного лучше чем программирование. Авторы поумнее как то показались, меньше тупой бравады и думать пытаются. Все как в реальных больших проектах - много шишек и компромиссов. Наверное пора с кодинга уходить.

Через полгода примерно подкуюсь, демо проекты закончу, буду готов но работу начну прощупывать примерно через месяц - новье конечно нужно знать но по Легаси работы море никто не отменял принцип "сначала продай а потом сделай", это норма сейчас.

Что то сложное поставить - надо anaconda + mamba, это просто ужасно.

Пробовали pixi? Если нет, то очень рекомендую.

Я бы пошел на электрика учится... судя по расценкам на авито, доходы от сбора щитков и монтажа розеток не меньше чем у сеньеров...

Тссс... Пусть дураки и дальше прут в это айти...

Судя по информации в интернете, у айтишников 300к/нсек.

Ну по соседним постам - 300к это уже далеко не у всех айтишников, а по словам знакомых с ремонтом - хороший электрик за 20к/день - это очень не дорого (точнее таких уж и нет, они дороже) и к таким очередь на месяцы вперед

Судя по информации в интернете, у айтишников 300к/нсек.

В интернетах не врут! (c)

Хочу добавить очень полезный источник для изучения ML, который когда-то я сделал сам (это не реклама и абсолютно бесплатно). Это серия статей на Хабре с созданием ML-алгоритмов с нуля, что будет очень полезно, особенно новичкам. Вот ссылка на статью https://habr.com/ru/articles/804605/

Сейчас профессия ML-щика движется в очень необычном направлении: если раньше нужно было заморачиваться с поиском моделей, данных, изучением и реализацией архитектур, то сегодня существует множество готовых базовых решений, которые достаточно немного затюнить, чтобы получить уже приемлемый результат. Это очень сильно упрощает жизнь не только маленьким компаниям, но и трудоустройство в них: даже не разбираясь как это все устроено изнутри, можно сделать чат-бота или tts в пару кликов с помощью того же hugging face. Хорошо это или плохо - это уже вопрос риторический.

Настоящий же хардкорный ML, когда мы с нуля пишем тот же flash attention на triton или cuda, разрабатываем с нуля и обучаем свои архитектуры трансформеров, и т.д. - это очень сложный и дорогой путь (research), который могут себе позволить только крупные компании (и то не все), не говоря уже про то, что для него порог входа расположен совершенно на ином уровне. Это как раз тот случай, когда нужно хорошо знать матан, алгоритмы, тонкости ЯП, паттерны и так далее, поэтому если у вас нет особой любви к ML, то я бы не рекомендовал этот путь, поскольку он занимает очень много сил и времени (говорю из опыта).

К слову про research, а именно про research engineering...в ближайшем будущем я планирую опубликовать на Хабре статью с реализацией ChatGPT с нуля (с теорией и кодом), показав как устроены изнутри и создаются его компоненты: токенизатор, flash attention, GPT, RL (PPO) и так далее (спойлер: большая часть проекта уже сделана).

Спасибо за серию статей, будет интересно увидеть следующую!

Прочитал ваш курс, и пару других по ML год назад, и по сути остался в обычной разработке как раз по описанным причинам, нет причины углубляться, если для использования и простых знаний достаточно, а для хардкорных задач то и нет, да и бизнес не хочет особо тратиться. Без проблем получилось внедрить "ML" поиск на текущей работе, а больше уже и не надо) Менять работу чтобы работать с RAG моделями не привлекло от слова совсем.

На самом деле кроме RAG есть еще много чего интересного и сложного, просто компаний, которые это могут предоставить, в СНГ очень мало :) На нашем рынке это Сбер и Яндекс. Например, я видел вакансии от Яндекса по ML, где требуется писать оптимизированные CUDA ядра, реализовывать алгоритмы из научных статей и т.д., но их немного от общего числа.

Согласен с вами полностью, что нет смысла переходить из обычной разработки, особенно если и в ней все получается. Сейчас прикладной ML разработчик больше похож на продвинутого юзера hugging face и, как мне кажется, этот тренд будет только расти и это может привести к упадку вакансий на рынке ML, поскольку зачем нанимать такого специалиста, если и обычный разработчик сможет посмотреть пару туториалов, полистать доку и запустить готовую модельку, которой будет достаточно для простых проектов с головой. Возможно я ошибаюсь, но мне кажется, что все к этому и идет.

поскольку зачем нанимать такого специалиста, если и обычный разработчик сможет посмотреть пару туториалов, полистать доку и запустить готовую модельку, которой будет достаточно для простых проектов с головой

А потом удивляемся, почему люди так подозрительно относятся к ИИ-решениям

Я надеюсь, что будет ровно наоборот: просто запустить стандартную модель сможет каждый; но специалист, который знает весь текущий зоопарк моделей, умеет правильно их применять, комбинировать и файнтюнить, будет цениться на вес золота

Я с вами согласен, что хорошо бы иметь в штате специалиста, который держит руку на пульсе в этом громадном зоопарке моделей, но тут дело в другом. ML можно разбить на 2 категории: рисерч и бизнесовый. Рисерч, в свою очередь, тоже разделяется на 2 категории: research science (те, кто изучает текущие подходы, придумывает на бумаге как их улучшить или вообще разработать что-то новое) и research engineering (это те, кто это реализует эти концепции в готовые алгоритмы, фреймворки, делает удобные и расширяемые интерфейсы, а также какие-то базовые обученные модели и т.д.).

На практике это означает следующее: есть ребята из таких компаний типа hugging face, openai и т.д., которые вкинули кучу денег, что-то придумали и сделали из этого продукты, которыми пользуется подавляющее большинство. Чтобы сделать что-то подобное, нужно не только много-много денег, а еще и толковые специалисты, которые смогут этим заниматься (они стоят в разы дороже обычных ML-щиков), поскольку с этой точки зрения ML гораздо сложнее технически, чем бизнесовый (где нужно пользоваться готовыми решениями), хотя и в бизнесовом хватает своих приколов, но это уже другая история, как говорится. Это первый момент.

Отсюда вытекает второй момент, который заключается в том, что большинство компаний небольшие и у них нет таких возможностей, но зато у них есть возможность использовать готовые решения от крупных компаний почти за просто так, которые даже из коробки работают неплохо. Если это не компания, продуктами которой пользуются миллионы или где нужен каждый процент точности, то такого решения более чем достаточно.

Отсюда возникает вопрос: стоит ли нанимать отдельно ml разработчика, который во всем этом разбирается, и платить ему 5к зелеными или же с этим может разобраться на базовом уровне, например, backend разработчик, которому можно будет доплатить 500 долларов? Будут ли готовы компании к такому? Проще говоря, стоит ли забивать гвозди перфоратором? Здесь чисто экономический вопрос. Если проводить аналогию, то это можно сравнить с обслуживанием авто в сервисном центре и у гараже у дяди Васи. Как показывает жизнь, большинство выбирает второй вариант :)

Подход, который описываете вы, лучше подходит для средних и крупных компаний, где уже бизнес более серьезно завязан на ML, но опять же, таких компаний гораздо меньше. Я бы тоже хотел надеяться, что на описанных вами специалистов будет расти спрос, но происходящее говорит об обратном. Возможно я ошибаюсь, но мне кажется, что ситуация выглядит именно так и дальше в этом плане будет хуже. Я уверен, что вы и так это знаете, просто если возвращаться к вопросу изучения ML сегодня, то, на мой взгляд, стоит очень хорошо взвесить все "За" и "Против" нужно ли в него вкатываться, а если все-таки нужно, то насколько это нужно делать глубоко из-за ситуации на рынке. Просто может оказаться так, что вы учили ML глубоко и долго, а в большинстве компаний это не нужно. Стоит ли так рисковать? Это уже вопрос риторический.

Не подумайте что я пессимист по поводу нашего ML. Скажу даже больше: я просто с огромнейшим интересом хоть прямо сейчас согласился бы поработать над отечественным продуктом, разработанным и созданным с нуля, чтобы его можно было вывести на уровень с тем же ChatGPT и DeepSeek, особенно если бы это еще был open source.

Если это не компания, продуктами которой пользуются миллионы или где нужен каждый процент точности, то такого решения более чем достаточно.

Вот это главный тезис, с которым я не согласен

Сегодня куча компаний внедряет ИИ, и очень много людей жалуются на качество после внедрения ИИ. Вот недавно была история с Duolingo. Если бы у них были нормальные NLP-шники, то огромного количества негатива можно было бы избежать

Проблемы с внедрение ML-решений следующие

  1. Неумение измерять качество

  2. Незнание о существовании какой-то модели, лучше всего подходящей для решения задачи

  3. Ленивый/неумелый промтинг: люди просто берут первый результат, который их устраивает; когда можно было бы немного посидеть и сильно улучшить решение просто за счет промтинга

  4. Для носителей английского: монолингвальность; непонимание, как устроены другие языки

  5. Жадность: предпочтение более дешевых моделей

  6. Часто отсутствие алгоритмического постпроцессинга вывода LLM

Кроме того, сейчас очень много негатива к ИИ просто потому что это ИИ - для кое-кого (в основном художников) распространение ИИ очень сильно бьет по доходам, вот они и сопротивляются; и они пытаются создать вокруг ИИ социальную стигму. В такой атмосфере лучше всех ценится такой ML-специалист, который сможет предоставить результат, неотличимый от человеческого - а вот это реально сложно

И вообще, если вы бекендеры будете лезть в мой ML, я тоже буду лезть в ваш бекенд :) Сейчас такое время, когда сеньору нужно быть не просто фуллстеком, но еще и ML-щиком вдобавок

Я с вами полностью согласен, но давайте немного проясню ситуацию. Во-первых, я тоже занимаюсь ML, а не backend'ом :) Во-вторых, ту ситуацию, что я описал по поводу использования готовых решений не ML-щиками - это не моя позиция, которую я поддерживаю, а реальные факты, которые я беру из опыта. Вы сами сказали следующее: "Сейчас такое время, когда сеньору нужно быть не просто фуллстеком, но еще и ML-щиком вдобавок " и это не просто так.

Дело в том, что сейчас очень необычное время, когда все (или почти все) экономят, особенно небольшие компании, у которых бюджет сильно ограничен. В таком случае главное получить минимально приемлемую рабочую версию продукта, продать заказчику и двигаться дальше, и это на самом деле выгодно обеим сторонам: заказчик хочет заплатить как можно меньше, а исполнитель потратить как можно меньше денег на разработку. Здесь девиз примерно такой: "Более-менее работает, ну и ладно: зато недорого.".

Если раньше для этого надо было нанимать или хотя бы временно привлекать со стороны ML-щика, который стоит дорого, и который долго пытался что-то сделать и не всегда хорошо (было мало готовых моделей, их было сложно тюнить, мало данных и т.д.), то сейчас с этим все гораздо проще. Вместо этого теперь проще обратиться за консультацией к ML-щику со стороны, а потом уже делать то что он скажет силами других разработчиков, потыркав пару дней тот же hugging face. Другими словами, в этом случае ML перекочевал из разработки в консалтинг: если раньше ко мне обращались небольшие компании с просьбой что-то сделать, то теперь это просто что-то стиле в "А не могли бы вы рассказать как и где лучше делать это и вот это". С точки зрения экономии средств для небольших бизнесов это явно плюс.

А ведь все дело как раз в том, что большинство компаний небольшие, да и к тому же качество готовых решений только расчет, а пользоваться ими становится проще, поэтому этот тренд и растет. Ситуация с ML похожа не девопс: есть отдельные специалисты, но все же каждый разработчик должен быть знаком с докером. Также и здесь.

Компаний, готовых предложить очень сложные и интересные ML задачи, на нашем пространстве очень мало, а тренд на использование готовых решений только растет и к тому же это становится проще технически. При изучении ML , а именно насколько глубоко и долго нужно погружаться в эту область, лучше учитывать такие моменты. Это основная мысль, которую я хотел донести.

Без проблем получилось внедрить "ML" поиск на текущей работе, а больше уже и не надо)

У ML есть специфика: сделать с 95% точностью = один вечер; улучшить точность до 98% занимает неделю, до 99% - месяц; а добиться точности 99.5% вообще невозможно

ML - вещь несложная, пока стандартная модель из коробки выдает приемлемую точность

подписался, очень интересно будет почитать

А какие должны быть базовые навыки, чтобы приступить к обучению? Понятно, что все не перечислить, но хотя бы самое важное.

Просто бывает такое, что человек сам не замечает, что у него уже есть приличный "багаж" знаний и навыков за спиной, поэтому он может писать, что "математика потом", ООП потом и т.д. Потому что напрямую все это не пригодилось, т.к. все уже есть "готовое" в библиотеках. А ведь просто развернуть какую-нибудь готовую нейросетку из опенсорса на своем железе - может стать непреодолимой задачей для новичка. И то что мелочь для одного, то для другого проблема

Ничего не надо, чтобы приступить нужно лишь желание

Про дата саенс ничего не сказали )

Я бы начал с цифровой обработки сигналов , классических книг п этой теме. Согласен с тем что многие курсы , которые обещают за полгода научить чему то , это трата времени . Тут поможет только опыт , а начинать надо с простой и примитивной базы .

А почему надо начинать с цифровой обработки сигналов?

Мне кажется там описаны все базовые алгоритмы для оценки параметров случайных и смешанных процессов, как теоретически, так и практически

Привет, подскажи, на каком факультете учился в МФТИ? Учился ли в маге, если да, то на какой. Считаешь ли ты магу полезным вложение?

на ФУПМ учился (сейчас ФПМИ)
в маге тоже учился
Мага - бесполезное вложение, если не нужна отсрочка от армии, то не трать время и лучше занимайся работой и своими проектами

Мне всегда казалось, что компании требуют диплом от ML специалиста?

Sign up to leave a comment.

Articles