Информация
- В рейтинге
- 5 748-й
- Откуда
- Красноярск, Красноярский край, Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Администратор серверов, Администратор баз данных
Старший
От 1 ₽
Linux
Высоконагруженные системы
Elasticsearch
ClickHouse
Базы данных
Спасибо. Про проектирование интерфейсов обычно статьи начинаются с "Сформулированный Джорджем Миллером в 1956 году...." вот и не знал куда написать про интерфейс фильтров т.к. проблеме уже много лет и удивлен что в таком отточенном сервисе есть такие проблемы, которые с большой долей вероятности из-за неправильного проектирования не исправятся - надеюсь что я ошибаюсь.
Про стандарты очень хорошо. Но старой баго-фиче уже много лет. Это такой стандарт? Как воспроизвести:
На стартовой странице, выбираем "Электроника" -> "Ноутбуки". Крутим вниз и нажимаем все фильтры. Вот тут то и начинается морковные попрыгайки. Выбираю процессор, нажимаю одну модель и рррааз пункт меню сдвинулся в другую часть экрана, вновь выбираю еще один процессор и так по всем пунктам меню.
Как вы думаете, будет ли пользователь использовать такой интерфейс для поиска точного товара? На других конкурентных площадках не видел такой проблемы.
Экспертов предсказывающих что будет завтра, но при этом не имеющих ответственности за свои прогнозы уже стало много, дальше больше.
Вопрос-действие. Клиент выгрузил на платформе вашего openstack image виртуальной машины - для скачивания открывается доступ по ссылке, без авторизации, такая особенность облака. Просто берем ссылку и скачиваем. В случае если по этой ссылке скачает образ злоумышленник и получит доступ к данным клиента, кто в данном случае понесет ответственность и каким образом будет расследоваться инцидент?
И таких ньюансов будет еще больше. Я веду к тому, что прогноз подобных потенциальных проблем обычно ложится на плечи руководства и "незаменимых сотрудников", которые знают огрехи и проблемы архитектуры системы. В данном конкретном случае описываю большого клиента - это важно, а для более мелкого - это не так важно. Не настаиваю на правильности предложенного, но вы можете дать кнопку для буста квот в случае выхода из строя целого дата центра, но её никто не планировал и не будет давать. А ведь впереди будет еще не одно падение датацентра или целой зоны, необходимо готовиться к подобным сценариям в таком изменчивом мире.
Конечно, все правильно. Все процессы должны быть структурированы и прозрачны и не должно быть уникальностей.
Вы ведь починили отсутствие квот при выходе целого дата центра? Та самая проблема когда ресурсы должны переехать (ну хотя бы в кубер узлы запустить) - это вопрос про документацию. Каким образом ваш клиент может удалить ресурсы из зоны, которая ему недоступна т.к. у вас авария?
К чему это я? К тому что в сложной системе хочется знать про все и понимать как это работает, но иногда определенная голова про это помнит лучше чем другие. Спасибо, что написали не обтекаемо, а точно. Теперь лично у меня не будет возникать вопросов к вашему облаку. Спасибо.
Как дополнение, при внедрении vad снижается нагрузка на дорогое распознавание whisper (т.к. не надо обрабатывать шум) - ожидал что предоставите графики до и после внедрения vad, время распознавания снижается почти в 2-3 раза в зависимости от аудио. vad очень легкие и сама модель занимает 3 мбайта, работает очень быстро.
И вопрос, как часто у вас галлюцинировал whisper (фразы типа "Thank you", "субтитры сделал DimaTorzock" и другие) - собирали ли какую то статистику или встраивали в инференс дополнительные флаги?
Сударь. Вам еще в чатике распознавания речи написали, что реппозиторий https://github.com/borisovai/voice‑input отдает 404, оценить код никто не сможет...
Также есть отдельные настройки по шумодаву и в некоторых ситуациях, может вести себя не так как ожидается - например если говорить очень громко, может заигнорить и пропустить.
На каких данных сверяли wer?
Хотел уточнить по цифрам. Например wer 0.5496 по вашей таблице - выходит, что модель ошиблась в половине случаев если считать по общей сумме? Сам замеряю качество и бывают например случае где одни модели "слышат", то что не надо "слышать", другие же наоборот.
Можете ли вы выложить полученные тексты в архиве, могут быть неточности в том числе на стороне "золотого датасета" - т.е. какая нибудь модель распознала лучше, чем предлагаемые субтитры (например написано "идет музыка", "песня") - тестируемая модель пропустила т.к. посчитала шумом, а вы при проверке добавляете ошибку wer.
Согласен.
Маркетологи компании, отдайте обратно аккаунт Андрею. В дополнение можно почитать доку https://docs.kernel.org/virt/kvm/api.html
И другие "уменьшаторы" накладных расходов описаны на популярном ресурсе.
Печально, что от обычной нормальной базы пытаются уйти в другие абстракции - которые на более высоком уровне якобы решат проблемы лежащие ниже.
В статье не хватает картинок, где llm вместо alter использует drop т.к. это быстрее...
Вы ответили на удобный вопрос. Будут ли техническое описание, вроде как хабр это про технологии, а не про маркетинговый мусор. Расскажите что ваше решение - это не "Болдженос". Удачи, надеюсь мои предположения ошибочны.
Ясно что ссылки на гитхаб не будут. Но хотя бы схему взаимодействия и принцип работы можно нарисовать. А так смотрится как очередной супер проект с целью нагнать аудиторию в телеграм....
И работает и есть проблемы. Не все модели будут корректно работать если купите самый дорогой mac studio. Оставлю это https://github.com/pytorch/pytorch/issues/141287 - некоторые модели и в том числе для дообучения - будут работать через процессор, что вызывает печаль. Не стал бы на данный момент инвестировать в яблоки, если цель запускать модели и остальные вещи связанные с ML
Считаю статью неполной т.к. нет отдельного пункта про "нескучные обои". Требую на уровне законодательства ввести обязательное требование обозревать обои во всех новых дистрибутивах!
Во многих статьях под словом "домены" - чаще всего подразумевали другие языки, в рамках вашей статьи насколько понял, используется только русский язык, а домены - это наборы данных разного качества и содержимого.
Еще хотел уточнить, делали ли вы гибридную модель, где есть 2 головы - CTC (на быстрое распознавание) и RNNT (на более точное) и как такую модель используете в своих проектах?
И на вопрос, который вы обычно не отвечаете на своих докладах и выступления, ну или говорите фразу типа "бесплатного google colab для этого не хватит" - так все таки, сколько времени и на каких мощностях вы обучили модель которую выложили и с какой попытки получилось? Спасибо.
О, интересно. А можно подушнить? Пишу по факту, давно брали компанией у вас достаточно много серверов и пару штук были глючные, настолько что при после установки дистрибутива были проблемы во время работы - конечно винил только свои кривые руки, а не сервер или неисправный процессор, что также сообщала ваша техническая поддержка, потеряв пару дней, нам заменили сервер и компенсировали 2 дня для данных серверов. С тех пор приходится быть с провайдером связи очень прямолинейным - не работает железка, просто возьмите и замените, зачем мне терять время, которое мне никто не компенсирует. Надеюсь с новыми серверами в случае глюков, вы не заставляете клиентов проводить дебаг за свой счет. Спасибо.
Жизненный цикл ПО у AMD короче в 2 раза чем у NVIDIA - эта ситуация многим надоела.
В это время nvidia поддерживает свои старые карты 9-10 лет, а тут amd дала подарок и стала на карты 4х летней давности "продлила" поддержку...
Нужно больше статей про контейнеры..... Но пока лучшая https://habr.com/ru/articles/935178/