Что будет с вашей сетью, когда обучение выйдет на плато, не достигнув точночти 0.7?! А зачем останавливаться на 0.7, если точность может расти и дальше?!
Вообще на machinelearningmasterey есть несклько статей на тему character-level text generation. Они показывают основу, но так же содержат идеи о дальнейшем улучшении.
Надо измерять качество, но можно попробовать либо SLM (small language model) как, например, phi-3 или all-mini-lm-xxx, либо вообще попробовать натренировать что-то своё. Ну и сюда заглянуть можно https://huggingface.co/spaces/mteb/leaderboard
Я запилил простенький сайт для наших нужд на serverless технологии, чтобы много не платить за хостинг. Из аналитики - несколько рейтингов, оценка вероятности победы над игроком и график побед между игроками за последние 60 матчей/дней.
"В момент первого обращения к load он скачивается и сохраняется локально на девайсе." - а злоумышленик может утащить этот ключ, чтобы потом самому дешифровать модель?
Кстати, думаю не ошибусь, что людей, у которых после вакцинации упомянутыми вакцинами возникли, но не еще диагностированы тромбы, будет больше на порядок. И их будущие проблемы вряд ли кто-нибудь когда-нибудь свяжет с вакцинами.
Энд ит из стрэндж ту рид «Если у вас есть какие-либо проблемы и вопросы, пишите. Я отвечу на них как только смогу.» синс зис из э транслэйшн. Ноубади вил ансвер ми иф ай аск э квэсчен хире.
В какой момент? Я в статье описываю два возможных сценария использования модели:
1. Подаем на вход картинку и набор текстов. Модель выдает вероятность соответсвия картинки каждому тексту. Это можно использовать для классификации.
2. Подаем на вход изображения, модель выдает вектора признаков. Эти вектора используются, чтобы оценить какие изображения похожи друг на друга.
Дети, конечно, умные и с рефлексами у них все ок. Они прекрасно понимают, что шуметь нельзя потому, что папа работает, а не потому, что светофор красный. Светофор или что-то еще может помочь им на начальном этапе (чтобы привлечь внимание, чтобы вовлечь в процесс), а через недельку другую светофор уже можно не включать. Будет достаточно сказать, что папа занят.
У нас вполне работала такая система с одним ребенком (3,5 года):
Режимы работы: на кого показывает птичка, тот тусит с ребенком. Когда птица на ребенке, то оба родителя доступны. Смена положения — бъем в специальные барабаны для привлечения всеобщего внимания. Тот, кто работает — в другой комнате, за закрытой дверью.
Плюс мы работали сменами: родитель 1 несколько часов работает, потом общее время (еда), потом родитель 1 с ребенком, потом снова еда и снова работа.
Думаю, что может сильно зависеть от места. В Мюнхене и водители автобусов попадаются, которые говорят или чуть-чуть понимают по-английски. А после Мюнхена я жил в Карлсруэ, где как раз уже мало кто говорил по-английски и лучше было на немецком.
Иногда да, иногда нет. Я в последнее время использовал fastapi, а с ним pydantic. Конфиги пришли приятным бонусом.
А до этого мы в проектах использовали envparse для чтения переменных окружения (я знаю про os.environ), так что все равно была +1 зависимость.
Что будет с вашей сетью, когда обучение выйдет на плато, не достигнув точночти 0.7?! А зачем останавливаться на 0.7, если точность может расти и дальше?!
Сравните, например, уровень подачи материала с вот этой статьей: https://habr.com/ru/articles/846348/ .
Рекомендую еще поизучать АПИ Кераса:
* https://keras.io/api/callbacks/early_stopping/
* https://keras.io/api/callbacks/reduce_lr_on_plateau/
* https://keras.io/api/callbacks/learning_rate_scheduler/
* Прикрутить tensorboard, чтобы смотреть на графики обучения, https://keras.io/api/callbacks/tensorboard/. По мотивам: https://machinelearningmastery.com/diagnose-overfitting-underfitting-lstm-models/ .
Вообще на machinelearningmasterey есть несклько статей на тему character-level text generation. Они показывают основу, но так же содержат идеи о дальнейшем улучшении.
Надо измерять качество, но можно попробовать либо SLM (small language model) как, например, phi-3 или all-mini-lm-xxx, либо вообще попробовать натренировать что-то своё. Ну и сюда заглянуть можно https://huggingface.co/spaces/mteb/leaderboard
Я запилил простенький сайт для наших нужд на serverless технологии, чтобы много не платить за хостинг.
Из аналитики - несколько рейтингов, оценка вероятности победы над игроком и график побед между игроками за последние 60 матчей/дней.
Брутфорс делается по дампу. Роутер не используется на этой стадии.
Ставки в конце - это прям классика Ebay. Даже специальные инструменты (сторонние) есть для этого.
"В момент первого обращения к
load
он скачивается и сохраняется локально на девайсе." - а злоумышленик может утащить этот ключ, чтобы потом самому дешифровать модель?Для сотрудников есть возможность покупать акции на свои деньги со скидкой в 10 %.
100 % вакцинированых людей умрет в будущем.
Энд ит из стрэндж ту рид «Если у вас есть какие-либо проблемы и вопросы, пишите. Я отвечу на них как только смогу.» синс зис из э транслэйшн. Ноубади вил ансвер ми иф ай аск э квэсчен хире.
А Microsoft Teams?
1. Подаем на вход картинку и набор текстов. Модель выдает вероятность соответсвия картинки каждому тексту. Это можно использовать для классификации.
2. Подаем на вход изображения, модель выдает вектора признаков. Эти вектора используются, чтобы оценить какие изображения похожи друг на друга.
Режимы работы: на кого показывает птичка, тот тусит с ребенком. Когда птица на ребенке, то оба родителя доступны. Смена положения — бъем в специальные барабаны для привлечения всеобщего внимания. Тот, кто работает — в другой комнате, за закрытой дверью.
Плюс мы работали сменами: родитель 1 несколько часов работает, потом общее время (еда), потом родитель 1 с ребенком, потом снова еда и снова работа.
Не знаю, на вкус и цвет. Пользовалься черепахой с svn, сейчас с гитом. Если запускаю Линукс, то очень страдаю без черепахи. Наверное, просто привычка.
Иногда да, иногда нет. Я в последнее время использовал fastapi, а с ним pydantic. Конфиги пришли приятным бонусом.
А до этого мы в проектах использовали envparse для чтения переменных окружения (я знаю про os.environ), так что все равно была +1 зависимость.