Думаю, стоит уточнить, что оплата взымается как за запрос, так и за время исполнения запроса: aws.amazon.com/lambda/pricing. При использовании 512 Mb оперативы нужно заплатить 0.2 * 10e-6$ за запрос + ~0.8 * 10e-6$ за каждые 100ms выполнения (с округлением в большую сторону). Что, впрочем, все равно дешево.
Ну и раз уж разговор про deep learning, то стоит также отметить, что GPU-инстансов в AWS Lamda пока не завезли. Весь inference – на CPU.
Я бы добавил к разделу «как повысить себе зарплату» пункт поговорить с руководством или подумать самому о том как приносить больше пользы компании в целом и непосредственному руководителю в частности.
Как обычно, начинаешь читать лонгрид на любую тему и если он достаточно интересный, чтобы дочитать до конца, то как правило внизу будет написано Milfgard :)
У меня проблема программирования на ZX Spectrum в начале девяностых заключалась в том, что какие-то книжки по BASIC в наличии были, но все по каким-то другим диалектам. В результате ни один пример сходу не заводился, а пофиксить его под ZX Spectrum было для меня слишком сложной задачей.
На ixbt неплохое обсуждение тефалевских оптигрилей: http://forum.ixbt.com/topic.cgi?id=47:8111. Основная проблема – датчик толщины умирает через несколько месяцев. Заказывают обычно либо через немецкий амазон, либо через Computeruniverse. У меня с доставкой получилось 11 000. Датчик пока живет.
Информация
В рейтинге
Не участвует
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Ну и раз уж разговор про deep learning, то стоит также отметить, что GPU-инстансов в AWS Lamda пока не завезли. Весь inference – на CPU.
А как вы пересекались?
Хотя по сути да, это еще не самый плохой вариант.