Неужели действительно интересно? В таком случае предлагаю всем желающим голосовать за это собщение. Если будет хотя бы несколько голосов - придется писать статью :)
А еще сделал второй велосипед, который ставится на Raspberry Pi с монитором, и начинает показывать изображение с той-же ONVIF камеры по получении события движения с нее. В итоге имеем видео глазок, с возможностью хранения архива в облаке, удаленным доступом, и возможностью установки экрана в любом месте квартиры (или даже нескольких штук).
Все вышеперечисленное доступно на GitHub и опубликовано в Snapcraft Store.
Теперь на очереди аналогичное приложение для Android.
По закону вроде нельзя направлять камеру на соседскую дверь. Я делал немного по другому: 1. Взял одну из самых дешевых ONVIF камер (зачем делать детектор движения самостоятельно если много камер умеют это "из коробки") 2. Поместил ее в отдельную подсеть и закрыл ей возможность коннектиться к внешнему миру (средствами роутера) для защиты от потенциальных бэкдоров 3. Закрепил камеру над дверью - это позволило исключить из кадра соседские двери 4. Потратил несколько лет на создание Open Source велосипеда для рестриминга потока по ONVIF событиям с камеры на VPS для хранения архива записей (VPS один из самых дешевых, места мало, потому архив только за месяц, впрочем больше и не надо) и возможностью удаленного подключения для просмотра записей и видео в режиме реально времени.
В итоге схема такая: ONVIF IP камера -> Raspberry Pi 3 на котором крутится агент для рестриминга видео на VPS -> VPS с работающим сервером к которому подключается агент, на котором хранится архив и к которому можно подключаться из браузера для просмотра в реальном времени или просмотра архива. При этом наружу ничего не торчит. В качестве протокола для передачи видео везде WebRTC. Как-то так.
Если кому интересно - могу предоставить подробности.
+1, один из существенных доводов почему лично я не очень хотел ехать не то что в Москву/Питер, а даже в Новосибирск. Как-то ездил в коммандировку в Москву и останавливался в подмосковье, когда цель поездки была в самом центре - в итоге 2-х часовая поездка в одну сторону (автобус -> электричка -> метро) оставила очень сильное впечатление....
Порой даже сильным сотрудникам сложно найти работу (сам процесс может оказаться длительным). Тем более сейчас. В связи с чем, даже призрачный шанс остатся у разбитого корыта является сильным сдерживающим фактором (если конечно еще где-то работаешь). Когда у тебя семья - ты десять раз подумаешь прежде чем делать резкие движения. Дети каждый день кушать хотят...
Помимо прочего я заметил что на фриланс в России отдают только достаточно узкий спектр задач. Обычно совсем одноразовых. Лэндинг сделать, или дизайн. А так что-б из более менее долгосрочного проекта отдельные задачи выдергивать - не встречал. Может не на тех биржах конечно смотрел, но по крайней мере fl мне видится именно так.
Действительно так уже давно происходит. Много раз слышал историю "делал кучу всякой фигни для кучи разных заказчиков, и в конечном итоге один из них, после нескольких успешных заказов, предложил фуллтайм". Только все эти истории были про зарубежных заказчиков. Уж не знаю почему.
Глупый вопрос: зачем вам C++20 если вы не пишите условный boost? Чего людям не хватает в C++11? Ну, ладно C++17, поскольку только там появился std::optional...
По моему опыту (правда не очень большому) GitHub никто не смотрит. Из нескольких компаний в него заглянула одна единственная (за что им жирный плюс). Но и общался я там сразу с техлидом проекта...
Мало того, у меня есть несколько коммитов принятых в достаточно крупные OpenSource проекты (VLC, GStreamer, Qt) - но ни одного признака что это хоть кого-то заинтересовало я не встречал.
У меня было 400 символов/минута лет 10 назад (а может даже больше) по тестам на Клавогонках на русском тексте. И было понимание что можно еще улучшать, но смысла тратить на это время я не видел. Так что могу с уверенностью утверждать что 500 и 600 реальные цифры. А вот дальше... Видел как печатают те кто заявляют про 700 и выше символов - уж очень у них специфичное положение клавиатуры и распределение клавишь по пальцам...
За 15 (или даже больше) лет все просто привыкли к master и main просто царапает взгляд - т.е. это исключительно вопрос привычки. Но вопрос в другом, почему все эти 15 лет ни у кого вопросов не возникало а тут вдруг такая неприязнь?
неужели там есть аппаратный кодек? Я пробовал на Raspberry PI 5 получить 1920*1080 в h264 программно (там нет аппаратного h264 кодера) с помощью GStreamer - если мне не изменяет память, максимум что мне удалось получить - меньше 10 кадров в секунду.
Неужели действительно интересно? В таком случае предлагаю всем желающим голосовать за это собщение. Если будет хотя бы несколько голосов - придется писать статью :)
А еще сделал второй велосипед, который ставится на Raspberry Pi с монитором, и начинает показывать изображение с той-же ONVIF камеры по получении события движения с нее. В итоге имеем видео глазок, с возможностью хранения архива в облаке, удаленным доступом, и возможностью установки экрана в любом месте квартиры (или даже нескольких штук).
Все вышеперечисленное доступно на GitHub и опубликовано в Snapcraft Store.
Теперь на очереди аналогичное приложение для Android.
По закону вроде нельзя направлять камеру на соседскую дверь.
Я делал немного по другому:
1. Взял одну из самых дешевых ONVIF камер (зачем делать детектор движения самостоятельно если много камер умеют это "из коробки")
2. Поместил ее в отдельную подсеть и закрыл ей возможность коннектиться к внешнему миру (средствами роутера) для защиты от потенциальных бэкдоров
3. Закрепил камеру над дверью - это позволило исключить из кадра соседские двери
4. Потратил несколько лет на создание Open Source велосипеда для рестриминга потока по ONVIF событиям с камеры на VPS для хранения архива записей (VPS один из самых дешевых, места мало, потому архив только за месяц, впрочем больше и не надо) и возможностью удаленного подключения для просмотра записей и видео в режиме реально времени.
В итоге схема такая: ONVIF IP камера -> Raspberry Pi 3 на котором крутится агент для рестриминга видео на VPS -> VPS с работающим сервером к которому подключается агент, на котором хранится архив и к которому можно подключаться из браузера для просмотра в реальном времени или просмотра архива. При этом наружу ничего не торчит. В качестве протокола для передачи видео везде WebRTC. Как-то так.
Если кому интересно - могу предоставить подробности.
+1, один из существенных доводов почему лично я не очень хотел ехать не то что в Москву/Питер, а даже в Новосибирск. Как-то ездил в коммандировку в Москву и останавливался в подмосковье, когда цель поездки была в самом центре - в итоге 2-х часовая поездка в одну сторону (автобус -> электричка -> метро) оставила очень сильное впечатление....
Порой даже сильным сотрудникам сложно найти работу (сам процесс может оказаться длительным). Тем более сейчас. В связи с чем, даже призрачный шанс остатся у разбитого корыта является сильным сдерживающим фактором (если конечно еще где-то работаешь).
Когда у тебя семья - ты десять раз подумаешь прежде чем делать резкие движения. Дети каждый день кушать хотят...
Помимо прочего я заметил что на фриланс в России отдают только достаточно узкий спектр задач. Обычно совсем одноразовых. Лэндинг сделать, или дизайн. А так что-б из более менее долгосрочного проекта отдельные задачи выдергивать - не встречал. Может не на тех биржах конечно смотрел, но по крайней мере fl мне видится именно так.
Действительно так уже давно происходит. Много раз слышал историю "делал кучу всякой фигни для кучи разных заказчиков, и в конечном итоге один из них, после нескольких успешных заказов, предложил фуллтайм". Только все эти истории были про зарубежных заказчиков. Уж не знаю почему.
Глупый вопрос: зачем вам C++20 если вы не пишите условный boost? Чего людям не хватает в C++11? Ну, ладно C++17, поскольку только там появился std::optional...
По моему опыту (правда не очень большому) GitHub никто не смотрит. Из нескольких компаний в него заглянула одна единственная (за что им жирный плюс). Но и общался я там сразу с техлидом проекта...
Мало того, у меня есть несколько коммитов принятых в достаточно крупные OpenSource проекты (VLC, GStreamer, Qt) - но ни одного признака что это хоть кого-то заинтересовало я не встречал.
Грустно это все. Надо что-то менять...
Ищу работу. Умею C++ и много всякого прочего разного. Писать в лс.
У меня было 400 символов/минута лет 10 назад (а может даже больше) по тестам на Клавогонках на русском тексте. И было понимание что можно еще улучшать, но смысла тратить на это время я не видел. Так что могу с уверенностью утверждать что 500 и 600 реальные цифры. А вот дальше... Видел как печатают те кто заявляют про 700 и выше символов - уж очень у них специфичное положение клавиатуры и распределение клавишь по пальцам...
За 15 (или даже больше) лет все просто привыкли к
masterиmainпросто царапает взгляд - т.е. это исключительно вопрос привычки. Но вопрос в другом, почему все эти 15 лет ни у кого вопросов не возникало а тут вдруг такая неприязнь?в теории в pikvm есть gpio пины, на которые можно повесить релюшку. Но да, из коробки это наверное недоступно.
точно... туплю... если только как-то провода наружу вытягивать...
c PIKVM идет дополннительная плата которая умеет эмулировать нажатие кнопок.
Можете показать скриншот о чем именно речь? Не совсем понимаю что подразумевается под "лагометром".
настолько серьезно виснет что даже reset не помогает?
Подскажите зачем полное выключение питания?
Подскажите как мерили?
неужели там есть аппаратный кодек? Я пробовал на Raspberry PI 5 получить 1920*1080 в h264 программно (там нет аппаратного h264 кодера) с помощью GStreamer - если мне не изменяет память, максимум что мне удалось получить - меньше 10 кадров в секунду.