Э не… Частая ситуация догвиля в it, когда продукт требует разового ручного ввода данных/написания правил на DSL/написания примитивных sql запросов в большом количестве/написания десятка методов апи по шаблону. И, вроде, объем работы маловат для специально обученного человека, но и многоват для доп обязанностей. В таких случаях, увы, win-win невозможен. Работа должна быть выполнена, а ни роста, ни возможности припоминать за помощь не выйдет (делается то ради общего дела).
Может пострадать либо тот, кого не жалко (стажер), либо тот, с кого спросит бизнес (продакт овнер), либо ещё кто-то.
Как-то даже в линкендине видел вакансию senior business manager, и, по описанию было понятно, что это попытка собрать весь подобный деградационный треш со всех отделов и закрыть его одним человеком.
Проблема вот в чем. Сразу оговорюсь, что не говорю о перепродаже человекочасов в виде аутстаффа, и имею в виду высокооплачиваемых специалистов.
Найм сотрудника это инвестиция. Расходы компании в виде зп стартуют с первого дня работы, а иногда, компания ещё и вынуждена отдать от половины месячной до 20% годовой зп агентству или фриланс рекрутеру сходу. Также первые недели две сотрудник требует внимания коллег, чтобы войти в тему. На выход на полный перфоманс же, в зависимости от проекта, может тратится до месяца. Таким образом, окупаемость инвестиции может растягиваться очень надолго. Также, перед уходом сотрудник требует внимания коллег, чтобы передать дела.
Поэтому, если сотрудник сразу мотивирован постоянно искать +$500, или даже +$100, то имеем конфликт интересов на входе, и увесистый минус к матожиданию прибыли такой инвестиции.
Атакующие перехватили сеанс браузера на смартфоне журналиста и переадресовали его на вредоносную веб-страницу — оттуда на устройство загрузилось вредоносное ПО Pegasus. Взломщики воспользовались доступом к оператору связи, клиентом которого был Ради. Атака network injection, которой подвергся журналист, продолжалась вплоть до января 2020 года, то есть сильно позже момента, когда израильская компания приняла новую политику.
Не вижу трудностей. Хотел журналист скачать какую-то apk себе мимо маркета. Может даже для анонимности. Зашёл на сайт без https, и получил эту же приложуху, но запакованную вместе с сюрпризом. Схема не выглядит сильно сложнее вставки рекламы от оператора в http траф
Не знаю, как у автора, но по моему опыту айтишники редко ищут работу, если все плюс минус ок. Да, есть категория тех, кто в постоянном поиске +$500, но это скорее исключение, и в идеале таких людей заворачивать ещё на собесе. Поэтому, да, резюме в интернете, — это, как правило, прямой мессадж, что "я с вами, уродами, работать не хочу", и это означает, что, как минимум, начальник должен причину этого понять и сделать выводы.
Спасибо огромное за статью. Да, после такого опускаются руки, и как-то сразу убавляется энтузиазм относительно применения ML в бизнесе (условно, есть state-of-the-art подходы не могут посчитать точки в квадрате, то, как они смогут выявить фродстера, использующего ранее не засвеченную схему).
Но, скачав вьювер заданий с гитхаба, и протыкав руками пару десятков заданий, появились некоторые мысли. Интересно было бы мнение тех, кто в теме по ним:
Прежде всего, кажется логичным, что алгоритм должен быть многопроходным (вне зависимости от того, будет эта многопроходность видна в коде, или спрятана на промежуточных слоях нейросети). Условно, на первом проходе он должен преобразовать картинку в набор неких абстрактных представлений вида «красная хрень без выступающих частей», «замкнутый квадрат», «обрамление из точек желтого цвета». Потом уже он должен рассчитать фичи этих объектов вида «самый большой», «самый маленький», «самый нижний». А потом уже как-то обработать получившийся датасет.
И, тут видится два подхода, каждый из которых крайне трудозатратен и объемен. Либо надо пытаться отдельно обучать каждый проход. То есть, сначала обучить алгоритм на доставание правильных фичей, потом на их обогащение, потом на финальный предикт. Либо все вместе и сразу, потратив на это пару милионов $ на аренду видеокарт (возможно, участники из NVIDIA такой возможностью и обладали, имея некую внуреннюю лабораторию).
Но, для обоих подходов надо реализовать довольно сложный генератор заданий, чтобы нагенерировать себе датасет на порядков 5-7 больше, чем дали на каггле. В подходе 1, еще и со множеством входов (к каждой картинке должен идти псевдокод, написанный на удобочитаемом для ML алгоритма DSLе, описывающий происходящее). И вот тут уже возникает вопрос, а стоит ли оно того, и не проще ли написать перебор правил в коде решателя, чем в коде генератора?
Кстати. А может они в бекграунде проц грузят и на это надо время берут таким образом? Например, микробенчмарк, результаты которого потом скажут, похожи ли результаты скорости определенных вычислений на устройство, которым прикидывается?
Условно, если iPhone 6 выполняет некую задачу за 5 секунд, а выполнилась она за 3, т, значит, это сервер на х86 прикидывается айфоном?
Возможно, double kill, кстати. Что жертва и червя качает, и ещё при этом и разгадывает реальную капчу, за которую хакерам копеечка капнет от тех, кто скрейпингом или брутом занимается.
Ну так сейчас же всех продактов так учат. Fake it until you make it, MVP, все дела. Может они просто давно хотели выкатить счётчик, но при этом решили для начала затестить не делая его, поднимет ли конверсию. А там, и возник вопрос, надо ли реализовывать, если и так ништяк?
Всегда было интересно, а кто покупатель такой инфы. Знаю, что similarweb подобное скупает (или ранее скупал, а сейчас обелился, — хз). Но есть ли что-то типа маркета (DMP?), где можно купить истории браузинга конкретных людей, и о каких суммах речь?
Да пожалуйста, тыц
Вот говняшка, которая у меня два года назад при установке отправила всю историю на сервера уродов, и еще и зароутила весь траф через mitm. При установке не возникло сомнений потому, что скачиваний 50К+ и рейтинг хороший. А схема очень простая. Находят заброшенные расширения с хорошим рейтингом и количеством инсталлов, покупают креды у автора, выпускают заряженный апдейт. Учитывая, что расширение создано для поиска в истории, то и большие запрошенные права не вызывают сомнений.
Поняв, в чем суть, зарепортил, почитал свежие отзывы. Почти все открытым текстом говорят, что malicious и dangerous, проблемы тоже описывают. Каких-то нейросетей и бигдаты не надо, чтобы понять, что тут что-то не то, и отправить индусу на проверку. Но ради интереса заходил по ссылке спустя год, — все на месте, только рейтинг потихоньку ползет вниз. После того случая удалил 80% расширений, оставив только те, где too big too fail, типа топовых банерорезок, и брендовые, вроде Grammarly где стоимость бренда велика, и репутация дороже. Хотя… вот недавно поставил небольшой удобный тул, а страшно. Никогда не знааешь, когда судьбу better history повторит, апдейтнувшись в фоне.
Уже тоже прошлый век и тема зашкваренная. Из lun.ua ребята не раз показывали на конфах, как чистят от ватермарков фото нейросетями, да и не только они. Похоже, что найти код/собрать и обучить нейронку самому можно.
Как-бы не учтен один немаловажный факт. Что сервисы вроде Cloudflare создаются под огромные объемы трафика. И, скорость работы прямо пропорциональна наполнению их кешей. Соответственно, популярный сайт будет закеширован на множестве edge серверов, а непопулярный, — каждый раз доставаться из некоего центрального хранилища. Соответственно, сайт, на который заходит лишь пингдом, не может работать быстро по определению. И, поэтому, если и делать подобные тесты, то надо делать и хоть сколько-то значимую нагрузку, чтобы прогреть кеши.
Вы показываете нейронной сети кучу изображений с реальным расстоянием, вычисленным лидаром, и сеть учится определять расстояние самостоятельно. Этот метод — своеобразный вид «обучения без учителя» (unsupervised learning).
Серьезно? Обучение нейронки, когда на вход несколько потоков видео, а на выход, — карта глубин это unsupervised learning?
А если альтернативная реальность? Ну не в приоритете ваше деловое предложение господину Л) Может дело и хорошее, но вот прямо сейчас ему не очень то и нужное. Может у него все хорошо с тайм менеджментом, и он Вам не ответил потому, что зачем тратить хоть минуту времени на того, с кем он общаться далее на видит смысла. А если откажет, Вы же можете ещё и уточнять начать причины отказа, время коллов назначать… А если он человек вежливый, то ему придётся тогда уже не одну минуту, а 30 потратить на того, с кем не видит смысла общаться)
Совещание собрал, чтобы послушали коллеги, кругозор расширили, знали, что подобные предложения есть, и понимали их стоимость. Как минимум, чтобы потом можно было с конкурентами сравнить.
например, патрулирование здания фабрики и фотографирование одних и тех же мест по 40 раз в день
Как-то $75к выглядит, на первый взгляд, дороговато для такого. Хотя… если исходить из идеи, что купить подобного робота, чтобы за пару лет написать для него ПО, и вичистить от багов, тестируя в реальном мире. И к этому времени как раз на алибабе появится подобный хардвар за адекватные деньги, и тогда можно будет портировать наработки на него, и получить коммерчески оправданный продукт… Наверное, идея имеет право на жизнь.
Э не… Частая ситуация догвиля в it, когда продукт требует разового ручного ввода данных/написания правил на DSL/написания примитивных sql запросов в большом количестве/написания десятка методов апи по шаблону. И, вроде, объем работы маловат для специально обученного человека, но и многоват для доп обязанностей. В таких случаях, увы, win-win невозможен. Работа должна быть выполнена, а ни роста, ни возможности припоминать за помощь не выйдет (делается то ради общего дела).
Может пострадать либо тот, кого не жалко (стажер), либо тот, с кого спросит бизнес (продакт овнер), либо ещё кто-то.
Как-то даже в линкендине видел вакансию senior business manager, и, по описанию было понятно, что это попытка собрать весь подобный деградационный треш со всех отделов и закрыть его одним человеком.
Проблема вот в чем. Сразу оговорюсь, что не говорю о перепродаже человекочасов в виде аутстаффа, и имею в виду высокооплачиваемых специалистов.
Найм сотрудника это инвестиция. Расходы компании в виде зп стартуют с первого дня работы, а иногда, компания ещё и вынуждена отдать от половины месячной до 20% годовой зп агентству или фриланс рекрутеру сходу. Также первые недели две сотрудник требует внимания коллег, чтобы войти в тему. На выход на полный перфоманс же, в зависимости от проекта, может тратится до месяца. Таким образом, окупаемость инвестиции может растягиваться очень надолго. Также, перед уходом сотрудник требует внимания коллег, чтобы передать дела.
Поэтому, если сотрудник сразу мотивирован постоянно искать +$500, или даже +$100, то имеем конфликт интересов на входе, и увесистый минус к матожиданию прибыли такой инвестиции.
Не вижу трудностей. Хотел журналист скачать какую-то apk себе мимо маркета. Может даже для анонимности. Зашёл на сайт без https, и получил эту же приложуху, но запакованную вместе с сюрпризом. Схема не выглядит сильно сложнее вставки рекламы от оператора в http траф
Не знаю, как у автора, но по моему опыту айтишники редко ищут работу, если все плюс минус ок. Да, есть категория тех, кто в постоянном поиске +$500, но это скорее исключение, и в идеале таких людей заворачивать ещё на собесе. Поэтому, да, резюме в интернете, — это, как правило, прямой мессадж, что "я с вами, уродами, работать не хочу", и это означает, что, как минимум, начальник должен причину этого понять и сделать выводы.
Но, скачав вьювер заданий с гитхаба, и протыкав руками пару десятков заданий, появились некоторые мысли. Интересно было бы мнение тех, кто в теме по ним:
Прежде всего, кажется логичным, что алгоритм должен быть многопроходным (вне зависимости от того, будет эта многопроходность видна в коде, или спрятана на промежуточных слоях нейросети). Условно, на первом проходе он должен преобразовать картинку в набор неких абстрактных представлений вида «красная хрень без выступающих частей», «замкнутый квадрат», «обрамление из точек желтого цвета». Потом уже он должен рассчитать фичи этих объектов вида «самый большой», «самый маленький», «самый нижний». А потом уже как-то обработать получившийся датасет.
И, тут видится два подхода, каждый из которых крайне трудозатратен и объемен. Либо надо пытаться отдельно обучать каждый проход. То есть, сначала обучить алгоритм на доставание правильных фичей, потом на их обогащение, потом на финальный предикт. Либо все вместе и сразу, потратив на это пару милионов $ на аренду видеокарт (возможно, участники из NVIDIA такой возможностью и обладали, имея некую внуреннюю лабораторию).
Но, для обоих подходов надо реализовать довольно сложный генератор заданий, чтобы нагенерировать себе датасет на порядков 5-7 больше, чем дали на каггле. В подходе 1, еще и со множеством входов (к каждой картинке должен идти псевдокод, написанный на удобочитаемом для ML алгоритма DSLе, описывающий происходящее). И вот тут уже возникает вопрос, а стоит ли оно того, и не проще ли написать перебор правил в коде решателя, чем в коде генератора?
Может за счет огромного количества ядер? Если им удастся 20 ядер впихнуть в ноут, то, будет ли это медленнее мобильного i7?
Условно, если iPhone 6 выполняет некую задачу за 5 секунд, а выполнилась она за 3, т, значит, это сервер на х86 прикидывается айфоном?
Подозреваю, что апи, отдающее картинки, подтормаживает.
Возможно, double kill, кстати. Что жертва и червя качает, и ещё при этом и разгадывает реальную капчу, за которую хакерам копеечка капнет от тех, кто скрейпингом или брутом занимается.
На 20+ есть тоже
Ну так сейчас же всех продактов так учат. Fake it until you make it, MVP, все дела. Может они просто давно хотели выкатить счётчик, но при этом решили для начала затестить не делая его, поднимет ли конверсию. А там, и возник вопрос, надо ли реализовывать, если и так ништяк?
тыц
Вот говняшка, которая у меня два года назад при установке отправила всю историю на сервера уродов, и еще и зароутила весь траф через mitm. При установке не возникло сомнений потому, что скачиваний 50К+ и рейтинг хороший. А схема очень простая. Находят заброшенные расширения с хорошим рейтингом и количеством инсталлов, покупают креды у автора, выпускают заряженный апдейт. Учитывая, что расширение создано для поиска в истории, то и большие запрошенные права не вызывают сомнений.
Поняв, в чем суть, зарепортил, почитал свежие отзывы. Почти все открытым текстом говорят, что malicious и dangerous, проблемы тоже описывают. Каких-то нейросетей и бигдаты не надо, чтобы понять, что тут что-то не то, и отправить индусу на проверку. Но ради интереса заходил по ссылке спустя год, — все на месте, только рейтинг потихоньку ползет вниз. После того случая удалил 80% расширений, оставив только те, где too big too fail, типа топовых банерорезок, и брендовые, вроде Grammarly где стоимость бренда велика, и репутация дороже. Хотя… вот недавно поставил небольшой удобный тул, а страшно. Никогда не знааешь, когда судьбу better history повторит, апдейтнувшись в фоне.
Уже тоже прошлый век и тема зашкваренная. Из lun.ua ребята не раз показывали на конфах, как чистят от ватермарков фото нейросетями, да и не только они. Похоже, что найти код/собрать и обучить нейронку самому можно.
Серьезно? Обучение нейронки, когда на вход несколько потоков видео, а на выход, — карта глубин это unsupervised learning?
А если альтернативная реальность? Ну не в приоритете ваше деловое предложение господину Л) Может дело и хорошее, но вот прямо сейчас ему не очень то и нужное. Может у него все хорошо с тайм менеджментом, и он Вам не ответил потому, что зачем тратить хоть минуту времени на того, с кем он общаться далее на видит смысла. А если откажет, Вы же можете ещё и уточнять начать причины отказа, время коллов назначать… А если он человек вежливый, то ему придётся тогда уже не одну минуту, а 30 потратить на того, с кем не видит смысла общаться)
Совещание собрал, чтобы послушали коллеги, кругозор расширили, знали, что подобные предложения есть, и понимали их стоимость. Как минимум, чтобы потом можно было с конкурентами сравнить.
В принципе, медицинский факт, что среди руководителей много психопатов...
Какой-то сюр сегодня на хабре. Первый раз поймал себя на мысли "а не первое ли апреля сегодня", читая про оруэлла, теперь вот)
Как-то $75к выглядит, на первый взгляд, дороговато для такого. Хотя… если исходить из идеи, что купить подобного робота, чтобы за пару лет написать для него ПО, и вичистить от багов, тестируя в реальном мире. И к этому времени как раз на алибабе появится подобный хардвар за адекватные деньги, и тогда можно будет портировать наработки на него, и получить коммерчески оправданный продукт… Наверное, идея имеет право на жизнь.