Даже если предположить, что владелец бизнеса зарабатыват в 2 раза больше и чисто теоретически может себе нанять адекватного разработчика
А захочет ли? Поставьте себя на место владельца бизнеса. Он (или она) годами учился нагибать поставщиков, решать вопросы с представителями власти, контролировать подчиненных чтобы… э… отдавать половину честно заработанного парню, который и десятой части из этого не умеет?
Рекорд в 100 одновременных пользователей… хостинг… такому проекту CI/CD как-то слишком на вырост что-ли. Может лучше просто волевой запрет на кастомные решения, и только коробочные (или облачные) без единого изменения в скриптах в принципе. Все таки, если IT — не ключевая компетенция данного бизнеса, то может и не стоит туда лезть. Да и почитав переписку, сочувствую людям, которые работают с заказчицей. Все таки, в таком проекте вряд ли наберешься полезного опыта (кроме опыта расчистки авгиевых стаен), да и что-то мне кажется, что и денег сильно выше рынка не получишь тоже…
Точно так же и с программированием. Непосвященный человек точно также не может увидеть, что на самом деле происходит в процесе разработки. И «профессиональный программист написал бы эту программу за 30 минут», «если бы у меня был свободный месяцок разобраться, как писать код, то давно бы уже все за вас сделал» никто не отменял.
Как минимум, обладание такой программой (без знания исходников, конечно же) вселяет уверенность в себе и своих действиях. А это, в свою очередь, поднимает вероятность успешной сделки.
И еще 1 момент в поддержку мнения автора статьи. Современные средства не только имеют высокий входной порог, но и лишают процесс разработки предсказуемости. Ведь прогнозировать время на решение проблем тулинга, совместимости, настройки крайне тяжело, в отличии от времени на написание кода.
Если провести аналогию с программистами, то Вы ведь намекаете, что профессиональный программист должен понимать принципы работы железа, ОС, компиляторов, баз данных? Я не спорю, что это так, я утверждаю, что все эти знания не сильно помогают, когда надо локально запустить чужой код с применением десятка фреймворков, который упорно не хочет компилироваться/завершается с ошибкой сразу при запуске из-за несовместимости версий установленных фреймворков, или отсутствия переменной окружения, или еще тысячи неочевидных вещей. Лично мне повезло получить хорошее образование по computer science, и я раньше был .NET программистом около пяти лет. Но ситуация, когда просто хочешь, к примеру, поиграться с новой ML библиотекой на питоне, и тратишь 3 часа на прикручивание его к MSSQL, которое по факту не в написании кода, а в решении проблем совместимости версий пакетов, интерпретатора и менеджера пакетов, начинаешь понимать, что, во-первых, что-то с ситуацией в разработке по не так, а во-вторых, весь мой опыт совсем не радикально помогает в методичном гуглеже кодов ошибок и прочтении стековерфлоу.
Есть подозрение, что произошла подмена понятий — автор программы научился выявлять то, что не является толстым троллингом и сарказмом, и приписал себе способность выявлять (не)фейки. Но, если фейк писать по шаблону годной новости, подставляя нужные факты и фамилии, то очень сомневаюсь, что нейросейть что-то выяснит.
Лично я для себя использую следующий алгоритм.
1) Пытаюсь найти первоисточник. Использую в гугле поиск по точной фразе и отсекая последние дни ограничением выдачи за период. Также важно правильно выбрать точную фразу, потому, что часто новости щедро откопирайчены. Использую поиск по картинке.
2) Оцениваю сайт первоисточника через similarweb, просто смотрю, какие новости на нем
3) Проверяю побочные факты, приведенные в статье. Ищу упоминания о ключевых людях/компаниях вне этого инфоповода. Например, может быть упоминание профессора с мировым именем, но невозможно найти ни одной его публикации, или упоминания о его участии в конференции.
То есть, почти все мои активности завязаны на добывание дополнительной информации (что хорошо, сама концепция интернета способствует этому), и робот может с этим справится лучше человека. В статье же попытка найти черную кошку в темной комнате, где ее нет.
Именно! Правда даже лебедя читать не надо, бектестирование моделей — это вообще то, с чего надо начинать. Почти уверен, что автор все это хорошенько проверил, и предсказал и 2013 и 2014, и все остальные годы, но, увидев качество прогноза, стыдливо умолчал такие результаты, и опубликовал статью без саморазоблачения. Ведь очень сомнительно, что у автора не появилось желания проверить свой грааль на истории.
PS: в построении опционных моделей вообще есть практика убирания тренда)
ЕМНИП, есть коррекция части ошибок памяти. Но есть варианты, как все равно перевернутые биты могут проскакивать (даже тесла с коррекцией ошибок это далеко не уровень CPU вычислений по вероятности ошибки памяти). Поэтому да, вероятность получить перевернутый бит на тесле значительно ниже, но вот, скажем, финансовые транзакции все равно процессить не выйдет.
По производительности тесла в 20 раз лучше, а по цене в 10 больше
для 64 битных вычислений, которые мало кому нужны для тех задач, под которые берут видеокарты.
Например, Floating-point performance (он нужен для задач симуляции) 11,340 gflops для Ti, 14,029 gflops для Tesla V100 — то есть, Tesla дает 124% от производительности Ti.
Можно еще сказать, что тензорные ядра в Тесле рулят для машинного обучения, но не надо забывать, что они не только там есть, а еще и в Titan V.
В самом деле, все очень просто — старая практика маркетологов по сегментации рынка. Те, кто хочет играть/майнить/готовы на коленках делать себе железо для размещения в ЦОДе, договариваться с владецем ЦОДа, что тот не выдаст, получат продукт по справедливой цене. Остальные заплатят в 5-7 раз больше, но их это тоже устроит.
лично мое мнение, что надо смотреть на облако, как на очень узкоспециализированный инструмент для горизонтального масштабирования. И затыкать им те дыры, где это нужно. Грубо говоря, ядро на MSSQL + ПО для сотрудников на своем железе, а фронт, который отправляет в ядро заявки/заказы/etc, и может масштабироваться в зависимости от праздников, сезонности в облаке.
Но, снова таки, возникает вопрос. В каждом втором радостнном посте от апологетов облаков встречается история о использовании облаков ритейлерами в черную пятницу. И, само-собой, возникает вопрос, а реально ли достать в облаке необходимые ресурсы в черную пятницу, когда, по логике вещей, все ритейлеры начинают одновременно наращивать облачные мощности, и может просто не хватить запаса ядер/памяти/диска у владецьца облака?
скажите какая у Вас СХД, мы купим такую-же и Вы у нас ее арендуете.
Как я понимаю, под такие условия будет необходимость подписаться под обязательствами и штрафными санкциями в случае ухода? То есть, основной фишки облаков — ресурсов ondemand, не будет?
хотел бы еще чуть уточнить о том, что важен способ того, как человек стал отличником.
1) Просто, не срезая углы, зубрил, четко выполняя правила. Иногда, даже не понимая суть предмета, но компенсируя это заученным материалом и шаблонами решения задач.
2) «Просек фишку» в правилах игры. И дружил с правильными зубрилами, знал где, и как списать, мог найти подход к трудным преподавателям, и убедить их в том, что он таки действительно без ума от их предмета, у него горят глаза, и просто будет стыдно поставить не отлично.
Я бы сказал, что нужны и первые и вторые (на разных должностях, конечно же). Но, вот о том, что недостатки, описанные в статье относятся и ко второму типу, готов поспорить.
А захочет ли? Поставьте себя на место владельца бизнеса. Он (или она) годами учился нагибать поставщиков, решать вопросы с представителями власти, контролировать подчиненных чтобы… э… отдавать половину честно заработанного парню, который и десятой части из этого не умеет?
Мне интереснее, что имеется в виду, что хакеры хотели понять принцип в интересах российских бирж, или, чтобы ломать российские биржи?
И еще 1 момент в поддержку мнения автора статьи. Современные средства не только имеют высокий входной порог, но и лишают процесс разработки предсказуемости. Ведь прогнозировать время на решение проблем тулинга, совместимости, настройки крайне тяжело, в отличии от времени на написание кода.
Если провести аналогию с программистами, то Вы ведь намекаете, что профессиональный программист должен понимать принципы работы железа, ОС, компиляторов, баз данных? Я не спорю, что это так, я утверждаю, что все эти знания не сильно помогают, когда надо локально запустить чужой код с применением десятка фреймворков, который упорно не хочет компилироваться/завершается с ошибкой сразу при запуске из-за несовместимости версий установленных фреймворков, или отсутствия переменной окружения, или еще тысячи неочевидных вещей. Лично мне повезло получить хорошее образование по computer science, и я раньше был .NET программистом около пяти лет. Но ситуация, когда просто хочешь, к примеру, поиграться с новой ML библиотекой на питоне, и тратишь 3 часа на прикручивание его к MSSQL, которое по факту не в написании кода, а в решении проблем совместимости версий пакетов, интерпретатора и менеджера пакетов, начинаешь понимать, что, во-первых, что-то с ситуацией в разработке по не так, а во-вторых, весь мой опыт совсем не радикально помогает в методичном гуглеже кодов ошибок и прочтении стековерфлоу.
А кто-то пытался докопаться до истины, сколько в самом деле Prodeum собрал? Все источники, что я находил, называют разительно разные цифры:
hype.codes/prodeum-ico-allegedly-turned-out-be-scam — $500K
www.bloomberg.com/news/articles/2018-02-15/pac-man-video-game-maker-atari-is-now-a-cryptocurrency-play — тут пишут, что хз, но, вполне возможно, что какая-то незначительная сумма
www.techweez.com/2018/01/30/prodeum-exit-scam — $11
steemit.com/news/@magicpiggy/the-site-of-the-lithuanian-startup-prodeum-was-removed-after-the-ico-at-usd-6-million — $6000K, хотя и под сомнением
Лично я для себя использую следующий алгоритм.
1) Пытаюсь найти первоисточник. Использую в гугле поиск по точной фразе и отсекая последние дни ограничением выдачи за период. Также важно правильно выбрать точную фразу, потому, что часто новости щедро откопирайчены. Использую поиск по картинке.
2) Оцениваю сайт первоисточника через similarweb, просто смотрю, какие новости на нем
3) Проверяю побочные факты, приведенные в статье. Ищу упоминания о ключевых людях/компаниях вне этого инфоповода. Например, может быть упоминание профессора с мировым именем, но невозможно найти ни одной его публикации, или упоминания о его участии в конференции.
То есть, почти все мои активности завязаны на добывание дополнительной информации (что хорошо, сама концепция интернета способствует этому), и робот может с этим справится лучше человека. В статье же попытка найти черную кошку в темной комнате, где ее нет.
PS: в построении опционных моделей вообще есть практика убирания тренда)
Как правило при оплате за 1u очень жесткие требования по мощности БП.
для 64 битных вычислений, которые мало кому нужны для тех задач, под которые берут видеокарты.
Например, Floating-point performance (он нужен для задач симуляции) 11,340 gflops для Ti, 14,029 gflops для Tesla V100 — то есть, Tesla дает 124% от производительности Ti.
Можно еще сказать, что тензорные ядра в Тесле рулят для машинного обучения, но не надо забывать, что они не только там есть, а еще и в Titan V.
В самом деле, все очень просто — старая практика маркетологов по сегментации рынка. Те, кто хочет играть/майнить/готовы на коленках делать себе железо для размещения в ЦОДе, договариваться с владецем ЦОДа, что тот не выдаст, получат продукт по справедливой цене. Остальные заплатят в 5-7 раз больше, но их это тоже устроит.
Но, снова таки, возникает вопрос. В каждом втором радостнном посте от апологетов облаков встречается история о использовании облаков ритейлерами в черную пятницу. И, само-собой, возникает вопрос, а реально ли достать в облаке необходимые ресурсы в черную пятницу, когда, по логике вещей, все ритейлеры начинают одновременно наращивать облачные мощности, и может просто не хватить запаса ядер/памяти/диска у владецьца облака?
Как я понимаю, под такие условия будет необходимость подписаться под обязательствами и штрафными санкциями в случае ухода? То есть, основной фишки облаков — ресурсов ondemand, не будет?
1) Просто, не срезая углы, зубрил, четко выполняя правила. Иногда, даже не понимая суть предмета, но компенсируя это заученным материалом и шаблонами решения задач.
2) «Просек фишку» в правилах игры. И дружил с правильными зубрилами, знал где, и как списать, мог найти подход к трудным преподавателям, и убедить их в том, что он таки действительно без ума от их предмета, у него горят глаза, и просто будет стыдно поставить не отлично.
Я бы сказал, что нужны и первые и вторые (на разных должностях, конечно же). Но, вот о том, что недостатки, описанные в статье относятся и ко второму типу, готов поспорить.
ARM как серверная платформа уже не дикость, кстати
www.theregister.co.uk/2017/03/09/microsoft_arm_server_followup
techcrunch.com/2017/06/22/scaleway-doubles-down-on-arm-based-cloud-servers
а своровать исходники игры с закрытым кодом тоже в зачет?)