Как по мне главный риск для Nvidia это то что найдут более эффективный алгоритм обучения нейронок. Ведь обучение нейронок - это алгоритм, а алгоритмы имеют свойство оптимизироваться. И потребность в настолько большом количестве видеокарт отпадет.
А способны ли современные модели, корректно реализовать такие вещи, как напримр TCP-сокеты, строго по спецификации? Ведь спецификация по сути - это идеально поставленная задача с детальным описанием того, что должно быть реализовано и что ожидается на выходе.
Я привел чуть более конкретные аргументы, чем «Я к не привык к OS X». И рассматривал я ОС именно с точки зрения того, насколько эффективно на ней решать определенные задачи. Мне по работе например необходим Sketch, и хоть мне ОС не очень нравится, но переходить на что-то другое я не точно не буду.
Вместо того, что бы сдаваться с повинной, он мог бы отправить с того же адреса письмо что произошла ошибка и просто вернуться в тюрьму так же через главный вход :)
Раз статья вызвала такой ажиотаж, значит кому-то она оказалось полезной, или хотя бы интересной. Я учел комментарии, переработал некоторые моменты статьи, что бы более четко выразить свою позицию и охватить все аспекты. Спасибо всем критикующим, вы мне помогли сформировать более полное мнение об ангуляре и действительно подкорректировали мою позицию.
Они очень много переделали в Angular2 как я посмотрю. Это означает, что даже разработчики фреймворка в какой-то степени понимают что были большие ошибки.
Ты просто слишком не конструктивно настроен. Я пишу эмоционально, но подкрепляю фактами, ты выдираешь что-либо из контекста, и агрессивно просишь меня, что-то тебе доказать. Если бы ты был более конструктивен и привел весомые доводы, я бы тебе ответил.
Дополнил немного статью: это невозможно тестировать юнит-тестами, невозможно продебажить, оттуда не кидаются ошибки и при добавлении большего количества логики в onclick он значительно усложнится для чтения.
По поводу ошибки в термине — суть не в том, какой термин используется, а в том, что под ним подразумевается.
Как по мне главный риск для Nvidia это то что найдут более эффективный алгоритм обучения нейронок. Ведь обучение нейронок - это алгоритм, а алгоритмы имеют свойство оптимизироваться. И потребность в настолько большом количестве видеокарт отпадет.
А способны ли современные модели, корректно реализовать такие вещи, как напримр TCP-сокеты, строго по спецификации? Ведь спецификация по сути - это идеально поставленная задача с детальным описанием того, что должно быть реализовано и что ожидается на выходе.
2. Пишешь пагинацию и ленивую загрузку, что бы фреймворк не тормозил
3.…
4. PROFIT!
Можно было сразу выбрать что-то, что не тормозит и не насиловать себя.
По поводу ошибки в термине — суть не в том, какой термин используется, а в том, что под ним подразумевается.