Зачем эта статья? О чем эта статья? Ни сравнения с Python/C++ реализациями, ни каких-нибудь плюшек, даваемых от разработке систем технического зрения под dotNET. Достаточно было просто ссылку дать на сам гитхаб OpenCVSharp и это было бы полезнее.
Не про "вероятности", а про "степени доверия", всё же. Но вообще-то, конечно, предполагать, что нейросеть на 30 млрд параметрах будет столь же хорошо помнить содержание какой-то придуманной истории, чем сеть на 600 млрд параметрах при том, что её никто специально не собирался учить этой истории, было бы странно. А давайте ещё на примере "Унесенных ветром" вопросы позадаем. Или по какому-нибудь "Конану варвару".
При описанной логике (дать возможность купить смартфон тому, кому не нужен новый) "восстановленный" аппарат должен стоить в несколько раз дешевле нового. Но в реальности в магазине цена всего на несколько процентов ниже. Так кто ... не совсем честен, скажем так?
Дырявость SMT от AMD, да и Intel'овского HT, судя по всему поставят крест на этой реализации "псевдомногоядерности". Наверное следующие архитектуры будут всё же с отдельными ядрами.
Вы кажется, текст не читаете. Я же сказал, что нужно обмануть систему обычного электрического лифа, а не покупать гибридный автомобиль. Электрических лифов разных поколений - просто кучи по бросовой цене, а гибрид - это отдельный автомобиль
Для России гораздо актуальнее задача попытаться обмануть электронику Лифа, чтобы сделать последовательный гибрид с бензогенератором на крыше (или в прицепе). Чтобы зарядка работала именно во время движения. Родной батареи Лифа для "обычных" дневных поездок более чем хватает, но вот выезжать за город уже боязно. А небольшой генератор даже на 3кВт вполне бы справился с тем, чтобы "печально-печально" тянуть автомобиль в нужную сторону на небольшой скорости.
Самообман в оценке сложности алгоритма виден невооруженным взглядом. Она связана с непониманием вычислительной сложности используемых программных конструктов (и показывает, почему Python не считается приемлемым для обучения базовым методам программирования) - очень многие действия кажутся "бесплатными". Например, использование множеств и самосортирующихся списков - да-да, это всё тоже считается в оценке сложности. А в остальном алгоритм - просто немного кривая реализация Дейкстры, но не в варианте "оптимально растущей границы" (традиционный метод), а комбинация поиска в ширину с поиском в глубину. Причем с апостериорной оценкой удаленности узлов. За счет ... хм, "бесплатного" множества, которое, как бы "сразу знает", а не перебирает всё, что в него накидано, при каждом запросе. И вот что ещё важно. Реальный граф, по которому ищется путь - это тысячи узлов и, часто, намного больше. В таких ситуациях любое "оптимизация" вроде сортировок всех узлов - огромная вычислительная нагрузка.
Забыт Салют-7, забыт Луноход, забыт сверхдальний космос с Вегами... А уж про "Буран" и упоминать никто не собирался, наверное...
Непростительно.
Операционная система - это до 30 Гб с учетом обновлений. Остальное - под кэш и виртуальную память.
Вероятно так
Правильный термин в данном случае - "толстый клиент". Всё таки операционная система используется полноценная.
TNT-шки рендерили текстуры без сглаживания и сложного освещения. Кинематографичность изображения на 3Dfx была совсем на другом уровне.
Зачем эта статья? О чем эта статья?
Ни сравнения с Python/C++ реализациями, ни каких-нибудь плюшек, даваемых от разработке систем технического зрения под dotNET.
Достаточно было просто ссылку дать на сам гитхаб OpenCVSharp и это было бы полезнее.
Загляните на https://github.com/SciSharp/NumSharp
Слово "2D-лидар" - это не для нас, конечно
Не про "вероятности", а про "степени доверия", всё же.
Но вообще-то, конечно, предполагать, что нейросеть на 30 млрд параметрах будет столь же хорошо помнить содержание какой-то придуманной истории, чем сеть на 600 млрд параметрах при том, что её никто специально не собирался учить этой истории, было бы странно.
А давайте ещё на примере "Унесенных ветром" вопросы позадаем. Или по какому-нибудь "Конану варвару".
А исправление искажений планируете интегрировать?
При описанной логике (дать возможность купить смартфон тому, кому не нужен новый) "восстановленный" аппарат должен стоить в несколько раз дешевле нового. Но в реальности в магазине цена всего на несколько процентов ниже.
Так кто ... не совсем честен, скажем так?
Да нет, тут речь о тех, кто будет "красоваться перед дамами" своими "навыками хакера". Теперь-то инструкция есть.
Ну вот теперь куча "крутых кулхацкеров" средне-школьного возраста поломает всю систему российского образования... Эх...
Дырявость SMT от AMD, да и Intel'овского HT, судя по всему поставят крест на этой реализации "псевдомногоядерности". Наверное следующие архитектуры будут всё же с отдельными ядрами.
Возможно всё же не pyTorch, а libTorch? Раз уж на C++
Кого интересует КПД, когда впереди и позади 100 км без единой розетки?
В движении не происходит подзарядка.
Вы кажется, текст не читаете. Я же сказал, что нужно обмануть систему обычного электрического лифа, а не покупать гибридный автомобиль.
Электрических лифов разных поколений - просто кучи по бросовой цене, а гибрид - это отдельный автомобиль
Для России гораздо актуальнее задача попытаться обмануть электронику Лифа, чтобы сделать последовательный гибрид с бензогенератором на крыше (или в прицепе). Чтобы зарядка работала именно во время движения.
Родной батареи Лифа для "обычных" дневных поездок более чем хватает, но вот выезжать за город уже боязно.
А небольшой генератор даже на 3кВт вполне бы справился с тем, чтобы "печально-печально" тянуть автомобиль в нужную сторону на небольшой скорости.
Самообман в оценке сложности алгоритма виден невооруженным взглядом. Она связана с непониманием вычислительной сложности используемых программных конструктов (и показывает, почему Python не считается приемлемым для обучения базовым методам программирования) - очень многие действия кажутся "бесплатными". Например, использование множеств и самосортирующихся списков - да-да, это всё тоже считается в оценке сложности.
А в остальном алгоритм - просто немного кривая реализация Дейкстры, но не в варианте "оптимально растущей границы" (традиционный метод), а комбинация поиска в ширину с поиском в глубину. Причем с апостериорной оценкой удаленности узлов. За счет ... хм, "бесплатного" множества, которое, как бы "сразу знает", а не перебирает всё, что в него накидано, при каждом запросе.
И вот что ещё важно. Реальный граф, по которому ищется путь - это тысячи узлов и, часто, намного больше. В таких ситуациях любое "оптимизация" вроде сортировок всех узлов - огромная вычислительная нагрузка.
Не первые в мире. Уже были RoboRace как минимум.