Обновить
2
0

Пользователь

Отправить сообщение
Там ни одной строчки кода.

Спасибо автору за подборку. Однако с выводами я не согласен. Достаточно исключить "исключение не наблюдаемых велечин" Тогда кот будет существовать даже если мы не наблюдаем за ним. При таком подходе парадоксы уйдут из физике, но останутся в математике и логике.

Дикая подборка у этого Филипса.

Изучать надо не Дум 3, а исходники Квейка. Как с минимумом файлов создать шедевр.
Что касается архитектуры, то она лучшая у движка Ogre3D.

Изучать исходники апполо, нет смысла. Разве что из любопытства как они всю миссию в 2 кб запихнули. Но тогда современные js1k.com гораздо лучше там не то что код но и графику умудряются запихать.

Единственное из-за чего я полез в исходники апполо из-за того чтобы посмотреть как там сделана POST система. Каждый программист должен проверять целостность своей программы и данных. А этому к сожалению не учат.
И вообще код апполо не удовлетворяет современным требованиям наличия нескольких алгоритмов на борту и выбор между ними и прочим требованиям по увеличению надёжности.

Фотошоп 1 версии не чуть не лучше GIMP тоже Г. Но с боку бантик. Уверен что можно найти исходники более лучшие.

Бесик смотрел. Однако ничего выдающегося. Ни тебе теории парсеров ни архитектуры.
Если вы хотите насладится кодом компилятора возьмите LCC вот там правильная архитектура компилятора. sites.google.com/site/lccretargetablecompiler

Из операционных систем рекомендую вот этот проект посмотреть:

Так же рекомендую посмотреть исходники компьютерной библиотекеи для рисования AGGPas. Библиотеки шаблонов для численных вычислений Eigen — она между прочим считается образцовой.

По нейронным сетям рекомендую изучить репозиторий github.com/karpathy/convnetjs
Качественный легко читаемый код без излишеств.

По операционным системам тоже странный выбор. Судя по всему он искал самые старые ОС, так почему не взять Unix? А если по архитектурным решениям, то Minix и ещё была созданная в научных целях ОС от майкрософта забыл название демо в закромах лежит.

И в дагонку можно упомянуть аналог розетского камя для программистов
rosettacode.org
AST к подсветки не имеет ни какого отношения. Для правильной подсветке достаточна списка лексем.
Жму вам руку. Я свой компилятор 3 года делал. Причем на отладки ссылок застрял на 1 год.
Простату языка проще проверить на задачах из rosetecode.org там сразу видно какой язык проще.
У Паскаля код длине чем у современных языков таких как Rust.
По поводу больших датасетов. Моя практика показывает что при определённом моменте размер датасета начинает только вредить. Мелкие ошибки складываются и перерастают полезный сигнал.
Так что с этим ещё предстоит разобраться.

Лет 15 назад о исходниках можно было только мечтать. Сейчас их выкладывают. Поэтому воспроизводимость стала лучше. Собственно лет 10 я удачно переждал и сейчас по новой вхожу в эту область.
Так вот NLP есть направление «Word Embeddings» если упростить, то это набор разных алгоритмов которые делают одно и тоже. Так что есть легко можно сравнить результаты.

В деревьях решений у меня результаты сильно плавают от эпохи к эпохи. При удачном «броске костей» может выпасть 97% результат, а в худшем 23%. Но это легко устраняется несколькими независимыми прогонами(вехами).
И знаете скорость обучения компьютера за 15 лет выросла в разы. Что позволяет устранить случайные ошибки.
В совокупности эти 3 фактора позволяют хорошо воспроизводить результаты.
Да был у меня случай когда от разрешения монитора зависел результат. Но это уже ошибки реализации, а вернее где-то не учли устойчивость. Откуда можно и метод усовершенствовать. Методики по степенно всё усложняются. Тем самым снижается число факторов которые влиять или могут повлиять на эксперимент. Но вот эксперимент становится дольше ставить и описывать.

Да от датасета всё ещё многое зависит. На самом деле мы в ML используем далеко не полные датасеты, а следовательно они врят-ли могут быть репрезентативными. Но раз так нам остаётся одно совершенствовать наши методы познания. Разделять то что мы познали, а то что ещё предстоит познать.

Датасеты увеличиваются. А следовательно прикладной охват результатов тоже увеличивается. Хотя он и не является окончательным. Но для прикладного применения этого хватает. Вот фундаментальные или теоретические выводы они труднее.
По поводу больших датасетов. Моя практика показывает что при определённом моменте размер датасета начинает только вредить. Мелкие ошибки складываются и перерастают полезный сигнал.
Так что с этим ещё предстоит разобраться.

Лет 15 назад о исходниках можно было только мечтать. Сейчас их выкладывают. Поэтому воспроизводимость стала лучше. Собственно лет 10 я удачно переждал и сейчас по новой вхожу в эту область.
Так вот NLP есть направление «Word Embeddings» если упростить, то это набор разных алгоритмов которые делают одно и тоже. Так что есть легко можно сравнить результаты.

В деревьях решений у меня результаты сильно плавают от эпохи к эпохи. При удачном «броске костей» может выпасть 97% результат, а в худшем 23%. Но это легко устраняется несколькими независимыми прогонами(вехами).
И знаете скорость обучения компьютера за 15 лет выросла в разы. Что позволяет устранить случайные ошибки.
В совокупности эти 3 фактора позволяют хорошо воспроизводить результаты.
Да был у меня случай когда от разрешения монитора зависел результат. Но это уже ошибки реализации, а вернее где-то не учли устойчивость. Откуда можно и метод усовершенствовать. Методики по степенно всё усложняются. Тем самым снижается число факторов которые влиять или могут повлиять на эксперимент. Но вот эксперимент становится дольше ставить и описывать.

Да от датасета всё ещё многое зависит. На самом деле мы в ML используем далеко не полные датасеты, а следовательно они врят-ли могут быть репрезентативными. Но раз так нам остаётся одно совершенствовать наши методы познания. Разделять то что мы познали, а то что ещё предстоит познать.

Датасеты увеличиваются. А следовательно прикладной охват результатов тоже увеличивается. Хотя он и не является окончательным. Но для прикладного применения этого хватает. Вот фундаментальные или теоретические выводы они труднее.
Тут смотрел как на питоне делают сайты. Новички даже не берутся, так как сложно. А раньше было просто форум за 30 дней на пхп.

Вот честно согласен наша ниша переусложнилась, до пределов. Хотя полно примеров простых кодов только поискать.

Так очистка диска показывает отсутствие системных обновлений, они были по 0. Да и гибернация тут явно не причём так как комп перезагружал пару раз и выключал.
На днях вообще приключилось странное ОС Win10 съела 15 Гб. Куда чего не понятно объем папок подсчитал на 10 меньше чем в свойствах диска. Через пару дней всё само собой нормализовалось. Но что это было осталось для меня загадкой.
С первого взгляда понятно, куда надо нажимать, но текст на нажатой кнопке-вкладке нечитабелен.

Там процентов 70-90 функционала на экране не отображена. Функционал запоминаешь по режимам и кодам. Прокрутка меню вообще не интуитивная.
Как раз таки текст там читабельный. Там особенность экрана, то что он контрастный и чёткий.
Лучше конечно сделали бы текст более жирным, но там всего 4 уровня градации у экрана. Поэтому локализация выглядит как вырви глаз.
Один в один как в моём НИИ. Так что проблемы системные.
1. Начальство видит разработку как создание из кубиков, а не как изыскания.
С другой стороны это понятно, как только создание нового так ценник 30 млн. Т.е в 30-100 раз завышается.
Проблема завышения цены в людях которые не хотят брать ответсвенность и размазывают её на коллектив.
2. Как следствие без тренировок в разработки новинок инженер разучается думать. И он вынужден заказывать на стороне.

Тематика «Сэндвич» — это высоко-интегрированные измерительные решения для конструкций ракет, 2D и 3D сенсоры. Вообще-то, это сумасшедшая математика, и логично бы ее начать со сложного — обратиться куда-нибудь на мехмат.

Дешевле отдать фрилансеру который рассчитает всё в нужном САПРе или 5 фрилансерам.

Такие вещи должен считать инженер в НИИ, но специалистов нет. В 15 году пришёл парень рассчитал корпус для датчика. Вышла хвалебная статья как он заменил отдел из 30 человек. Конечно не он а САПР, а через год он уволился.

В 80-е годы нормативная база регламентации была относительно адекватна тем реалиям, которые тогда были. Сейчас же – этого нет. На низовом уровне мы жестко обязаны демонстрировать лояльность всему этому порядку.

ГОСТы с 80-тых не изменялись. А вот 70-тых их был минимум и там смотрели на результат. Поэтому золотой век космоса в СССР пришёлся на 45-75 года

Это вот сейчас наш НИИ оштрафовали на 2 лм за то, что межбуквенный интервал не соответствует ГОСТу. А то что содержимое ГОСТов уже устарела это всем на чихать.

2

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность