All streams
Search
Write a publication
Pull to refresh
-23
0
Артем Шпынов @FYR

User

Send message
Проблема в том что только петя понимает как оно работает. И не потому что он злой бармалей и никому не сказал, и не потому что так используются секретные технологии, а потому что нанимали в коллеги пете не шибко квалифицированные кадры. И экономя да и просто не так просто найти десяток петь — они все сидят прикормленные и никуда рыпаться не хотят ибо им тепло сухо мухи не кусают — куда зачем то рыпаться.
ну да ну ду последний.
Не забывайте что бывают разработки в которых 2-3 таких «Пети» и 5-6 «мартышек». Петя лабает бекенд зачастую по наитию ибо дорога не протореная не хоженая, о том что нужно сделать знают немногие, о том как сделать незнает никто. Зато если «Пети» справятся — профит будет огромный. А мартышки надо чтобы фронтенд написать и творение Петь в фантик завернуть.

А проблема в чем — том что у Петь — головы квадратные, профит от них такой что им можно еще 3-4 зарплаты платить, и собственно тут они сидели ибо им было интересно и их никто не трогал. Для остальных уровень этих Петь просто недосягаем и многие думают что то, что реализовали Пети просто не возможно по определению ТТХ характеристик оборудования.

Вообщем проще сказать что у Петь надежный такой Job Assurance. И вот приходит такой вот «умный дядька» с военной дисциплиной и начинает гнобить Петь на тему «последний спринт». Петя посылает этого дядьку и идет работать к конкуренту. Epic Fail.

Вообщем мне так эти сектанты- стендаперы уже надоели. Движухи много толку мало. По катку бы им лучше чтоли раздать.
Хотя наверное 1U это DL165G7… может и не снимется… И не только в сервачках дело.
:)
10Гбит включительно происходит на сервере HP, такое возможно


Если разрабы будут писать морду то конечно нет, а вот если займутся фильтрацией. То почему бы нет. Лишь бы 10G в сетевой интерфейс пролезли. За 10G с одного провода, не скажу но 9 с хвостиком — пожалуйста.

Проблема в том что не перестанут.
Да через пять лет железо справится и нормальный объем ОЗУ Low-Cost сервера будет исчисляться терабайтами. И ядра сотнями. Беда в том что необходимые объемы данных будут исчисляться петабайтами. И их придется хранить на петабайтных винтах, которые по прежнему будут медленнее.

И это я еще оптимист. Несколько лет назад объем дискового хранилища в 1 тер достигался парой десятков винтов, и мы имели 20 шпинделей на этот объем.
Теперь 146ГБ SAS 15k это уже «старье» и в тренде 300 а то и 600 винты. И теперь мы имеем пяток винтов на этот тер и производительность дисковой системы снизилась в 4 раза на произвольный доступ.

Классические БД монолитны. В случае ахтунга ничего не теряется, но обламываются все и пока не накатится бекап мы стоим. Чем больше данных тем дольше восстановление. Тем больше клиентов простаивают.

NoSQL как правило shared-nothing и бекап надо катить не на всю базу, а только на отдельный кусок. Остальные не затрагиваются.

Ну и соглашусь с другими ораторами: современные СУБД это монстры. Мне не нужна вся мощь PL/SQL. Но нужен JOIN между двумя террабайтными таблицами фактов. Редко, разово, но этот раз требуется директору.

Я готов потерять часть данных старше пары суток, но чтобы не случилось я должен иметь возможность сохранять поступающие данные. Ну вообщем у нас CAP в действии. :)

И мне нужен MPP. И вынужден покупать топовые Oracle/MSSQL хотя остальные 90% их возможностей мне просто не нужны, а некоторые типа MVCC и просто иногда вредны.
Ну примерно так же как в файрфоксе — между версиями поддержка старых модулей не гарантируется. ДеФакто напрягать это особенно будет только первое время пока активно будет меняться архитектурная часть. Далее базовая архитектура устаканиться и плагины на 95% останутся совместимы.
Отчасти и это тоже сало причиной почкования. Когда альфа стабильнее релиза.
не совсем правы. Такова иерархия папок: все плагины в plugins все иконки в Icons, более того сам фингерпринт не использует эти иконки напрямую а юзает их через отдельный сервисный плагин (раньше так было).

Вы прям как маленький. Миранда (ванилька) никогда не была «для блондинок» это всегда был конструктор «собери сам или скачай у того кто собрал сам». Каких то «официальных сборок» не было. Ну если то что стандартно поставлялось можно назвать сборкой… Но совсем прям для аскетов. Так что практически ничего не изменилось. Не стоит пока критиковать NG за отсутствие нормального сайта. Уверен что все будет. А так как «сборщики» тоже кучкуются на конфах, плюс доступность исходных кодов всех плагинов, какая никакая унификация. Не забывайте что многие сборщики не программеры и даже малейший косяк в файле проекта из за которого что то не компилиться — ставит их в тупик. Здесь же общая среда. Выкачал все скомпилил что нужно.
Но это НЕ обновление это форк.

То что можно сохранить старые настройки скорее бонус.

Никто не заставляет переезжать на НГ. Старый Miranda-IM никто никуда не удалял. И никто не мешает им делать бекпорт обновлений и багфиксов модулей из НГ как и наоборот. Это же мир OpenSource все исходники и патчи общедоступны.
А смысла какой?
Миранда сильна модульностью. Ядро портировать можно подочто угодно. А вот плагины. Кто будет их портировать? Уровень их разработчиков очень разный. И мотивации «кросскомпилируемости» нет для многих никакой. Некоторые даже под пингвинами то не работали, не то что на яблоках.

Да и многи плагины то и так чисто для и из-за винды. Например clist_modern от стандартного clist_classic отличается скинами и поддержки чисто виндовых layered windows (прозрачные окна). Там 3/4 отличий не то что жесткий WinAPI. Там в плоть до использования недокументированных фич и разных костылей. как такое портировать. В итоге это выльется в набор плагинов для мака и набор плагинов для винды.

А если из ядра сделать среду/движок типа мозиловского — это будет уже совсем не миранда. Хотя да назвать новый продукт можно как угодно.
Кратко — нагло нарушил условия GPL, а когда его попросили исправиться — отправил всех на 3 буквы.
Эээ да ты гонишь, тасрмм давно уже идет в поставке в паке контриб модулей вместе с релизом, а на аддогнсах его тупо никто не обновляет — ибо собиралось и выкладовалось оно вместе с основным бинарником.
Ну. Там просто достигли точки бурления фекалий те кто кодят и те кто выпускают — чуть чуть разные люди. Плюс траблы с одним конкретным разрабом, не менее активным чем ghazan, но сначала комитящим код, а потом пытающимся его компилить. В итоге это надоело, Боркру обозвали жидоамериканцем, а Гхазана в абауте перенесли из разрабов в низ ретайред мемберс, впрочем оставив там древних динозавров типа меня. Вообщем сралко было решено по Гордиевски.
Очень часто прямые пути дают только количественный профит, а вот косвенные могут дать качественный прорыв.

Плюс проблема разделения направлений наук: Сидит биолог думает думает как бактерии заставить жить дольше. Причем этих гадов приходится в стекле держать а то они пластмассу съедают. Он пытается решить свою Прямую задачу.
Сидит физик думает как бы пластмассу разлагаться заставить. Тоже придумать не может.

А тут их взяли посадили вместе, денег дали над мегапроектом «построй великий всемогутор» работать заставили. Но всемогутор построить не вышло (может математика забыли), а вот эти частные задачи решили просто так мимоходом. Конечно денех потратили уйму. Но вопрос сколько бы еще они думали поотдельности и смогли бы в принципе придумать? Может быть им надоело и они бы бросили?
Я даже тебя дополню — у оператора нет технической возможности это делать. Да и потом глупо это, кто помешает знающим людям при блокировке по URL ходить по ip?
Есть сложность.
Не забывайте про стоимость производства цифрового контента, эта стоимость и отбивается легальными копиями. Не будем поминать говнофильмы михалкова в суе, а возьмем например какую нибудь казуалку (и то лучше :).
Пусть она пишется полгода, разрабу заплатят в итоге полмиллиона. Вопрос кому эта казуалка будет нужна за эти полмиллиона? А вот по 10 рублей 50 тысяч человек запросто отдадут чисто за «попробовать». Ну и где грань?
ИМХО: очень сложно, если невозможно придумать критерии и правила как различать когда это перестало быть «окупанием себестоимости производства» и дальнейшие копии должны быть бесплатны. А если учесть что активные граждане здесь заинтересованные лица, которые на этом делают бабло, то скорее таки невозможно. А деньги и «здравый смысл, нормы морали» вещи вообще не совместимые. Вот и берутся товарищи «Михалковы» с их бредовыми мыслями.

На месте государств я бы просто слал копирастов лесом. И возложил на них самих обязанность охранять свою «интеллектуальную» собственность.

Не хотите чтобы ваща киношка не утекла на торренты — не вопрос не распространяйте ее через сети, шифруйте бинарники, защищайте свои DVD, пропагандируйте насколько пиратские экранки хуже и портят впечатление от фильма. А если уж если утекла… ну значит утекла, значит плохую придумали защиту.

Или если хотите законы, то давайте по чесноку чтобы ЗоЗПП действовал: чтобы мне возвращали деньги за просмотр очередного «шедевра», за скачивание глючной казуалки, за кривой софт… Так и быть диск верну, а скаченное назад «вкачаю».

И вот как раз правильная оценка сложности и коэффициента на сколько срок увеличиться и является основной проблемой при планировании.

А модульность, модульность в таких проектах уже исчерпала себя — она уже используется где только можно. Ну реально же не 4 гига на пару десятков разработчиков. Конечно все это разбито на компоненты, компоненты на модули. Команды распределены или сами распределились по сферам компетенции по этим модулям.

И только команде интеграции не спалось все эти модули собирать воедино и заставлять этот гребаный телефон таки работать и не ребутаться если приперлась SMS, а юзер в это время в редакторе записной книжки сидел :))
>Я не знаю, какие Вы лично проекты делаете
Лично я не делаю а только участвовал и участвую. Но сложилось так что размеры кода измерялись в первом случае гигабайтами (но это была большая корпорация). В текущем же случае измеряется сотнями мегабайт, но надежность должна быть 24/7/365. Это вам ни какую нибудь социалочку замутить.

Проходили мы и agile и XP. Но в серьезных проектах важно не столько качество, сколько прогнозируемость его и прогнозируемость сроков. Нету программиста Пети и Васи.

Есть оцениваемая сложность функционала X человеко-недель, и n доступных ресурсов. Соответственно ожидаем готовность тестированию через X/n*Kz недель календарных с примерно Y% пройденых тестов с дополнительными затратами +Z недель и итоговым качеством 95%.
И вот как хошь так и вертись. Все новомодные методики хороши с начала. Но внедрить TDD в 4 Гига уже существующего говнокода на 70% писаному индусами…
По мне более вероятен случай выявления нетривиального кода, неверности документирования, отсутствия комментариев и т.п.

Разработчику сложно оценить достаточна ли плотность комментариев — он же знает что делает этот блок кода. Ему очевидно почему он выбрал эту схему решения а не другую.

А тем более сложность кода — как раз когда ревью слабым разработчиком оказывается очень полезно — он покажет какие места не очевидны, а чем нетривиальней код тем вероятность косяка выше.
Можно, для этого нужнен опыт предыдущих разработок.
Единственное что не стоит делать из него «священую корову», но оценка на каких то данных, пусть не совсем верная все таки более достоверна чем гадание по времени полета плевка до потолка в кабинете менеджера :).

Information

Rating
Does not participate
Location
Нижний Новгород, Нижегородская обл., Россия
Date of birth
Registered
Activity