Pull to refresh
0
0
Send message

Это таки очень удивительно, ибо самые большие расходы - либо рент либо покупное жильё. Впрочем недооценка стоимости жилья характерно не только для РФ статистики

Эти крошечные разряды могут запустить сложную химию без вмешательства внешнего электричества.

Уже давно показаны результаты по синтезу почти всех (а может даже всех - не помню) аминокислот плюс пептидов в водоёме с фосфатами, синильной кислотой и аммиаком.
Никаких молний для этого не требуется.
Статья ни о чём.

Наиболее распространенная теория гласит, что на ранней Земле существовал первичный бульон из ингредиентов, необходимых для становления биологии, какой мы ее знаем.

Наиболее вероятные гипотезы - зарождение в фумарольных лужах, либо на подложке из минералов.
Первичный бульон сам по себе жизнь не сделает. Непонятно откуда пошло утверждение про "наиболее распространённую" гипотезу.

Чем вызвано неугомонное желание непременно сделать именно нативное приложение?

PWA замутить религия не позволяет?

Это же не игра какая-то, все операции спокойно делаются через веб-сайт.

А кто сказал, что солнечные дни это хорошо? Это означает, всегда надо в очках ходить, ваши 25 в тени на солнце превращаются во все 30. Это означает что надо либо мазаться постоянно, либо ходить закрытым. Если бы она всегда была средней 25, то ещё терпимо. Я, например, чётко помню 46 в тени. Вы реально считаете это нормальным? Я не ящерица, уж извините.
Зимой - да в целом норм.

Поддерживаю на 100%, что удалёнка - это прогресс. Однако, далеко не всегда и не везде есть прогресс. Забавно, что ещё до ковида в нашем штате поощрялась частично удалённая работа для публик сектора, чтобы снизить нагрузку на транспорт. Но сейчас - транспорт работает намного хуже, и при этом всех загоняют в офисы на 5 дней в неделю.

А по поводу климата, вы неправы. В Сиднее ужасный климат летом, температура практически не опускается ниже 30. Выйти на улицу - тот ещё квест. Солнце жарит и сжигает кожу, без очков очень сложно ходить.

У нас в Австралии всех возвращают в офис. Сейчас чистой удалёнки почти не осталось. Подробнее ниже.

Рабочее место на удаленке дешевле

Это идёт по другой статье расходов, а говермент агенства наоборот поощряют возврат в офис ибо: "а что они дома сидят и ничего не тратят - непорядок, нам надо побольше налогов содрать".

Практически невозможно физически- собрать нужное количество специалистов высокого уровня в офисе

Непонятно, что значит высокий уровень. Команда из сениор-джавистов/дотнечиков с 15+ лет опыта набирается за месяц.

По-моему наблюдению, на удалёнке люди склонны перерабатывать, если работа интересная и недорабатывать если работа скучная. Так что - где-то возврат в офисы весьма оправдан.

зачем вам их скачивать тогда тогда? Чтобы что

Для анализа и учёта. Как вы можете догадаться, никакой один и уникальный сервис не может обеспечить всей функциональности для полноценного анализа сложных инцидентов. Вы же не сидите в браузере часами вбивая запросы, пытаясь поймать ошибку за хвост?

Нет, ну вы, конечно, можете подкинуть на каждый из хостов бесконечный диск чисто для логов

Бесконечный диск чисто для логов не нужен. Вообще-то уровень логирования можно менять в динамике и в норме приложения не пишут гигабайты в день.

А скрипты для вытягивания это все от луковаого, кстати. Хуже вариантов я еще не слышал)

Для диагностики вытягиваются не только логи, но и другая необходимая информация: тред-дампы, конфигурация кубернетиса и прочее. И всё это делается, одной кнопкой. Это называется автоматизация. Уж не знаю, что там от лукавого....

Но если честно, я таких уже довольно давно не видел в промышленной эксплуатации

Если вы этого не видели, зачем вы про это упоминаете? Я про это тоже не писал

Стандартизации каких инструментов? Каждый пользуется теми инструментами, которые удобны и подходят под задачу.

Вопрос стоял что анализ текстовых логов это невероятно сложная задача. Это очевидно не так. Есть миллион способов их проанализировать, независимо от того, как они хранятся

Ну во первых, центральные хранилки точно также позволяют скачать логи которые можно грепать.

Во-вторых, скачать всю необходимую информацию с сотни хостов - вообще не проблема. Для этого существуют скрипты.

Непонятно, зачем упаковывать команды параллельно в одно слово, когда их можно просто расположить одну за другой.

Любой современный процессор прекрасно поймёт, что эти последовательные в коде команды можно выполнять параллельно.

В голосовалке нет пункта, что VLIW ущербна сама по себе

Анализ текстовых логов вовсе не является настолько нереально сложной задачей, как автор пытается представить. Grep-ы прекрасно справляются со своей работой. И с текстовыми файлами всё-таки проще работать.

Важно не забывать, что трассировки не являются полноценной заменой performance enginering-у. Для полноценной работой над оптимизацией требуются более подходящие инструменты

Кто-нибудь может объяснить, зачем RMI объявили deprecated без достойной замены? Из того, что удалось нагуглить - маленькая популярность и проблемы c файрволлами. Но это выглядит совсем нелепыми причинами.

Реальная оптимизация выглядит так:

Судя по тому, что вы написали, вы мало занимались реальной оптимизацией.

Правдами и неправдами, через логгирование, профилирование и дебаггинг запросов находим тормозящий кусок кода

Да ладно? А я, наивный, думал для начала надо хотя бы настроить инфраструктуру для измерения перфоманса.

Чаще всего проблема в инфраструктуре - некорректно пользуемся БД (шлём запросы в цикле, отсутствует индекс, либо недостаточно узкая выборка)

Это бывает, но далеко не так часто как вы пытаетесь это представить. Бывает что отсутствует индекс, который должен быть, но это всё равно никак не влияет на перформанс.

По моему опыту, обычно проблема там, где её не ждёшь.

Либо чуть дольше (партицирование, шардирование, масштабирование ресурсов).

За ненужное масштабирование надо по рукам бить (либо вычитать из зарплаты стоимость ресурсов)

Если проблема всё же в коде

А как вы узнаете, что проблема в коде, если не можете отличить линейный поиск от бинарного?

Если проблема всё же в коде, кидаем этот кусок в GPT, просим оптимизировать, клепаем тест-кейсы

Дык зачем вы нужны, может проще ChatGPT нанять? А вы никогда не подписывали соглашение о неразглашении исходного кода при трудоустройстве?

Давайте продолжу вашу мысль: если проблема в базе данных, то кидаем базу в ChatGPT, если проблема в сторонней библиотеке, то кидаем стороннюю библиотеку. Если проблемы в конфигурации кубернетиса, то кидаем все наши настройки, не так ли?

оцениваем время выполнения

Время выполнения надо не оценивать, а измерять

Дело не в DeepSeek-е. OpenAI страдает типичными IT болезнями. Любой софт можно практически безболезненно оптимизировать в десятки раз. Достаточно просто над этим поработать. Но никто этим предпочитает не занимаеться. Все думают, что достаточно просто добавить железа

Просто будут сокращать рабочую неделю. Это не только решит проблему безработицы, но и создаст дополнительный спрос на товары и услуги

Поднять проект с нуля проще, ибо нет легаси и нет пользователей.

А вот попробуйте переделать индусский проект, где весь код в одном файле, приложение давно в проде и ничего ломать нельзя, понять как оно работает можно только через дебаг, а БД хрен отрефакторишь.

Вот тогда узнаете, что такое высший пилотаж )

В Яндексе низкий потолок. Это не та компания которая платит много.

Цифры в 500 000+ чистыми для стандартного техстека в Москве может и были, но это редкость и наверняка потребует много работы либо менеджерских задач.

Но это до СВО было, как сейчас - я не знаю, но вряд ли что-то поменялось в лучшую сторону.

Для Озона выше выложили доказательство.

Если вы нанимаете сильно выше рынка, то это как бы глупо.

Профильное высшее гарантирует, что человек выбрал профессию осознано, а не вайтишник

Возможно, там был просто большой технический долг.

1
23 ...

Information

Rating
Does not participate
Registered
Activity