Если бы helm был контроллер или демон, тогда можно было бы говорить об отслеживании.
Это не связанные между собой вещи. Кстати - в Helm 2 был демон :)
Мой подход помогает обеспечивать гарантии безопасности и качества для бизнеса.
Ответы то где? Это же просто стейтмент. Вы же не ответили на заданные мной вопросы.
И это кстати требование PCI DSS.
PCI DSS кстати не регламентирует использование make. Он вообще напрямую инструменты не регламентирует. Там за уши можно притянуть только пункт 10.2.4, где есть требования к отслеживанию изменений (которые вообще не решаются ни хелмом, ни вашей пачкой мэйков) и 6.4.3 про верификацию и тестирование (хелм умеет в тесты). Считаете иначе - несите пункт стандарта и объясните почему и как ваше решение помогает его имплементации (само по себе и в сравнении с хелмом), тогда и поговорим.
Кстати, я не говорил ничего о стандартах, я говорил о реальности.
Helm ничего отслеживает. Это вы наверное с Argo перепутали. Helm просто устанавливает манифесты через API и создает JSON в kubernetes secrets. А потом удаляет.
Ну вообще таки отслеживает, но не совсем так, как представляется сходу.
Он объектам аннотации проставляет, за которыми потом следит, чтобы понять консистентность, версию и все такое. В общем это не обычный темплейтер. Но то ладно.
Вы лучше вот что скажите - вот ваша штука как-то работает, хелм как-то работает.
Какая польза от вашей штуки бизнесу в сравнении с хелмом? Почему нужно человеко-дни на это тратить, что он принципиально решает из того, что хелм решить не может? Или решает настолько эффективно, что это окупится?
С хелмом понятно. Внешний софт обычно с ним идет, внутренний софт - ну тут есть выбор.
Почему нужно сделать выбор в сторону де-унификации то (я уж не говорю о том, чтобы внешние чарты выкинуть и ваше решение использовать)?
А это буквально единственное что важно. Все остальные задачи LLM "выигрывает" так же как их выигрывает индус с доступом к гуглу и stackoverflow в 2015 году. Да, этого почти что хватает для крудогенерации для очередного магазина, но это не то чего хочется.
Для описываемых вами чудес нужен буквально AGI, а я хоть и не ученый с мировым именем но уверен что путь к нему лежит не через LLM. На воздушном шаре или самолёте к звёздам не полетишь, не смотря на то что получится оторваться от земли.
Проблема в том, что на самом деле индустрия состоит по большей части из таких вот индусов. Я серьезно. Русскоязычное компьюнити - это вероятно какой-то пузырь, где внезапно практически каждая контора может себе позволить безумный отбор, поныть по пути про то, что людей нет под их жанглирование вениками на велосипеде на 34 этапе и после этого все таки нанять кого-то.
В средем же по больнице в общемировомо масштабе уровень шума к нормальным специалистам - это один к тысячи (а то и тысячам, смотря что за стек).
То есть да, я знаю много людей, которых только AGI и заменит. Но подавляющее большинство (в процентном соотношении) недалеко ушли и от текущего поколения LLM.
так как на нём есть почти все задачи в схожих формулировках то перформанс на олимпиадных задачах просто нет смысла смотреть.
Но ведь это и с людьми работает. Если ты специально уделил время на то, чтобы ознакомиться с задачами и заучить решения, то для тебя это будет легкий этап, вот только проверит он ну разве что память и немного логику на поиск и идентификацию аналогий.
Обратите внимание, топик стартер собственно прошел этот этап, потому что ему попались задачи, которые он уже решал. То есть этап проверил не навык, а везение кандидата. И он из этого сделал вывод, что нужно больше порешать литкод, чтобы увеличить свой шанс буквально на "удачу". Не чтобы научиться решать сложные задачи (тут правда я прямой связи не вижу с литкодом, но да ладно), а чтобы если ему оно попадется в следующий раз, он просто был знаком с задачей и у него имелось готовое решение.
У вас интересный и достаточно узкий опыт, спасибо что поделились. Тут все таки нужно учитывать, что положа руку на сердце, большинство программистов занимаются CRUDами, даже если их нанимали через литкод.
по мере накопления "качественного" кода сгенеренного LLMками
Текущая проблема LLMок не в том, что они пишут "некачественный" код в алгоритмической секции (независимые проверки от комьюнити показывают что тот же о1 решает 21 задачу из 22 в произвольной выборке на плюсах в leetcode, включая hard), а в том, что если им генерировать код подряд - будет солянка, в нем не хватает целостности и того самого понимания "а нафига оно тут вообще", о котором я выше говорил и ценность программиста собственно будет состоять именно в этом. И вот это как раз та большая штука, которую важно и нужно проверять. Вся беда в том, что есть очень много людей, которые умеют в литкод, но не умеют в разработку. Беда то как раз в том, что люди начинают задрачивать литкод, компании понимают что отбор начинает работать плохо, повышают сложность литкода, оно опять начинает работать плохо и так по кругу. В итоге получается отбор, который отбирает лучших специалистов по литкоду с непредсказумым результатом в рамках реальных задач. Я не знаю насколько это заметно на российском рынке, но на глобальном - очень заметно. И читерство в плане прохождения подобных собеседований тоже вырасло в разы, тот же chatgpt вполне может парсить экран, слушать интервьюера, искать и решать задачу и тут же показывать ответ тут вот сбоку на экранчике за основным монитором (и даже начитать в наушник во втором ухе). Дальше нужно просто по ролям разыграть.
Доучивание моделей на плохом коде конечно имеет место быть, но это решаемый вопрос, я думаю вы это тоже понимаете. Сегодня оно пишет ерунду, а завтра уже нормально оценивает complexity и пишет в целом отличный код в рамках понятной узкой задачи. Современные стандарты программирования достаточно хорошо описаны и логически, и математически (ну без вкусовщины если) там, где это важно, так что валидатор, обратная связь и вот это все. Я не думаю что мир успеет создать достаточно весомое количество откровенно некачественного сгенерированного кода, чтобы как-то повлиять негативно на ситуацию в плане обучения моделей (я уже не говорю о том, что в среднем люди пишут то весьма дерьмовый код).
В чем пока выигрывает однозначно человек - это в рамках решения сложных абстрактных задач с неопределенным контекстом. Условно - GPT рисует вполне нормальную базовую архитектуру решения допустим, но не может ее обосновать, вдаться в детали, прикинуть в уме или допустить какие-то неуказанные штуки, очевидные для того, кто условно "в теме". Ну и человек может целостно собрать решение от начала до конца, модельки (пока, по крайней мере) не могут. И оценить его нужность\ненужность конечно в рамках сверхширокого контекста. Это имеет шанс сохраниться хоть сколь-нибудь долго из-за проблемы загрузки контекста. А вот потом... ну, потом и посмотрим.
Нет, не только. Впрочем, люди с такими взглядами умудряются писать сортировки за квадрат в проде, и это не шутки а реальные случаи.
Просто любопытно - а когда, в каких условиях и где вам последний раз приходилось руками писать сортировки вместо библиотечных? Исключая всякую экзотику, кажется под любую платформу (я имею ввиду язык + стандартная библиотека + сторонние библиотеки) для разработки давным давно все возможные оптимальные сортировки написаны. Если еще на написаны - LLM напишет либо уже сейчас, либо в ближайшее время.
Что прекрасно демонстрирует скорость мышления и способность сходу видеть разные пути решения одной и той же задачи. Впрочем, на алгособесах решение обычно единственное.
Тут вот есть некоторый нюанс, заключающийся в том, что алгособесы в целом преимущественно показывают знаешь ли ты конкретную задачу, знаком ли ты с ней, пробовал ли ты написать под нее решение и к насколько хорошему решению ты пришел во время подготовки собственно к этой задаче. Аналогично, она тренирует конкретный скоуп восприятия данных в рамках "есть небольшая задача, ее нужно как-то оптимально решить", а это не то, чтобы есть значимая доля ежедневной работы инженера.
Наличие единственно верного решения как раз отлично показывает, что это hit or miss задача, прохождение которой сводится в принципе к... прорешиванию задач. Чем огромная часть людей и занимается.
Но тут опять же хочется сказать, что LLM уже сейчас с этими задачами справляются сильно не хуже сильного программиста и как бы я не был скептичен к моделям, но все похоже на то что очень скоро все эти задачки перейдут в разряд современных шахмат, когда шанс выиграть у компьютера околонулевой, он все равно лучше, поэтому остается задача состязательная и задача саморазвития. Условно, если бы игра в шахматы требовались бизнесу - давно бы везде компьютеры играли. Поэтому программиста как транслятора алгоритма в код ждет уже достаточно скорое забвение.
В целом же, гораздо важнее вопрос не того, кто быстрее сортировку напишет, а того, чтобы понять, а вообще она тут нужна, сортировка эта, как и весь этот кусок кода, а если да - то кому и зачем. И что собственно вообще мы тут все делаем. И во многом к query engineering-у. Да, сейчас мне лично все еще проще в подавляющем большинстве случаев порыться в голове и написать напрямую что-то на базе своего пятнадцатилетнего опыта, чем объяснять это модели, но чем дальше все идет, чем больше я экспериментирую с новыми моделями тем больше я понимаю, что время механического написания кода подходит к концу.
P.S. Достаточно иронично то, что вы ML инженер судя по профилю и в целом должны как никто понимать ценность этой алгоритмики в перспективе :)
Дело не только в «перебоях», но и в функциональности/производительности.
Упомянутый вами Xiaomi с точки зрения беспроводной сети весьма и весьма дохлый. Через LAN он весьма быстро загнется при большом количестве соединений.
В принципе, если канал 300/30 допустим и устройств пяток, а основная машина подключена проводом - то норм вполне.
А вот если канал 600+, устройств много (а нынче каждая лампочка хочет в сеть), хочется быстрый WiFi, быстрые тоннели, быстрый QoS и так далее - ну тут как бы ой, цена устройств сразу становится больше 100 (а то и 300) долларов. А если еще и net flow/DPI захотелось, да хотя бы на гигабитном канале да без просадок… тут количество готовых устройств вообще сводится буквально к единицам.
То что это не жесткая привязка, идете в иммиграцию и просите сделать новую визу на другого работодателя — пока у вас виза в процессе — вас не могут выгнать из страны.
То, что можно сделать новую визу для нового работодателя не отменяет тот факт, что виза с привязкой же.
Вот тут вы ошибаетесь — как только вы подаете заявление на следующую визу, вам ставят штамп к визе по которому вы не можете путишествовать по всему Шенгены (официально), но можете находится в стране до тех пор пока вам не дадут ответ.
Только в случае, когда вы уже подались на визу. Запрос на зезволение не является подачей на визу, т.к. наличие этого самого зезволения - это собственно основание для подачи на визу. Пока у вас его нет - вы и податься не можете. Поэтому в данном случае никакого штампа и никакого легального ожидания внутри страны на основании ожидания зезволения.
Это не теории — были случаи у знакомых когда формально визы заканчивались, а новая визы были в процессе, но сама иммиграция сказала не парится и спокойно ждать это нормальная ситуация.
Вот именно. Если виза заканчивается, если подались на продление, если все документы были подготовлены и пакет полный - тогда да, штамп и спокойно живешь, пока не придет результат (я собственно 2 блушки по 3 года так получал).
Общее правило в ЕС — пока визы меняются — вас никто из ЕС не выгонет.
Нет такого правила. В каком-то виде можно синтезировать правило "при продлении визы можно жить на старых условиях, пока не принято решение о продлении\не продлении", но это работает только в ситуации, когда именно продляется одна и так же виза (точнее вид на жительство).
В случае национальной визы, выдаваемой согласно закону для работы на конкретной позиции в конкретной компании за конкретные деньги, получение новой визы не является продлением или изменением, это именно что получение новой визы с ноля. Если сроки старой визы не позволяют жить во время замены визы в стране - ну увы, это проблемы подающего документы.
Я не эксперт по Германии, но в случае национальной визы там тоже далеко не все так просто, судя по экспресс-поиску, особенно если речь про первый год после получения визы и это не Blau Karte.
Что касается "продления через аппеляцию при отказе" (которая работает по сути только с блушкой) - да пока так можно, но к примеру та же Польша планирует это починить (где-то в сводках читал, что планируется закон, которые не позволяет ожидать решения аппеляции в стране).
Ну и в целом конкретно Польша сейчас такое себе направление для работы. Кроме остального, с отменой зезволения сроки из просто длинных превратились буквально в безумные.
Раньше можно было по освядчению работать, которое получалось за 5 дней. Сейчас для граждан РФ оно недоступно, остается полный цикл получения документов (зезволение), в рамках которых можно легко вылезти за пределы имеющегося срока легального пребывания (и скорее всего вылезет, в самом лучшем случае оформляют месяц, в худшем - можно год ждать и получить отказ). Это огромное время, которое надо каким-то образом легально прожить при этом, т.к. подача на разрешение на работу, на сколько я помню, не дает права ожидать его без выезда.
Нет в Европе таких виз для программиста, что он жестко привязан к одному работодателю и если что едет домой
Но ведь виза D выдается как раз с привязкой к работодателю. Что значит "нет таких виз"?
Более того новую визу в любую другую страну, находясь уже в ЕС, оформить куда проще и работодатель вполне готов ждать (ожидание 1-2 месяца для условной Германии обычное дело и для местных работников).
Проблема не в ожидании, а в том, что там сразу возникает куча вопросов по таймингам. Если на руках нет уже полученной долгосрочной визы и возможности спокойно оформлять документы в формате "ну сейчас за месяцок-два подготовлю и буду к переезду готовиться" - все становится сильно сложнее и достаточно часто вообще нереально.
В подобной ситуации люди в основном получают именно первичные визы, со всеми первичными ограничениями и без условий вроде трех месяцев на поиск работы без потери ВНЖ (по нац. визе кстати 2 недели есть после увольнения, что делает смену работодателя технически практически невозможной, т.к. за 2 недели не успеть просто никак).
В худшем случае — Европа большая и находясь уже в ней можно релоцироваться куда угодно.
В реальности - нет. После отказа обычно дается 2 недели на то, чтобы покинуть страну (и территорию Шенгена соответственно, если мы про Шенгенскую зону). За это время найти какой-либо альтернативный вариант нереально. И уж тем более ехать в другую страну (разве что нелегалом, но это уже совсем другая история).
Где-то быстро дают Blue Card и она с небольшим кулдауном, так что работу можно поменять через год-полтора в уведомительном порядке.
Где-то Blue Card дают медленно (буквально год, а то и больше, можно оформляться) и смена работы только через 18 месяцев (как в Польше, допустим) после оформления карты.
Кто-то Blue Card получить вообще не может (допустим образование неподходящее), тогда они идут по пути национальной визы, которая обычно с привязкой к работодателю. Или работодатель не заморачивается с ее оформлением (в Нидерландах достаточно часто такое, но там вроде достаточно щадящие условия на национальной).
А можно податься и получить отказ (а то и пачку отказов на весь офис, тоже тру-стори из Польши).
В общем Европа - она очень разнообразная, но контр-примеров достаточно, чтобы признать утверждение "вообще нет проблем со сменой работы", мягко говоря, не совсем соответствующим действительности.
Хочу добавить ещё одно - то, что делает ChatGPT отлично ложится в то, как в современном мире подаётся информация для использования "широкими массами" - она должна выглядеть правдоподобно и склонять к нужному поведению, а действительно ли это так или нет - есть дело только небольшой части общества, которую вполне себе маргинализируют практически везде и практически без шансов, потому что что такое слово анонимуса против слова Кардашьян?:)
Я прямо сейчас могу вам сказать, что Земля плоская .... и вы не будете трезвонить на весь интернет, что вам довелось пообщаться с неадекватом.
Но когда это сказал Юрий Лоза - об этом почему-то знал весь Интернет. Конечно, до анонимуса в сети нет никакого дела, но когда это известный человек, то до того, что он сказал сразу всем есть дело. В этом и разница.
Проблема общества постправды в том, что для него это будет источником правды. Никто не разбирается в деталях, если это сказал "уважаемый\известный" человек - значит так оно и есть.
Всмотритесь даже в саму ситуацию и окружающий хайп вокруг.
У модели ChatGPT в том же разделе ограничений написано первым пунктом:
ChatGPT sometimes writes plausible-sounding but incorrect or nonsensical answers. Fixing this issue is challenging, as: (1) during RL training, there’s currently no source of truth; (2) training the model to be more cautious causes it to decline questions that it can answer correctly; and (3) supervised training misleads the model because the ideal answer depends on what the model knows, rather than what the human demonstrator knows.
У модели нет источника правды. Вообще. Никакого.
При этом тысячи изданий пишут о том, что он убьёт профессии/поработит мир, это искусственный интеллект, он знает все, а сотни тысяч людей начинают опираться на факты, им синтезированные без даже минимальной попытки проверки. И некоторые не без удивления открывают для себя, что он таки придумывает, искажает и вообще несёт местами шизофрению.
И это все при том, что об этом написано на главное странице инструмента. Её просто почти никто не читал, все взяли из медиа, где "уважаемые люди" рассуждали об этом вопросе.
Даже Гуглу есть альтернативы в зависимости от того, что вам надо.
Если вам нужен поиск - у вас практически нет альтернативы Гуглу. Есть локальные конкуренты, но не более того.
Я думаю речь про то, что ситуация возможно складывается таким образом, что альтернативы не будет в том смысле, как сейчас нет альтернативы Гуглу.
Кроме того, в описании модели от разработчиков написано буквально следующее в разделе "ограничения":
While we’ve made efforts to make the model refuse inappropriate requests, it will sometimes respond to harmful instructions or exhibit biased behavior. We’re using the Moderation API to warn or block certain types of unsafe content, but we expect it to have some false negatives and positives for now. We're eager to collect user feedback to aid our ongoing work to improve this system.
То есть её очевидно подкручивают, причём в конкретную и определённую сторону. Причем, судя по результатам, не то, чтобы очень уж аккуратно. Хорошо наличие подкручивания или плохо - второй вопрос, но в ситуации общества постправды изменение выдачи в определённую сторону в столь популярном (хайповом, что уж тут) инструменте само по себе изменяет реальность.
Конечно, это никакой не сверхразум, это обычная модель, которая подвержена искажениям. Вот только есть некоторая разница - вносятся подобные искажения намеренно для удовлетворения некоторых групп, или для решения проблемы в общем, или это базовые ограничения, с которыми пока ничего поделать нельзя. В этой конкретной ситуации видится как раз самый плохой, первый, вариант.
А не может ли это оказаться особенностью струйников/МФУ Brother?
У меня тоже с самоочисткой и СНПЧ. И тоже DCP, только 510w, а не 300. Взял просто самый дешевый, печатаю немного, бывает с перерывами по недели-две-три, когда он просто стоит включенный и ничего не сохнет, да.
Да, вы правы, но вот мы уже перешли от "не обращайте внимание, это ерудна" к поиску более удачного прикладного использования технологии вместо, простите, "засерания" её в стиле "опять распил".
Хотя, конечно, черт его знает, что там на самом деле по фундаментальным подвижкам, может и распил. Нужно больше цифр и фактов.
Не, конечно безусловно haters gonna hate, но если постараться не вбрасывать про грантоемкость и нанотехнологии, то что на выходе?
Кривое позиционирование и нейминг при в целом разумной идее (не факт что реализуемой на практике, но идея то разумная). Это просто не является системой охлаждения как таковой, это - попытка вернуть часть энергии с преобразованием её в электрическую, то есть тут скорее речь о повышении энергоэффективности тех же ДЦ.
Если их расчеты верны, то они утверждают, что с бытового процессора они могут получить что-то около 0.72 квт\сутки. Не знаю что у них там подразумевается под "бытовым процессором", но не суть, пусть будет эта цифра для любого процессора.
Сервера охлаждаются продувкой, на компонентах пассивные радиаторы. Ну либо водянка с внешними магистралями. В обоих случаях нет, эта штука не заменит подобного охлаждения, но - я не вижу никакой принципиальной технической проблемы в том, чтобы при сохранении традиционного охлаждения часть тепла давать на подобные элементы. Теплотрубки и расчтет теплопереноса изобрели прям достаточно давно, чтобы оно стоило более чем разумных денег и было вполне реально посчитать это все так, чтобы работало в этой части.
Итого, опять же по их цифрам, со стойки (38 юнитов с серверами к примеру, пусть будет по 1 процессору на юнит или по 0.72 квт/сутки) будет 27 киловатт в сутки, 135 рублей при электричестве по 5 рублей за киловатт (потери всякие не учитываем, да, но поднимать 12 в 110\220 уже давно научились и весьма неплохо), или чуть больше 4000р в месяц, 48 тысяч рублей в год. Экономику конечно надо считать более тщательно, но данных для этого маловато, хотя пока выглядит так, что шанс сойтись у неё есть, при условии что система будет стоить около тысячи на юнит (включая стоимость преобразования). Правда получится ли такое сделать - большой вопрос, учитывая то, что даже базовая цифра про 0.72 квт/сутки непонятно как и на чем получена и рассчитана, а преобразование тут явно низкотемпературное с дельта-Т градусов эдак 40, а учитывая публикации по этой теме и КПД низкотемпературных установок в 5-7% в этих публикациях оно само по себе выглядит как неплохой такой прорыв, если правда.
Поэтому идея в целом может быть и не такой дурной, как она для вас выглядит на первый взгляд, зацепившийся за "нанотехнологии". Охлаждать этим эффектом явно бессмысленно, но вот экономически эффективно забрать часть тепла в электричество - почему бы и не попробовать.
Если не лениться читать, то в описании пакета os в Go написано следующее:
Package os provides a platform-independent interface to operating system functionality. The design is Unix-like, although the error handling is Go-like; failing calls return values of type error rather than error numbers. Often, more information is available within the error. For example, if a call that takes a file name fails, such as Open or Stat, the error will include the failing file name when printed and will be of type *PathError, which may be unpacked for more information.
The os interface is intended to be uniform across all operating systems. Features not generally available appear in the system-specific package syscall.
Нет, не можно, когда вы делаете строго типизированный язык
Так а причем тут строго типизированный язык, если я говорю об одном конкретном наезде про chmod?
Наговнокодить в кросс-платформенной реализации чего либо достаточно просто. Особенно если эта платформа не является целевой. В целом странно ожидать, что chmod будет работать в windows, где в принципе нет битовой маски свойств, правда? Но наверно ошибочку таки стоило бы писать.
Ну вот про файлы, chmod и Windows это прям... не уникальная проблема.
Вот к примеру боль автора питоновского модуля oschmod:
Even though Python's os.chmod() sets read, write, and execute file permissions, on Windows, os.chmod() basically has no effect. Even worse, Python on Windows gives no warnings or errors. If you think you set file permissions on Windows with os.chmod(), you're wrong!
Ну то есть буквально в Go скопировали поведение Python.
Хорошо ли это? Нет, могли бы и нормально сделать.
Можно ли это понять? Да, можно, Windows машин что у авторов языка, что у меинтейнеров скорее всего или не было вообще, или был минимум, на котором ничего под Windows и не писалось.
Стоило ли из-за этого "не поддерживать Windows"? Нет. По крайней мере ровно в той степени, в которой тогда надо "не поддерживать Windows" в Python. Остальное то (наверное) работает. Nice небось тоже на Windows кривой почти везде и молча делает ничего, но ничего, пока никто не расстроился.
Вот в этой статье приводится ближе к середине полный текст предлагаемой поправки.
Качество жизни и возможности для интересной работы в России принципиально выросли
С одной стороны да, с другой - я уехал в 2017 и уже тогда было понятно что лягушка закипает. В сравнении с 91 годом конечно возможностей работы стало больше, но и возможностей обрести проблем на ровном месте от государства стало совсем немало. Так что на месте 20-летнего выпускника я бы поехал, т.к. не рвануло бы оно 24 февраля - так рвануло бы какого нибудь 10 ноября.
А история ваша очень интересная, спасибо что поделились!
Противное американское правительство недавно объявило, что не будет больше требовать спонсорство от работодателей для получения H-1 визы российким гражданином — оно хочет выманить всех таких людей из России.
Несколько уточнений, которые все меняют:
1. Поправки ещё не приняты.
2. Предложенные поправки не имеют отношения к визе H-1. Визы (а точнее сразу гринки) предлагается выдавать из отдельного пула для талантов, который весьма большой (по крайней мере случаи его исчерпания мне неизвестны) и не предполагает ни лотереи, ни ожидания конкретной даты. Если примут — подавать можно будет в любой момент, в любое посольство и срок рассмотрения заявления предлагается ограничить 90 днями, чтобы эти заявления не зависали.
Так что зарплату надо было поднимать уже вчера. Если это конечно вообще может помочь в текущих условиях.
Это не связанные между собой вещи. Кстати - в Helm 2 был демон :)
Ответы то где? Это же просто стейтмент. Вы же не ответили на заданные мной вопросы.
PCI DSS кстати не регламентирует использование make. Он вообще напрямую инструменты не регламентирует. Там за уши можно притянуть только пункт 10.2.4, где есть требования к отслеживанию изменений (которые вообще не решаются ни хелмом, ни вашей пачкой мэйков) и 6.4.3 про верификацию и тестирование (хелм умеет в тесты). Считаете иначе - несите пункт стандарта и объясните почему и как ваше решение помогает его имплементации (само по себе и в сравнении с хелмом), тогда и поговорим.
Кстати, я не говорил ничего о стандартах, я говорил о реальности.
Ну вообще таки отслеживает, но не совсем так, как представляется сходу.
Он объектам аннотации проставляет, за которыми потом следит, чтобы понять консистентность, версию и все такое. В общем это не обычный темплейтер. Но то ладно.
Вы лучше вот что скажите - вот ваша штука как-то работает, хелм как-то работает.
Какая польза от вашей штуки бизнесу в сравнении с хелмом? Почему нужно человеко-дни на это тратить, что он принципиально решает из того, что хелм решить не может? Или решает настолько эффективно, что это окупится?
С хелмом понятно. Внешний софт обычно с ним идет, внутренний софт - ну тут есть выбор.
Почему нужно сделать выбор в сторону де-унификации то (я уж не говорю о том, чтобы внешние чарты выкинуть и ваше решение использовать)?
Проблема в том, что на самом деле индустрия состоит по большей части из таких вот индусов. Я серьезно. Русскоязычное компьюнити - это вероятно какой-то пузырь, где внезапно практически каждая контора может себе позволить безумный отбор, поныть по пути про то, что людей нет под их жанглирование вениками на велосипеде на 34 этапе и после этого все таки нанять кого-то.
В средем же по больнице в общемировомо масштабе уровень шума к нормальным специалистам - это один к тысячи (а то и тысячам, смотря что за стек).
То есть да, я знаю много людей, которых только AGI и заменит. Но подавляющее большинство (в процентном соотношении) недалеко ушли и от текущего поколения LLM.
Но ведь это и с людьми работает. Если ты специально уделил время на то, чтобы ознакомиться с задачами и заучить решения, то для тебя это будет легкий этап, вот только проверит он ну разве что память и немного логику на поиск и идентификацию аналогий.
Обратите внимание, топик стартер собственно прошел этот этап, потому что ему попались задачи, которые он уже решал. То есть этап проверил не навык, а везение кандидата. И он из этого сделал вывод, что нужно больше порешать литкод, чтобы увеличить свой шанс буквально на "удачу". Не чтобы научиться решать сложные задачи (тут правда я прямой связи не вижу с литкодом, но да ладно), а чтобы если ему оно попадется в следующий раз, он просто был знаком с задачей и у него имелось готовое решение.
У вас интересный и достаточно узкий опыт, спасибо что поделились. Тут все таки нужно учитывать, что положа руку на сердце, большинство программистов занимаются CRUDами, даже если их нанимали через литкод.
Текущая проблема LLMок не в том, что они пишут "некачественный" код в алгоритмической секции (независимые проверки от комьюнити показывают что тот же о1 решает 21 задачу из 22 в произвольной выборке на плюсах в leetcode, включая hard), а в том, что если им генерировать код подряд - будет солянка, в нем не хватает целостности и того самого понимания "а нафига оно тут вообще", о котором я выше говорил и ценность программиста собственно будет состоять именно в этом. И вот это как раз та большая штука, которую важно и нужно проверять. Вся беда в том, что есть очень много людей, которые умеют в литкод, но не умеют в разработку. Беда то как раз в том, что люди начинают задрачивать литкод, компании понимают что отбор начинает работать плохо, повышают сложность литкода, оно опять начинает работать плохо и так по кругу. В итоге получается отбор, который отбирает лучших специалистов по литкоду с непредсказумым результатом в рамках реальных задач. Я не знаю насколько это заметно на российском рынке, но на глобальном - очень заметно. И читерство в плане прохождения подобных собеседований тоже вырасло в разы, тот же chatgpt вполне может парсить экран, слушать интервьюера, искать и решать задачу и тут же показывать ответ тут вот сбоку на экранчике за основным монитором (и даже начитать в наушник во втором ухе). Дальше нужно просто по ролям разыграть.
Доучивание моделей на плохом коде конечно имеет место быть, но это решаемый вопрос, я думаю вы это тоже понимаете. Сегодня оно пишет ерунду, а завтра уже нормально оценивает complexity и пишет в целом отличный код в рамках понятной узкой задачи. Современные стандарты программирования достаточно хорошо описаны и логически, и математически (ну без вкусовщины если) там, где это важно, так что валидатор, обратная связь и вот это все. Я не думаю что мир успеет создать достаточно весомое количество откровенно некачественного сгенерированного кода, чтобы как-то повлиять негативно на ситуацию в плане обучения моделей (я уже не говорю о том, что в среднем люди пишут то весьма дерьмовый код).
В чем пока выигрывает однозначно человек - это в рамках решения сложных абстрактных задач с неопределенным контекстом. Условно - GPT рисует вполне нормальную базовую архитектуру решения допустим, но не может ее обосновать, вдаться в детали, прикинуть в уме или допустить какие-то неуказанные штуки, очевидные для того, кто условно "в теме". Ну и человек может целостно собрать решение от начала до конца, модельки (пока, по крайней мере) не могут. И оценить его нужность\ненужность конечно в рамках сверхширокого контекста. Это имеет шанс сохраниться хоть сколь-нибудь долго из-за проблемы загрузки контекста. А вот потом... ну, потом и посмотрим.
Просто любопытно - а когда, в каких условиях и где вам последний раз приходилось руками писать сортировки вместо библиотечных? Исключая всякую экзотику, кажется под любую платформу (я имею ввиду язык + стандартная библиотека + сторонние библиотеки) для разработки давным давно все возможные оптимальные сортировки написаны. Если еще на написаны - LLM напишет либо уже сейчас, либо в ближайшее время.
Тут вот есть некоторый нюанс, заключающийся в том, что алгособесы в целом преимущественно показывают знаешь ли ты конкретную задачу, знаком ли ты с ней, пробовал ли ты написать под нее решение и к насколько хорошему решению ты пришел во время подготовки собственно к этой задаче. Аналогично, она тренирует конкретный скоуп восприятия данных в рамках "есть небольшая задача, ее нужно как-то оптимально решить", а это не то, чтобы есть значимая доля ежедневной работы инженера.
Наличие единственно верного решения как раз отлично показывает, что это hit or miss задача, прохождение которой сводится в принципе к... прорешиванию задач. Чем огромная часть людей и занимается.
Но тут опять же хочется сказать, что LLM уже сейчас с этими задачами справляются сильно не хуже сильного программиста и как бы я не был скептичен к моделям, но все похоже на то что очень скоро все эти задачки перейдут в разряд современных шахмат, когда шанс выиграть у компьютера околонулевой, он все равно лучше, поэтому остается задача состязательная и задача саморазвития. Условно, если бы игра в шахматы требовались бизнесу - давно бы везде компьютеры играли. Поэтому программиста как транслятора алгоритма в код ждет уже достаточно скорое забвение.
В целом же, гораздо важнее вопрос не того, кто быстрее сортировку напишет, а того, чтобы понять, а вообще она тут нужна, сортировка эта, как и весь этот кусок кода, а если да - то кому и зачем. И что собственно вообще мы тут все делаем. И во многом к query engineering-у. Да, сейчас мне лично все еще проще в подавляющем большинстве случаев порыться в голове и написать напрямую что-то на базе своего пятнадцатилетнего опыта, чем объяснять это модели, но чем дальше все идет, чем больше я экспериментирую с новыми моделями тем больше я понимаю, что время механического написания кода подходит к концу.
P.S. Достаточно иронично то, что вы ML инженер судя по профилю и в целом должны как никто понимать ценность этой алгоритмики в перспективе :)
Дело не только в «перебоях», но и в функциональности/производительности.
Упомянутый вами Xiaomi с точки зрения беспроводной сети весьма и весьма дохлый. Через LAN он весьма быстро загнется при большом количестве соединений.
В принципе, если канал 300/30 допустим и устройств пяток, а основная машина подключена проводом - то норм вполне.
А вот если канал 600+, устройств много (а нынче каждая лампочка хочет в сеть), хочется быстрый WiFi, быстрые тоннели, быстрый QoS и так далее - ну тут как бы ой, цена устройств сразу становится больше 100 (а то и 300) долларов. А если еще и net flow/DPI захотелось, да хотя бы на гигабитном канале да без просадок… тут количество готовых устройств вообще сводится буквально к единицам.
То, что можно сделать новую визу для нового работодателя не отменяет тот факт, что виза с привязкой же.
Только в случае, когда вы уже подались на визу. Запрос на зезволение не является подачей на визу, т.к. наличие этого самого зезволения - это собственно основание для подачи на визу. Пока у вас его нет - вы и податься не можете. Поэтому в данном случае никакого штампа и никакого легального ожидания внутри страны на основании ожидания зезволения.
Вот именно. Если виза заканчивается, если подались на продление, если все документы были подготовлены и пакет полный - тогда да, штамп и спокойно живешь, пока не придет результат (я собственно 2 блушки по 3 года так получал).
Нет такого правила. В каком-то виде можно синтезировать правило "при продлении визы можно жить на старых условиях, пока не принято решение о продлении\не продлении", но это работает только в ситуации, когда именно продляется одна и так же виза (точнее вид на жительство).
В случае национальной визы, выдаваемой согласно закону для работы на конкретной позиции в конкретной компании за конкретные деньги, получение новой визы не является продлением или изменением, это именно что получение новой визы с ноля. Если сроки старой визы не позволяют жить во время замены визы в стране - ну увы, это проблемы подающего документы.
Я не эксперт по Германии, но в случае национальной визы там тоже далеко не все так просто, судя по экспресс-поиску, особенно если речь про первый год после получения визы и это не Blau Karte.
Что касается "продления через аппеляцию при отказе" (которая работает по сути только с блушкой) - да пока так можно, но к примеру та же Польша планирует это починить (где-то в сводках читал, что планируется закон, которые не позволяет ожидать решения аппеляции в стране).
Ну и в целом конкретно Польша сейчас такое себе направление для работы. Кроме остального, с отменой зезволения сроки из просто длинных превратились буквально в безумные.
Про Польшу многое поменялось.
Раньше можно было по освядчению работать, которое получалось за 5 дней. Сейчас для граждан РФ оно недоступно, остается полный цикл получения документов (зезволение), в рамках которых можно легко вылезти за пределы имеющегося срока легального пребывания (и скорее всего вылезет, в самом лучшем случае оформляют месяц, в худшем - можно год ждать и получить отказ). Это огромное время, которое надо каким-то образом легально прожить при этом, т.к. подача на разрешение на работу, на сколько я помню, не дает права ожидать его без выезда.
Но ведь виза D выдается как раз с привязкой к работодателю. Что значит "нет таких виз"?
Проблема не в ожидании, а в том, что там сразу возникает куча вопросов по таймингам. Если на руках нет уже полученной долгосрочной визы и возможности спокойно оформлять документы в формате "ну сейчас за месяцок-два подготовлю и буду к переезду готовиться" - все становится сильно сложнее и достаточно часто вообще нереально.
В подобной ситуации люди в основном получают именно первичные визы, со всеми первичными ограничениями и без условий вроде трех месяцев на поиск работы без потери ВНЖ (по нац. визе кстати 2 недели есть после увольнения, что делает смену работодателя технически практически невозможной, т.к. за 2 недели не успеть просто никак).
В реальности - нет. После отказа обычно дается 2 недели на то, чтобы покинуть страну (и территорию Шенгена соответственно, если мы про Шенгенскую зону). За это время найти какой-либо альтернативный вариант нереально. И уж тем более ехать в другую страну (разве что нелегалом, но это уже совсем другая история).
Ну, все зависит от страны и визы.
Где-то быстро дают Blue Card и она с небольшим кулдауном, так что работу можно поменять через год-полтора в уведомительном порядке.
Где-то Blue Card дают медленно (буквально год, а то и больше, можно оформляться) и смена работы только через 18 месяцев (как в Польше, допустим) после оформления карты.
Кто-то Blue Card получить вообще не может (допустим образование неподходящее), тогда они идут по пути национальной визы, которая обычно с привязкой к работодателю. Или работодатель не заморачивается с ее оформлением (в Нидерландах достаточно часто такое, но там вроде достаточно щадящие условия на национальной).
А можно податься и получить отказ (а то и пачку отказов на весь офис, тоже тру-стори из Польши).
В общем Европа - она очень разнообразная, но контр-примеров достаточно, чтобы признать утверждение "вообще нет проблем со сменой работы", мягко говоря, не совсем соответствующим действительности.
Хочу добавить ещё одно - то, что делает ChatGPT отлично ложится в то, как в современном мире подаётся информация для использования "широкими массами" - она должна выглядеть правдоподобно и склонять к нужному поведению, а действительно ли это так или нет - есть дело только небольшой части общества, которую вполне себе маргинализируют практически везде и практически без шансов, потому что что такое слово анонимуса против слова Кардашьян?:)
Но когда это сказал Юрий Лоза - об этом почему-то знал весь Интернет. Конечно, до анонимуса в сети нет никакого дела, но когда это известный человек, то до того, что он сказал сразу всем есть дело. В этом и разница.
Проблема общества постправды в том, что для него это будет источником правды. Никто не разбирается в деталях, если это сказал "уважаемый\известный" человек - значит так оно и есть.
Всмотритесь даже в саму ситуацию и окружающий хайп вокруг.
У модели ChatGPT в том же разделе ограничений написано первым пунктом:
У модели нет источника правды. Вообще. Никакого.
При этом тысячи изданий пишут о том, что он убьёт профессии/поработит мир, это искусственный интеллект, он знает все, а сотни тысяч людей начинают опираться на факты, им синтезированные без даже минимальной попытки проверки. И некоторые не без удивления открывают для себя, что он таки придумывает, искажает и вообще несёт местами шизофрению.
И это все при том, что об этом написано на главное странице инструмента. Её просто почти никто не читал, все взяли из медиа, где "уважаемые люди" рассуждали об этом вопросе.
Если вам нужен поиск - у вас практически нет альтернативы Гуглу. Есть локальные конкуренты, но не более того.
Я думаю речь про то, что ситуация возможно складывается таким образом, что альтернативы не будет в том смысле, как сейчас нет альтернативы Гуглу.
Кроме того, в описании модели от разработчиков написано буквально следующее в разделе "ограничения":
То есть её очевидно подкручивают, причём в конкретную и определённую сторону. Причем, судя по результатам, не то, чтобы очень уж аккуратно. Хорошо наличие подкручивания или плохо - второй вопрос, но в ситуации общества постправды изменение выдачи в определённую сторону в столь популярном (хайповом, что уж тут) инструменте само по себе изменяет реальность.
Конечно, это никакой не сверхразум, это обычная модель, которая подвержена искажениям. Вот только есть некоторая разница - вносятся подобные искажения намеренно для удовлетворения некоторых групп, или для решения проблемы в общем, или это базовые ограничения, с которыми пока ничего поделать нельзя. В этой конкретной ситуации видится как раз самый плохой, первый, вариант.
А не может ли это оказаться особенностью струйников/МФУ Brother?
У меня тоже с самоочисткой и СНПЧ. И тоже DCP, только 510w, а не 300. Взял просто самый дешевый, печатаю немного, бывает с перерывами по недели-две-три, когда он просто стоит включенный и ничего не сохнет, да.
Да, вы правы, но вот мы уже перешли от "не обращайте внимание, это ерудна" к поиску более удачного прикладного использования технологии вместо, простите, "засерания" её в стиле "опять распил".
Хотя, конечно, черт его знает, что там на самом деле по фундаментальным подвижкам, может и распил. Нужно больше цифр и фактов.
Не, конечно безусловно haters gonna hate, но если постараться не вбрасывать про грантоемкость и нанотехнологии, то что на выходе?
Кривое позиционирование и нейминг при в целом разумной идее (не факт что реализуемой на практике, но идея то разумная). Это просто не является системой охлаждения как таковой, это - попытка вернуть часть энергии с преобразованием её в электрическую, то есть тут скорее речь о повышении энергоэффективности тех же ДЦ.
Если их расчеты верны, то они утверждают, что с бытового процессора они могут получить что-то около 0.72 квт\сутки. Не знаю что у них там подразумевается под "бытовым процессором", но не суть, пусть будет эта цифра для любого процессора.
Сервера охлаждаются продувкой, на компонентах пассивные радиаторы. Ну либо водянка с внешними магистралями. В обоих случаях нет, эта штука не заменит подобного охлаждения, но - я не вижу никакой принципиальной технической проблемы в том, чтобы при сохранении традиционного охлаждения часть тепла давать на подобные элементы. Теплотрубки и расчтет теплопереноса изобрели прям достаточно давно, чтобы оно стоило более чем разумных денег и было вполне реально посчитать это все так, чтобы работало в этой части.
Итого, опять же по их цифрам, со стойки (38 юнитов с серверами к примеру, пусть будет по 1 процессору на юнит или по 0.72 квт/сутки) будет 27 киловатт в сутки, 135 рублей при электричестве по 5 рублей за киловатт (потери всякие не учитываем, да, но поднимать 12 в 110\220 уже давно научились и весьма неплохо), или чуть больше 4000р в месяц, 48 тысяч рублей в год. Экономику конечно надо считать более тщательно, но данных для этого маловато, хотя пока выглядит так, что шанс сойтись у неё есть, при условии что система будет стоить около тысячи на юнит (включая стоимость преобразования). Правда получится ли такое сделать - большой вопрос, учитывая то, что даже базовая цифра про 0.72 квт/сутки непонятно как и на чем получена и рассчитана, а преобразование тут явно низкотемпературное с дельта-Т градусов эдак 40, а учитывая публикации по этой теме и КПД низкотемпературных установок в 5-7% в этих публикациях оно само по себе выглядит как неплохой такой прорыв, если правда.
Поэтому идея в целом может быть и не такой дурной, как она для вас выглядит на первый взгляд, зацепившийся за "нанотехнологии". Охлаждать этим эффектом явно бессмысленно, но вот экономически эффективно забрать часть тепла в электричество - почему бы и не попробовать.
Если не лениться читать, то в описании пакета os в Go написано следующее:
Так а причем тут строго типизированный язык, если я говорю об одном конкретном наезде про chmod?
Наговнокодить в кросс-платформенной реализации чего либо достаточно просто. Особенно если эта платформа не является целевой. В целом странно ожидать, что chmod будет работать в windows, где в принципе нет битовой маски свойств, правда? Но наверно ошибочку таки стоило бы писать.
Ну вот про файлы, chmod и Windows это прям... не уникальная проблема.
Вот к примеру боль автора питоновского модуля oschmod:
Ну то есть буквально в Go скопировали поведение Python.
Хорошо ли это? Нет, могли бы и нормально сделать.
Можно ли это понять? Да, можно, Windows машин что у авторов языка, что у меинтейнеров скорее всего или не было вообще, или был минимум, на котором ничего под Windows и не писалось.
Стоило ли из-за этого "не поддерживать Windows"? Нет. По крайней мере ровно в той степени, в которой тогда надо "не поддерживать Windows" в Python. Остальное то (наверное) работает. Nice небось тоже на Windows кривой почти везде и молча делает ничего, но ничего, пока никто не расстроился.
Вот в этой статье приводится ближе к середине полный текст предлагаемой поправки.
С одной стороны да, с другой - я уехал в 2017 и уже тогда было понятно что лягушка закипает. В сравнении с 91 годом конечно возможностей работы стало больше, но и возможностей обрести проблем на ровном месте от государства стало совсем немало. Так что на месте 20-летнего выпускника я бы поехал, т.к. не рвануло бы оно 24 февраля - так рвануло бы какого нибудь 10 ноября.
А история ваша очень интересная, спасибо что поделились!
Несколько уточнений, которые все меняют:
1. Поправки ещё не приняты.
2. Предложенные поправки не имеют отношения к визе H-1. Визы (а точнее сразу гринки) предлагается выдавать из отдельного пула для талантов, который весьма большой (по крайней мере случаи его исчерпания мне неизвестны) и не предполагает ни лотереи, ни ожидания конкретной даты. Если примут — подавать можно будет в любой момент, в любое посольство и срок рассмотрения заявления предлагается ограничить 90 днями, чтобы эти заявления не зависали.
Так что зарплату надо было поднимать уже вчера. Если это конечно вообще может помочь в текущих условиях.