Интервью – огонь. О том, что раньше было не два кодинговых интервью, а одно, даже не знал, сложилось впечатление, что это само собой разумеющееся. О жизненном цикле разработчика в 2-3 года тоже никогда не думал, но, исходя из вашего опыта, хочу взять это во внимание на будущее.
В первую очередь смотрят на возможность или скорее опыт cross-functional работы. Это то, что я извлек из behavioral, то же мне сказала менеджер IBM, с которой на конференции познакомился.
Про класс проблем, это тоже верно, в machine learning без опыта в этом точно не возьмут. Но при этом скорость изменений не обязательно сильно влияет на шансы. В Meta, например, полно отделов (продуктов по типу автозаполнение в строке поиска), где LLM знать не обязательно, там пользуются более классическими вещами и поддерживают их.
В общем, важно оставаться на плаву – да. Но и для базы найдется применение.
Здесь в levels пишут как раз total compensation. С опционами и бонусами. Это все реальные деньги, поскольку акции на открытом рынке. Про налоги, конечно, после уплаты остается меньше.
Я привел это число скорее для того, чтобы порядок показать. Что стоит отметить, это зачастую вот эти условные 450 тысяч в два раза больше, чем предлагают на senior позиции в некрупной компании.
потыкал replicate, и вижу, что любой выбор scheduler даёт приемлимые результаты при 10 шагах (картинка, а не шум гранулами, как у меня)
возможные причины косяка: 1. я неправильно декодирую латенты в картинку на ранних этапах, а только на финальных. может надо нормализовать перенасыщенные/saturated пиксели 2. планировщики в diffusers как-то отличается по имплементации от stability-ai 3. может быть дело в нестандартном автоэнкодере sd-vae-ft-mse 4. или что-то другое :)
по этому эксперименту он за 100 шагов выдает результаты, которые и запросу не соответствуют. возможно, есть ошибка при патчинге `scheduler = sched_class.from_config(config)`. Поделитесь результатами, где за 10 шагов хорошо получается
Да, кажется что BFS с очередью с приоритетом, это и есть алгоритм Дейкстры. Только нужно не забыть, что минимизируется не длина следующего выбранного ребра, а сумма этого ребра и длины пути до текущей вершины
Потому что Алгоритм не переопределяет кратчайшие пути. Вершина C добавилась в граф первым шагом, и был определен кратчайший путь AC. Путь ABC короче, но если вершина C уже посещена, то этот факт игнорируеется.
В этом и суть неправильной работы с графами отрицательного веса. С ними работают методы динамического программирования
Всем привет. Я тоже пишу статьи для Отуса, и не знал, что существует такая проблема. Этим комментарием хочу обратить внимание, что не всё в этом блоге бездушно и бессмысленно. Я над своими темами и текстами стараюсь :)
Ваше решение мне также кажется валидным. Но скорее всего, итоговая сложность также будет O(NlogN), поскольку нужно искать место, куда воткнуть очередной элемент N раз. Столько раз, сколько в онлайне нам предоставили новое число
UPD: дали хороший комментарий, что вставка занимает O(N) (в вашем комменте это также говорится). Поэтому решение с поиском за O(logN) и вставку, осуществляемую N раз, по итогу даст квадратичную сложность. А не как я выше написал
Часто медиана не равна среднему. Плюс, среднее в онлайне поддерживать тоже можно с некоторой точностью, точно посчитать, нужно каждый шаг складывать все N элементов
не было leetcode hard на собесах на 400+. в основном medium и easy
Интервью – огонь. О том, что раньше было не два кодинговых интервью, а одно, даже не знал, сложилось впечатление, что это само собой разумеющееся. О жизненном цикле разработчика в 2-3 года тоже никогда не думал, но, исходя из вашего опыта, хочу взять это во внимание на будущее.
В первую очередь смотрят на возможность или скорее опыт cross-functional работы. Это то, что я извлек из behavioral, то же мне сказала менеджер IBM, с которой на конференции познакомился.
Про класс проблем, это тоже верно, в machine learning без опыта в этом точно не возьмут. Но при этом скорость изменений не обязательно сильно влияет на шансы. В Meta, например, полно отделов (продуктов по типу автозаполнение в строке поиска), где LLM знать не обязательно, там пользуются более классическими вещами и поддерживают их.
В общем, важно оставаться на плаву – да. Но и для базы найдется применение.
Здесь в levels пишут как раз total compensation. С опционами и бонусами. Это все реальные деньги, поскольку акции на открытом рынке. Про налоги, конечно, после уплаты остается меньше.
Я привел это число скорее для того, чтобы порядок показать. Что стоит отметить, это зачастую вот эти условные 450 тысяч в два раза больше, чем предлагают на senior позиции в некрупной компании.
Обязательно, посмотрю, спасибо! Четверостишье действительно в тему :)
Было бы гораздо лучше, если бы написал: "и теперь у меня три оффера, вот как я завершил эти три процесса".
Но! "Unfortunately, after careful consideration..." мы не можем предоставить вам хорошего заключения к вашей статье :)
Согласен. С этой целью добавил интро, чтобы как-то сгладить.
Суть такая: всё запутано, всё медленно, и душно
Почему ФААНГИ такие сытые не понятно
Не пройдя на уровень Е5, уровень ниже, Е4, не предлагают. Говорят, приходи через год.
Если я приду в Мета (или аналог) на Е4, это будет даже плюсом к зарплате.
Про грейд сложно сказать, как соотсносится с текущим, но вверенной ответственности будет меньше, чем на текущем месте.
потыкал replicate, и вижу, что любой выбор scheduler даёт приемлимые результаты при 10 шагах (картинка, а не шум гранулами, как у меня)
возможные причины косяка:
1. я неправильно декодирую латенты в картинку на ранних этапах, а только на финальных. может надо нормализовать перенасыщенные/saturated пиксели
2. планировщики в diffusers как-то отличается по имплементации от stability-ai
3. может быть дело в нестандартном автоэнкодере sd-vae-ft-mse
4. или что-то другое :)
апдейтнул результаты с другими параметрами. но за 10 шагов все равно не вижу, чтобы хорошо получалось. за сто, да
по этому эксперименту он за 100 шагов выдает результаты, которые и запросу не соответствуют. возможно, есть ошибка при патчинге `scheduler = sched_class.from_config(config)`. Поделитесь результатами, где за 10 шагов хорошо получается
А есть ли возможность драйверы привязывать процедурно?
И зачем в этом именно в этом примере нужен драйвер?
Да, кажется что BFS с очередью с приоритетом, это и есть алгоритм Дейкстры. Только нужно не забыть, что минимизируется не длина следующего выбранного ребра, а сумма этого ребра и длины пути до текущей вершины
Потому что Алгоритм не переопределяет кратчайшие пути. Вершина C добавилась в граф первым шагом, и был определен кратчайший путь AC. Путь ABC короче, но если вершина C уже посещена, то этот факт игнорируеется.
В этом и суть неправильной работы с графами отрицательного веса. С ними работают методы динамического программирования
Всем привет. Я тоже пишу статьи для Отуса, и не знал, что существует такая проблема. Этим комментарием хочу обратить внимание, что не всё в этом блоге бездушно и бессмысленно. Я над своими темами и текстами стараюсь :)
Привет. Поправили текст, была ошибка find_max_and_comp это тоже самое, что find_max_comp в старом варианте. Описание этой функции есть в сниппете
И правда, а я под другими комментариями с похожей идеей тоже говорю, что O(N logN) получится :) Спасибо!
Ваше решение мне также кажется валидным. Но скорее всего, итоговая сложность также будет O(NlogN), поскольку нужно искать место, куда воткнуть очередной элемент N раз. Столько раз, сколько в онлайне нам предоставили новое число
UPD: дали хороший комментарий, что вставка занимает O(N) (в вашем комменте это также говорится). Поэтому решение с поиском за O(logN) и вставку, осуществляемую N раз, по итогу даст квадратичную сложность. А не как я выше написал
Часто медиана не равна среднему. Плюс, среднее в онлайне поддерживать тоже можно с некоторой точностью, точно посчитать, нужно каждый шаг складывать все N элементов
Да, постановка задачи именно такая. В онлайне добавлять элемент и уметь доставать медиану.