Берём 5 мэйлстоунов за последний год - которые считаем "репрезентативными" для данной позиции. Вставляем в вакансию.
Максимально обтекаемые требования в вакансиях (спойлер: вода ни о чём) - это та не лепта даже, а полноценный обол, который кампании внесли в сломанные интервью.
Они не просто "лезут в ваши дела" - они ещё и двоемыслие демонстрируют.
То есть когда разговор о вас - расскажите про планы на 0.5-3-5 лет (а если вежливо не рассказываете то это "рэд флаг").
А когда про бизнес - требуют цитаты из агиток, про "самореализацию бизнеса" "миссии кампаний сделать мир лучше" и прочей HR-одобряемой макулатуры (заметьте вопрос стоял не про "цели людей в бизнесе", а про "цели бизнеса").
Для ответа на этот вопрос придётся сделать немыслимое: прочитать оси графика.
Ау полегче здесь и далее по тексту, а то ведь может оказаться, что...
Там, в частности, написано, что это «age at 2010», что как бы намекает, что это оценка вклада в бюджет за всю жизнь тех, кому в 2010-м было 14.
Неправильно. Вклад положительный для мужчин, а отрицательный для женщин для тех, кому в 2010 году было 0-4 лет, 5-9 лет. А в 2016 (год выхода статьи) меньше 14.
Поэтому последуйте своему совету: откройте статью, поймите о чём идёт речь - а потом уже отвечайте. Как 4-14 летние парни успели получить положительную сумму выплат, а девушки отрицательную?
П.С.
а почему он должен быть прерывным
Ну мой вопрос рассчитан на людей мало-мальски разбирающихся в вопросе, хотя бы видевших реальные графики (хотя бы ту же поло-возрастную пирамиду из своей же статьи посмотрите).
Реальные процессы не являются гауссовскими ("суммой" бесконечного количества бесконечно слабых факторов), и крупными скачками (разрывами) отражаются единичные события от "поменяли налогообложение" четез "случился экономический кризис" и до вообще курьёзов "внедрили diversity, в этом году у нас не-меритократическая выборка людей в ВУЗах".
А почему "налоги и сборы накопительным итогом" для 14-летних мужчин положительные, а для 14-летних женщин отрицательные?
Ну и ещё есть целый ряд вопросов - почему график непрерывный? Очень похоже на подгонки. Такого рода графики: взяли в 2010 году группу людей разбили по возростам - обычно имеют довольно явро видные разрывы при переходе от возраста к возрасту.
7*8 = 56 можно знать минимум 2я разными способами. - Как "закэшированное" значение на подкорке, которое извлекается автоматически. - Как результат: вычислить сколько будет "7штук-чего-то сложить 8 раз". Вы про какой из этих 2х способов?
=========================
Вероятно вы осознанно (пытаясь параллельно понять как происходит процесс) не учились во взрослом возрасте, попробуйте будет интересно.
Например чтобы понять сложную тему надо сделать 2 подхода. Певый раз прочитать всё - ничего не понимая и свыкаясь с терминами, просто проглядывая в каком они контексте. На следующий день - прочитать то же самое (уже без боязни терминов), всё вдруг начинает вставать на свои места.
1 Как ограничение "1 запрос в минуту" соотносится с медленной генерацией символов в chatgpt / deepseek?
2 Какое ограничение "1 запрос в минуту" в Сбере (о нём изначально шла речь), откуда таким ограничениям там вообще взяться?
3
а если вернуться к GPU, то один GPU обслуживает 100500 разных клиентов и об этом думает уже провайдер услуги (Яндекс, Сбер, OpenAI итп)
Там это вообще не так работает. Инференсная модель "размазана" по больше чем десятку карточек (просто делим размер модели с учётом типа на объём памяти плюс некоторый не принципиальный запас). При этом:
для генерации одного токена, даже если других запросов нет - текущий "стейт" должен последовательно пройти вычисления на всех N карточек
Поскольку GP GPU это MPPE вычислитель - то параллельная работа десятков клиентов (до некоторого предела) вообще не мешает друг-другу.
у chatgpt спрашиваешь и он мее-дленно печатает ответ. Почему? RPS экономят так и тут
Ну вы же просто сейчас "в прямом эфире" как говорится просто закапываете себя всё глубже и глубже. - GPU же - это MPPE архитектура. Которая очень производительно вычисляет параллельные задачи и довольно медленно задачи, с data-flow внутри. - LLM - требует для генерации каждого следующего символа уже сгенерировать все предыдущие (как в n-gramm задаче, только на порядке сложнее). Т.е. ответ на единичный промпт - та самая data-flow задача с внутренними зависимостями. То есть такой медленный ответ потому, что такая задача просто архитектурно не задействует всю мощность GP GPU (но зато почти без помех можно в параллель запускать десятки таких задач).
Ни и all things condidered - скорее всего всю эту байду про "на второй линии роботы" вы выдумали ну или экстраполировали какой-то единичный пример и дальше всё выдумали.
Начиная банально с неграмотности ответов и заканчивая слишком большим числом косвенных неувязок: отсутствия пиара, отсутствие признаков LLM-ности в этих ответах, та самая очередь....
Так вот, он там пишет, что уже с современным уровнем развития ИИ (то есть если останется только экстенсивное развитие вида "больше внедрений", а качественного уже не будет) через несколько лет не останется ни одной профессии, которую не сможет заменить ИИ.
А давайте проверифицируем это утверждение реальностью.
Конструктивное утверждение: На основе уже сегодняшних "базовых моделей" можно дообучить специальные модели для замены фактически любой профессии.
Чего бы я ожидал: Сбер смог заменить полностью хотя бы одну профессию (без потери качества) с экономическим или хотя бы PR-эффектом.
Что мы видим? Первая линия поддержки после первоначального очарования "ах собака играет в шахматы ИИ поддерживает разговор" - не выдерживает никакого сравнения с качеством первой линии хотя бы 5 лет назад (когда их стали массово увольнять). То есть даже поддержку первой линии сегодня Сбер (в частности) сделать не смог.
Так эмоции (включая всякие глюки и психологические загоны как побочки) - это буквально часть механизма, позволяющая нам обучаться на порядки лучше, чем нейросетям в отдельных случаях.
Ну вот я раньше со скепсисом относился к "без боле \ страха \ whatsoever... невозможна нормальная мыслительная деятельность".
А как понял что "убегать от леопарда" или "носить каску на производстве" или "понять что такое указатель" (ну вот буквально я понял с первого раза сутки перечитывая единственную доступную книгу) - вообще-то надо с первого раза, а ИИ этого принципиально не может. Осознал контекст, в котором биологи правы.
Ну вы же в этих рассуждениях учитываете, что: 1. Мы не понимаем сколько "перформанса" нужно добавить, чтобы достичь производительности могза. 2. Все сливки (на текущий момент) уже сняты. И если не изобрести "attention 2.0" - то нас ждёт прогресс в год порядка 1.1^3. 3. Ну мы вообще не очень понимаем можно ли достичь производительности мозга на текущих принципах (грубо говоря вы не можете построить деревянное здание высотой 500м - оно рассыпется). Мозг "самообучается" куда эффективнее чем текущие модели (я говорю об обучении базовых моделей, а не о тюнинге).
При таких вводных совсем не понятно куда и с какой скоростью мы придём.
Мы живём в реальности, которая полностью описываема математикой. Остальное - мелочи.
Догматизм вида "Мир описывается математикой я не должен этого доказывать" примерно уровня "Бог существует, я не должен этого доказывать".
На деле почему мир покачто достаточно хорошо описывается математикой - один из удивительнейших феноменов, вообще позволяющих осуществлять научное познание.
Я был с вами согласен ровно до этого коммента. "Через неделю разрираешься в вопросе ничуть не хуже" - вариант немного преувеличить. Через день - ну сова просто рвётся в этом месте.
Ну я понимаю, что я в системном программировании (и у нас несколько другой уровень "вникания в вопросы") - но через день это по любым меркам перебор.
Если честно, то я не понимаю резона для работника работать в условно бирюзовой кампании.
Работник "пятёрочки" получает 40к. Предположим, что у него достаточно скилов (те самые ответственность, проактивность...) чтобы уйти работать во "вкусвилл" за 50к (т.е. ценность ответственности и проактивности работодатель оценил в +25% к ЗП сейчас и 0 карьерных перспектив).
Ну с такими вводными куда разумнее поискать работу какого-нибудь "доставщика \ кладовщика \ мерчендайзера" - где за ответственность и активность будут уже 60-80 платить. Или "перекладывателя бумажек" (за те же 40, но с карьерными перспективами).
С одной стороны согласен с вами (хотя я работаю в системном программировании и у нас тут куча объективных perf- и compatibility- требований).
Но вот по поводу читаемости - мне кажется вы просто повторяете софизм, которому 2000 лет (вероятно специально - хотите эпатировать оппонента).
Да нельзя сказать С КАКОЙ ПЕСЧИНКОЙ ИМЕННО появилать "куча песка". Но несомненно существует "это - несколько песчинок, а это - уже куча песка".
Хороший код - тут мы наверное в архитектуру упрёмся - обычно это код, о котором надо знать меньше "неочевидных фактов / единиц информации", чтобы разобраться как он работает. В теории - можно долго спорить "что есть (единичный) неочевидный факт". На практике - почти всегда удаётся сказать - вот эта архитектура перегружена, и уже превращается в костыли, а эта - хорошая (разумеется когда мы говорим о схожих по сложности задачах).
То есть, правильно я понимаю, что явное декларирование чистых функций позволяет компьютеру более гибко подойти к способу их вычисления и таким образом достичь результата быстрее
Примечательно, что практике обычно наоборот.
Но в целом чистые функции (и практика с персистентными структурами данных) - позволяет писать "более чистый" код.
Обол = 8 Халков.
Лепта = 1/7 Халка.
> Обол составлялся из навлонов, а не из лепт.
Придирки по форме идут когда кто-то не распознал сути.
Оболами платили за переправу через Стикс, в мир мёртвых.
Соответственно и отсылка к тому, что кампании собственноручно признали "найм мёртв".
Денежная компенсация - это реальный уровень, на который тебя ценят в кампании.
Грамоты \ звания \ конференции - должны идти в дополнение к этому реальному уровню "полезности тебя для бизнеса".
Берём 5 мэйлстоунов за последний год - которые считаем "репрезентативными" для данной позиции. Вставляем в вакансию.
Максимально обтекаемые требования в вакансиях (спойлер: вода ни о чём) - это та не лепта даже, а полноценный обол, который кампании внесли в сломанные интервью.
Они не просто "лезут в ваши дела" - они ещё и двоемыслие демонстрируют.
То есть когда разговор о вас - расскажите про планы на 0.5-3-5 лет (а если вежливо не рассказываете то это "рэд флаг").
А когда про бизнес - требуют цитаты из агиток, про "самореализацию бизнеса" "миссии кампаний сделать мир лучше" и прочей HR-одобряемой макулатуры (заметьте вопрос стоял не про "цели людей в бизнесе", а про "цели бизнеса").
Ау полегче здесь и далее по тексту, а то ведь может оказаться, что...
Неправильно.
Вклад положительный для мужчин, а отрицательный для женщин для тех, кому в 2010 году было 0-4 лет, 5-9 лет. А в 2016 (год выхода статьи) меньше 14.
Поэтому последуйте своему совету: откройте статью, поймите о чём идёт речь - а потом уже отвечайте. Как 4-14 летние парни успели получить положительную сумму выплат, а девушки отрицательную?
П.С.
Ну мой вопрос рассчитан на людей мало-мальски разбирающихся в вопросе, хотя бы видевших реальные графики (хотя бы ту же поло-возрастную пирамиду из своей же статьи посмотрите).
Реальные процессы не являются гауссовскими ("суммой" бесконечного количества бесконечно слабых факторов), и крупными скачками (разрывами) отражаются единичные события от "поменяли налогообложение" четез "случился экономический кризис" и до вообще курьёзов "внедрили diversity, в этом году у нас не-меритократическая выборка людей в ВУЗах".
А почему "налоги и сборы накопительным итогом" для 14-летних мужчин положительные, а для 14-летних женщин отрицательные?
Ну и ещё есть целый ряд вопросов - почему график непрерывный? Очень похоже на подгонки.
Такого рода графики: взяли в 2010 году группу людей разбили по возростам - обычно имеют довольно явро видные разрывы при переходе от возраста к возрасту.
7*8 = 56 можно знать минимум 2я разными способами.
- Как "закэшированное" значение на подкорке, которое извлекается автоматически.
- Как результат: вычислить сколько будет "7штук-чего-то сложить 8 раз".
Вы про какой из этих 2х способов?
=========================
Вероятно вы осознанно (пытаясь параллельно понять как происходит процесс) не учились во взрослом возрасте, попробуйте будет интересно.
Например чтобы понять сложную тему надо сделать 2 подхода.
Певый раз прочитать всё - ничего не понимая и свыкаясь с терминами, просто проглядывая в каком они контексте.
На следующий день - прочитать то же самое (уже без боязни терминов), всё вдруг начинает вставать на свои места.
Во всяком случае это у меня так.
Непонятно - зачем вы с рассказами уровня "додумываю из головы на основе прочитанного блога" пришли на профильный ресурс - habr.
Думаю на этом стоит разговор закончить.
Зачем вы себя всё глубже и глубже закапываете?
1
Как ограничение "1 запрос в минуту" соотносится с медленной генерацией символов в chatgpt / deepseek?
2
Какое ограничение "1 запрос в минуту" в Сбере (о нём изначально шла речь), откуда таким ограничениям там вообще взяться?
3
Там это вообще не так работает.
Инференсная модель "размазана" по больше чем десятку карточек (просто делим размер модели с учётом типа на объём памяти плюс некоторый не принципиальный запас). При этом:
для генерации одного токена, даже если других запросов нет - текущий "стейт" должен последовательно пройти вычисления на всех N карточек
Поскольку GP GPU это MPPE вычислитель - то параллельная работа десятков клиентов (до некоторого предела) вообще не мешает друг-другу.
Ну вы же просто сейчас "в прямом эфире" как говорится просто закапываете себя всё глубже и глубже.
- GPU же - это MPPE архитектура. Которая очень производительно вычисляет параллельные задачи и довольно медленно задачи, с data-flow внутри.
- LLM - требует для генерации каждого следующего символа уже сгенерировать все предыдущие (как в n-gramm задаче, только на порядке сложнее). Т.е. ответ на единичный промпт - та самая data-flow задача с внутренними зависимостями.
То есть такой медленный ответ потому, что такая задача просто архитектурно не задействует всю мощность GP GPU (но зато почти без помех можно в параллель запускать десятки таких задач).
Ни и all things condidered - скорее всего всю эту байду про "на второй линии роботы" вы выдумали ну или экстраполировали какой-то единичный пример и дальше всё выдумали.
Начиная банально с неграмотности ответов и заканчивая слишком большим числом косвенных неувязок: отсутствия пиара, отсутствие признаков LLM-ности в этих ответах, та самая очередь....
А давайте проверифицируем это утверждение реальностью.
Конструктивное утверждение:
На основе уже сегодняшних "базовых моделей" можно дообучить специальные модели для замены фактически любой профессии.
Чего бы я ожидал:
Сбер смог заменить полностью хотя бы одну профессию (без потери качества) с экономическим или хотя бы PR-эффектом.
Что мы видим?
Первая линия поддержки после первоначального очарования "ах
собака играет в шахматыИИ поддерживает разговор" - не выдерживает никакого сравнения с качеством первой линии хотя бы 5 лет назад (когда их стали массово увольнять).То есть даже поддержку первой линии сегодня Сбер (в частности) сделать не смог.
Ну вы ж понимаете, что "поразмяться на колке дров в своё удовольствие" и "работать на лопате в 50 лет" - несколько разные вещи.
Примерно как "изучать новые технологии в pet-project" и "делать таски из жиры день за днём".
Так эмоции (включая всякие глюки и психологические загоны как побочки) - это буквально часть механизма, позволяющая нам обучаться на порядки лучше, чем нейросетям в отдельных случаях.
Ну вот я раньше со скепсисом относился к "без боле \ страха \ whatsoever... невозможна нормальная мыслительная деятельность".
А как понял что "убегать от леопарда" или "носить каску на производстве" или "понять что такое указатель" (ну вот буквально я понял с первого раза сутки перечитывая единственную доступную книгу) - вообще-то надо с первого раза, а ИИ этого принципиально не может.
Осознал контекст, в котором биологи правы.
Ну вы же в этих рассуждениях учитываете, что:
1. Мы не понимаем сколько "перформанса" нужно добавить, чтобы достичь производительности могза.
2. Все сливки (на текущий момент) уже сняты. И если не изобрести "attention 2.0" - то нас ждёт прогресс в год порядка 1.1^3.
3. Ну мы вообще не очень понимаем можно ли достичь производительности мозга на текущих принципах (грубо говоря вы не можете построить деревянное здание высотой 500м - оно рассыпется). Мозг "самообучается" куда эффективнее чем текущие модели (я говорю об обучении базовых моделей, а не о тюнинге).
При таких вводных совсем не понятно куда и с какой скоростью мы придём.
Догматизм вида "Мир описывается математикой я не должен этого доказывать" примерно уровня "Бог существует, я не должен этого доказывать".
На деле почему мир покачто достаточно хорошо описывается математикой - один из удивительнейших феноменов, вообще позволяющих осуществлять научное познание.
Я был с вами согласен ровно до этого коммента. "Через неделю разрираешься в вопросе ничуть не хуже" - вариант немного преувеличить. Через день - ну сова просто рвётся в этом месте.
Ну я понимаю, что я в системном программировании (и у нас несколько другой уровень "вникания в вопросы") - но через день это по любым меркам перебор.
Если честно, то я не понимаю резона для работника работать в условно бирюзовой кампании.
Работник "пятёрочки" получает 40к.
Предположим, что у него достаточно скилов (те самые ответственность, проактивность...) чтобы уйти работать во "вкусвилл" за 50к (т.е. ценность ответственности и проактивности работодатель оценил в +25% к ЗП сейчас и 0 карьерных перспектив).
Ну с такими вводными куда разумнее поискать работу какого-нибудь "доставщика \ кладовщика \ мерчендайзера" - где за ответственность и активность будут уже 60-80 платить.
Или "перекладывателя бумажек" (за те же 40, но с карьерными перспективами).
С одной стороны согласен с вами (хотя я работаю в системном программировании и у нас тут куча объективных perf- и compatibility- требований).
Но вот по поводу читаемости - мне кажется вы просто повторяете софизм, которому 2000 лет (вероятно специально - хотите эпатировать оппонента).
Да нельзя сказать С КАКОЙ ПЕСЧИНКОЙ ИМЕННО появилать "куча песка".
Но несомненно существует "это - несколько песчинок, а это - уже куча песка".
Хороший код - тут мы наверное в архитектуру упрёмся - обычно это код, о котором надо знать меньше "неочевидных фактов / единиц информации", чтобы разобраться как он работает. В теории - можно долго спорить "что есть (единичный) неочевидный факт". На практике - почти всегда удаётся сказать - вот эта архитектура перегружена, и уже превращается в костыли, а эта - хорошая (разумеется когда мы говорим о схожих по сложности задачах).
мне кажется это одно и то же (я бы даже сказал больше - простота рефакторинга это следствие хоршо использованного ООП).
Ну ну то есть DataProduct - не обладает ни одним из свойств, а OOPProduct - обладает сразу обоими потому, что оба этих свойства взаимосвязаны:
Примечательно, что практике обычно наоборот.
Но в целом чистые функции (и практика с персистентными структурами данных) - позволяет писать "более чистый" код.