Попробуйте помейнтейнить любой более-менее популярный проект и начнете выражаться не хуже. Народ любит тащить в мейнлайн кучу хери, которая решает какую-то их конкретную задачу и не смотрит на то какие проблемы это создает другим.
Ага, по такой логике - WinRAR тоже опенсурс, потому что его можно запустить локально. Бинари же дают, что вам еще надо? Можно даже дообучить пропатчить бинарь. Вон хакеры и прочие энтузиасты таким все время занимаются.
Да и отсутствие исходного кода WinRAR не является препятствием - алгоритмы то все уже давно известны.
У больших ARMов почти так же. Хотя, все же есть отдельные точки входа для прерывания и для исключения. А дальше - либо лезем в контроллер прерываний смотреть что там пришло, либо в регистр ESR, разбираться что за исключение.
Написать - это хорошо. А отдебажить? Я вот тут сейчас дебажу интересный race condition между кодом на Rust и кодом на C. В проекте на полторы миллиона строк кода (QEMU). Когда o3 pro сможет сделать это за меня?
Ооо, ну да, редактировать - это отдельное удовольствие. Особенно, если еще и смещения надо пересчитывать - ну нафиг. Лучше уж действительно втыкать хуки в рантайме.
Но тем не менее вы справились, как я понимаю. Да, это нелегко. Но если набить руку - не так уж и сложно. Мне по работе часто приходится читать ассемблер aarch64 например. Да, сначала было сложно, но с практикой начинаешь понимать что там компилятор нагенерировал и как приблизительно мог выглядеть исходный код на С.
Сделать это на самом деле сложнее чем кажется. Давайте начнем с собственно захвата голоса. Современные андроиды (да и айфоны тоже) показывают специальную иконку-оверлей когда приложение записывает звук. Это делается на уровне системы и обычное приложение не может на это никак повлиять. Конечно, если сервисы Яндекса встроены прямо на уровне системы, то наверное они смогут записывать звук и без лишних оверлеев. Но это еще не все.
Голос нужно распознавать. Это можно делать либо локально, либо в облаке. Если распознавать локально, то это будет жрать батарею. Конечно, с современными NPU это уже более энергоэффективно, но далеко не везде они есть и тем более далеко не везде их могут использовать сторонние приложения. Так что если у вас телефон не высаживается во время длинных совещаний - значит локально он речь не распознает.
(Сразу оговорюсь про "Okay google" - эту фразу распознает отдельный DSP, который заточен только на распознавание одной активирующей фразы, поэтому делает это очень эффективно и батарею жрет сильно меньше. Но распознавать он может только одну фразу, да еще и обучается под голос владельца).
Можно распознавать речь в облаке, но это - постоянный траффик, который не так уж сложно отследить, если вам вдруг станет интересно.
Еще можно записывать речь на флешку, а распознавать все скопом когда телефон стоит на зарядке. Или засылать весь голосовой трафик на сервер, маскируясь под что-то другое. Но, если вы думаете что декомпилировать java-классы - это очень сложно, а декомпилировать сишный код - практически невозможно, то вы сильно ошибаетесь. Если бы гугл/фейсбук/яндекс/инстаграм подслушивали бы вашу речь - весь интернет был бы полон разборами их софта с точным указанием какой код и где этим занимается. Так что либо мировое правительство заткнули всех white hats разом, либо вас таки не подслушивают.
Но при этом не нужно недооценивать возможности по корреляции данных из многих источников. Знаете байку о том как Фейсбук перезнакомил (и тем самым нарушил врачебную тайну) всех пациентов одного психотерапевта, потому что эти пациенты регулярно бывали в одном и том же месте?
Над SLS работают Боинг, Northrop Grumman и куча других подрядчиков помельче. Именно они занимаются инжинирингом и производством. НАСА дает только общие указания и принимает работы. Соответственно, со стороны НАСА над SLS работает совсем немного людей. А вот денег тратится - дофига.
Вы хотите чтобы государство забанило все что вам не нравится? Не боитесь что завтра оно забанит что-то, что не нравится вашему соседу, но то, чем вы активно пользуетесь?
Попробуйте помейнтейнить любой более-менее популярный проект и начнете выражаться не хуже. Народ любит тащить в мейнлайн кучу хери, которая решает какую-то их конкретную задачу и не смотрит на то какие проблемы это создает другим.
Ну от инженера я ожидаю что он уточнит почему задача поставлена именно таким образом. И возможно - он предложит лучшее решение.
Кодер - да, должен делать как ему скажут. Правда, толку от кодеров в 21 веке...
Ну это зависит от того, кого вы набираете - кодеров или инженеров.
Ага, по такой логике - WinRAR тоже опенсурс, потому что его можно запустить локально. Бинари же дают, что вам еще надо? Можно даже
дообучитьпропатчить бинарь. Вон хакеры и прочие энтузиасты таким все время занимаются.Да и отсутствие исходного кода WinRAR не является препятствием - алгоритмы то все уже давно известны.
Потому что пространство искривляет не гравитация. Пространство искривляет масса (и энергия).
У больших ARMов почти так же. Хотя, все же есть отдельные точки входа для прерывания и для исключения. А дальше - либо лезем в контроллер прерываний смотреть что там пришло, либо в регистр ESR, разбираться что за исключение.
Написать - это хорошо. А отдебажить? Я вот тут сейчас дебажу интересный race condition между кодом на Rust и кодом на C. В проекте на полторы миллиона строк кода (QEMU). Когда o3 pro сможет сделать это за меня?
Да, но только для
_Bool
. Для других целых типов все проще: 0 == false, все что не 0 == true.Какая связь между оригинальным Doom и TES? Их делали разные люди, в разное время, используя разные технологии.
В какой момент на Хабре стали нормой эти ужасные SEOшные заголовки постов? Такое ощущение что я попал на сайт какого-то таблоида.
"Для того чтобы запустить Дипсик, вам понадобится обычные китайский..."
"Я ввел ЭТО в консоль и у меня заработал Youtube"
"Только посмотрите что вытворяет этот джун в свободное от работы время"
"Программисты были шокированы этим способ обойти замедление Youtube"
Так а где разборка то? Что там внутри?
Ооо, ну да, редактировать - это отдельное удовольствие. Особенно, если еще и смещения надо пересчитывать - ну нафиг. Лучше уж действительно втыкать хуки в рантайме.
Ну проблема может звучать так: "хочу вставить
\n
в переменную в мейкфайле". Например, банально сделать вот так:Решение можно увидеть здесь: https://stackoverflow.com/questions/29651388/insert-a-new-line-in-a-makefile-foreach-loop
Меня всегда забавлял метод получения
\n
в мейкфайлах. Но это - ничто по сравнению с тем колдунством которые вы тут показали.Но тем не менее вы справились, как я понимаю. Да, это нелегко. Но если набить руку - не так уж и сложно. Мне по работе часто приходится читать ассемблер aarch64 например. Да, сначала было сложно, но с практикой начинаешь понимать что там компилятор нагенерировал и как приблизительно мог выглядеть исходный код на С.
Ага, она что, у вас все время светится?
Сделать это на самом деле сложнее чем кажется. Давайте начнем с собственно захвата голоса. Современные андроиды (да и айфоны тоже) показывают специальную иконку-оверлей когда приложение записывает звук. Это делается на уровне системы и обычное приложение не может на это никак повлиять. Конечно, если сервисы Яндекса встроены прямо на уровне системы, то наверное они смогут записывать звук и без лишних оверлеев. Но это еще не все.
Голос нужно распознавать. Это можно делать либо локально, либо в облаке. Если распознавать локально, то это будет жрать батарею. Конечно, с современными NPU это уже более энергоэффективно, но далеко не везде они есть и тем более далеко не везде их могут использовать сторонние приложения. Так что если у вас телефон не высаживается во время длинных совещаний - значит локально он речь не распознает.
(Сразу оговорюсь про "Okay google" - эту фразу распознает отдельный DSP, который заточен только на распознавание одной активирующей фразы, поэтому делает это очень эффективно и батарею жрет сильно меньше. Но распознавать он может только одну фразу, да еще и обучается под голос владельца).
Можно распознавать речь в облаке, но это - постоянный траффик, который не так уж сложно отследить, если вам вдруг станет интересно.
Еще можно записывать речь на флешку, а распознавать все скопом когда телефон стоит на зарядке. Или засылать весь голосовой трафик на сервер, маскируясь под что-то другое. Но, если вы думаете что декомпилировать java-классы - это очень сложно, а декомпилировать сишный код - практически невозможно, то вы сильно ошибаетесь. Если бы гугл/фейсбук/яндекс/инстаграм подслушивали бы вашу речь - весь интернет был бы полон разборами их софта с точным указанием какой код и где этим занимается. Так что либо мировое правительство заткнули всех white hats разом, либо вас таки не подслушивают.
Но при этом не нужно недооценивать возможности по корреляции данных из многих источников. Знаете байку о том как Фейсбук перезнакомил (и тем самым нарушил врачебную тайну) всех пациентов одного психотерапевта, потому что эти пациенты регулярно бывали в одном и том же месте?
Почему они станут бесполезными? Типа движки БД уже написаны и застыли в янтаре? Больше их развивать не надо?
Над SLS работают Боинг, Northrop Grumman и куча других подрядчиков помельче. Именно они занимаются инжинирингом и производством. НАСА дает только общие указания и принимает работы. Соответственно, со стороны НАСА над SLS работает совсем немного людей. А вот денег тратится - дофига.
Вы хотите чтобы государство забанило все что вам не нравится? Не боитесь что завтра оно забанит что-то, что не нравится вашему соседу, но то, чем вы активно пользуетесь?