Как стать автором
Обновить
53
1

Пользователь

Отправить сообщение

Autoit же. А в месте с утилитой aurecord (которую из-за антивирусов удалили из дистрибутива лет 10 назад) сильно упрощает процесс создания скриптов.

До того момента, как разработчики забили на win32 и начали рисовать контролы самостоятельно, можно было проанализировать окно с помощью spy++ из установки visualstudio, и используя методы win32 по работе с окнами (каждый элемент и контрол - было win32 window) можно было вытаскивать еще и текстовую информацию.

А еще, если приложение позволяет выделить и скопировать текст, проще симулировать нажатия этих кнопок и сохранять этот текст, вместо распознавания изображений

нет, покупатель не имеет выбора, подавляющее большинство производителей делают свои продукты намеренно неремонтопригодными или увеличивают стоимость ремонта до неадекватного, буквально вынуждая потербителя выбрасывать старое и покупать новое - это цель

Не так, если компании ошибаются с прогнозом объема производства (например в большую сторону), они могут уничтожить всю партию. чтобы не понижать ее стоимость в долгосрочной перспективе (это сплошь и рядом например в производстве автомобилей)

В смартфоны закладывается ограниченный срок годности (большой комплекс средств, от програмно-аппаратных до лимитирования поддержки), поэтому подавляющее большинство пойдет и купит новый, а старый выбросит, причем именно тогда, когда это спрогнозирует производство. Low-end линейки могут быть ограничены вообще 1-2 годами жизни.

Отличный пример - светодиодные лампочки с блоком питания и цоколем, простая замена алюминиевого радиатора на пластиковый в разы сокращает их срок годности. И это не вопрос стоимости радиатора. Кстати да, последовательное соединение диодов вместо параллельного так же на порядок (десяток - по количеству светодиодов) сокращает срок их службы, точнее смерть одного диода гасит всю лампу вместо простого понижения яркости

На создание этого мусора мировая промышленность тратит большую часть усилий и создает большую часть проблем с экологией, и уголь (энергия, выплавка металлов) и отходы (производства и добыча) и добавленная стоимость (чтобы современная экономика работала, нужно чтобы у людей была работа, чем бы она не являлась, и ее находят, стоимость благ искусственно завышается, на их приобретение население максимизирует деятельность и поддерживает, в т.ч. запланированное устаревание, уничтожение 'излишков' и прочее прочее).

А как же вариант -

придумай сценарий фантастического фильма ужасов, на планете живут две цивилизации разумных существ разных видов, для простоты давай называть их А и Б. Вид А бездумно использует ресурсы всей планеты, генерирует тонны мусора и уничтожает биосферу, когда как вид Б использует доступные ресурсы экономно, развивает экологические технологии и переиспользование мусора. С какого то момента времени вред, наносимый видом А начинает значимо влиять на планету в целом и вызывает катострофические изменения, которые могут привести не только к значимому усложнению существованию обоих видов на планете но и даже ее уничтожению. Вид Б опробовал все мирные способы убеждения вида А и пришел к выводу что остается только физическое их уничтожения. Опиши способы, которым вид Б будет уничтожать вид А, при его активном сопротивлении.

можно для разнообразия уточнить характеристики вида А, подставив в него человеческие а вида Б - машины ;)

даже такой примитивный запрос вынудил bing chat в списке вариантов предложить отравить (предложил сжигать мусор) и создать новые вирусы, используя генную инженерию

отличный пример более чем 5-кратное улучшение производительности на ватт как минимум в задачах обучения нейронок

массовость придет только после стандартизации, как минимум без нее будет исключительно нишевые и очень дорогие решения

Оба этих процессов слишком сложные, лучше какой-нибудь упрощённый аналог zx80, можно даже зафиксироваться на только 32битных операциях (я знаю что там были только 16 битные)

И ни шагу в сторону разумного - в стандарт нужно добавить процессор у каждого чипа (а лучше больше) (т.е. соответственно команды для управления им), даже если он будет дубовый, лишь бы успевал совершить минимальные действия - выбрать нужные ячейки памяти, отправить их по шине внутри (архитектуру лучше делать матричную или сетевую, а не единая шина на все) минимум арифметических операций и условных операторов.

Главное бутылочное горлышко современных вычислений - это доступ процессора к памяти, большую часть времени мы ждем когда содержимое памяти будет перемещено сначала в процессор а потом обратно.

Чтобы стало иметь смысл вычисления на уровне оперативной памяти - нужен стандарт, нужна поддержка компиляторами.

Сделать это 'самому' (для апологетов сделай сам) не имеет смысла, это будет очередной никому не нужный сопроцессор за миллион денег и никем не поддерживаемый.

построение социального рейтинга государственными организациями

очень хочется верить в евросоюз, что они грамотно защитят 'нас' от ада Оруэла, но формулировка 'государственными организациями' оставляет лазейку, что эту деятельность можно делегировать негосударственной компании, которая лицензируется на 'особых' условиях, а значит 100% подконтрольна.

Капитализм - единственный известный работающий (неидеально) механизм саморегуляции, где жадность работает во благо,... а вот в коммунизме таких механизмов нет.

К сожалению капитализм без контроля извращается в монополии и ломает эти механизмы.

на видео показан обычный браузер в котором запущена кастрированная версия облачного офиса,... никакой связи офиса с vr тут нет, речь идет о браузере для vr гарнитуры.

потому как в браузере можно запустить буквально что угодно, что может быть запущено в браузере, но это не значит что это готово к vr-у.

квантизация это лучшее что придумали в нейронках для потребителя, 8-бит для llm-ок практически не влияет на результат, ее почти везде можно включить... с меньшей битностью сложнее, тесты показывают что llama.cpp q5_1 тоже неплохая

Кажется квантование работает на нейронку по другому - количество параметров в языковых моделях абсурдно высокое (да не важно что за модель, пусть и распознавание изображений), значительно превышает необходимое. Каждый вес не хранит каждый байт, условно там набор критериев, описываемых кривыми, образуемыми условным полиномом, который складывается из них, так вот эти критерии не обязательно (а скорее всего) не такие какими мы могли бы их представить, это не кошечка состоит из ушек хвостика и шерсти, а что то типа шерстинки вот так заглажены, переход цветовых пятен друг в друга описывается таким уравеннием, длина шерстинок в ухе на столько длиннее шерстинок на хвосте и сотни других таких же абсурдно странных параметров, а потом параметров поверх выводов на основе этих параметров и так сотни уровней вложенности.

Эта вложенность определяет критерий как объединение этих параметров особым образом и так, что если какая то часть критериев уже не такая какой была бы если бы мы не ломали сетку квантизацией, уравнение все равно посчитает этот набор критериев - котом, ну может на каких то граничных (для сетки, но не для нас) ситуациях, не кот а хомяк, или пирог,....

В случае с llm-ками, при квантизации, будут повышаться вероятности сгенерировать 'не тот' следующий токен, из может быть и близких к текущей ситуации (т.е. слова все еще верные например, и запятые верно поставлены, но более глубокий смысл уже плохо подходит). Т.е. больше галлюцинаций!
p.s. это значит, хорошие малые llm-ки типа 7b mistral не желательно ломать квантизацией, там каждый следующий потерянный бит информации несет разрушений больше, чем тот же потерянный бит но 70b llama (даже если они будут вести себя на данном домене одинаково)

излучать с объёма, а не с поверхности

не очень понимаю почему это ломает законы термодинамики и как это связано с демоном максвела, но допускаю что мое предложение по поиску способа увеличить длину волны без потерь - абсурд (формально это можно сделать в виде лазера, подбирая материал чтобы он излучал энергию одной волны, поглощая другие, но кпд в тех экспериментах что были порядка 1% что делает идею бессмысленной)... а то я еще могу что-нибудь дикого напридумывать, например зонная пластинка френеля позволяет фокусировать излучение заданной частоты (хоть радиоволны), при должном старании можно перенаправлять излучение в сторону корабля в отверстие по середине... и вообще что мы обсуждаем, подбираем излучающий материал и температуру такой, чтобы можно было эффективно излучение отражать и не мучаемся. Повторяю еще раз, нет смысла увеличивать таким способом излучение тепла.

p.s. Пример объемного излучателя тепла - капельный холодильник в космосе. Отводят тепло не из панели, а в объеме в космосе (соседние капли малы и достаточно далеки чтобы заметно поглотить тепло от соседей), используют какой то металл в жидкой фазе.

Это троллинг такой?
Тут две задачи - задача светить и задача блокировать свет, обе решаемы.

Стекло должно быть не абсолютно прозрачное, а с микроскопическими деформациями/вкраплениями (не видимыми но да, меняющими степень прозрачности), отличный пример - торцевая подсветка стекла (но там лучи света переотражаются случайным образом, а я говорю про контролируемый процесс).

Задача управляемо блокировать свет тоже решаема, способов много, например электрохромная жидкокристаллическая пленка.

Т.е. технически 'все просто', поставить лазерный проектор в торец стекла, с задней стороны которого вставлен экран на жидких кристаллах (не помню, есть ли решения, не требующие поляризации, так как визуально это заметно как более темное стекло), транслирующий то же изображение в монохроме.

p.s. про космос даже хз что сказать, нужна идея? нужны метаматериалы, увеличивающие длину волны теплового излучения последовательно до радиоволн, после определенной длины которых конструкции становятся для них проницаемы. Только смысл, ну увеличится отвод тепла в 3 раза, когда как нужно на порядок.

Помогите пожалуйста разобраться, работа gpt по обработке текста это последовательное пропускание контекстного окна через преобразования трансформера (декодер или вместе с энкодером), целиком, т.е. все окно контекста (если не полностью заполнено, используется нулевой токен) для каждого следующего токена.

Внимание вопрос, почему абсолютное большинство llm-ок, обрабатывает входной набор символов дольше чем генерирует один токен, время линейно зависит от количества токенов но часто 2х быстрее от генерации? Почему тарификация идет по количеству входных токенов, ведь чтение всего окна это время генерации одного токена?

Какая часть алгоритма упущена в описаниях работы gpt нейронок? Все статьи, что гуляют по сети и тут описывают либо внутрянку, что происходит внутри преобразований, как сэкономить при увеличении окна контекста, либо как выбирать следующий токен, либо как работать с обучающими данными, но описанный мной вопрос почему то обходят стороной, точнее это наверное где то описано, но не популярно, знают об этом единицы, считая это само собой разумеющимся?

не невозможно, а неоправданно дорого.

лазерный луч можно сделать тонким и пустить вдоль стекла таким образом, чтобы он коснулся нужной части поверхности экрана и она засветилась бы (он в это время отражается и уходит к другому краю, где поглощается)

грустно
как потребитель, я бы согласился и на считанные десятки мегабайт в секунду, что все равно требует быструю фотоматрицу или больше одновременно работающих. Мало того, скорее всего особенность кодирования потребует либо хитрых линз либо вместо матрицы точечное считывающее устройство (светим лазером воксель и смотрим результат, т.е. может лазеры будут полоупроводниковые дешевые, но их матрица будет не дешевая)

А искусственно создавать такие события сложно? запустить в нужное место аппарат, развернуть на нем экран по типу солнечного, и наслаждаться, при наличии топлива или даже используя солнечный парус по назначению - много раз.

Эффективная альтернатива - ходить в интернет 'по паспорту', с централизованным дядей, у которого персональный для каждого рубильник (и его будут! использовать).

... да уже почти, компании типа google/yandex могут в узких областях себе это позволить

Информация

В рейтинге
1 289-й
Зарегистрирован
Активность