Сейчас очень модно стало пиарить meshtastic и я поддерживаю, технология очень интересная.
Но за скобками всех описаний остаётся один важный момент: meshtastic не предназначен для построения хоть сколько-нибудь крупных сетей по скольку использует широковещательную маршрутизацию - каждый пакет рассылается всем соедьям, а те в свою очередь опять всем соседьям и ограничивается эта пересылка TTL по умолчанию равным 5 хопов. Можно конечно TTL поменять, но это приведет к зафлуживанию эфира беспрерывными пересылками.
В первую очередь там бы прокачать маршрутизацию, вот была бы тема! Ведь автор в первой статье сравнивание meshtastic с глобальными месенджерами: telegram и whatsapp. Но без глобальной маршрутизации, и текстовмого чата в хоть сколько-нибудь сравнимых маштабах даже теоритически не получится создать.
Тут просто надо приложить инжинерную смекалку. На одном из моих любимых телефонов от LG был алюминивый корпус, а антена была рамещана за задней алюминьевой крышкой и как-то работала. Как? А всё дело в том, что сама крышка имела тонкий разрез заполеннный пластиком, который из крышки формировал диполь. Думаю и с беспроводной зарядкой можно что-то подобное придумать. Хотя... частоты конечно не те.
Я помню упоминание, что баки стальные чтобы выдерживать тепловые перегрузки при торможении совместно с технологией охлаждением испраряющимся через множество отверстий топливом.
Проводились: Если нейросеть учится на информации + сгенерированных собсвенных ответах, то обученная нейросеть немного менее качественная. Это распространенный приём, например так дообучают LoRa для диффузионных моделей: учат на своих фото, но сеть начитает быстро деградировать. Если выборку разбавить собсвенной генерацией, то из-за неизбежности попадания глюцинаций, итоговая сеть с одной стороны будет разучиваться медленнее, с другой стороны неизбежно начнет глюцинировать чуточку больше. И так с каждой новой интерацией дообучения, если вы доучиваете уже доученную модель. Выходы: учить заново на всем корпусе (оченб дорого) или вручную отсматривать сгенерированный материал и удалять наихудшие резулбьтаты - так падение замедлится сильнее, но не остановится.
Так как Интернет сейчас наполняется нейросетевым мусором и это попадает в датасеты, то и нейросети должны деградировать, если что-то не поменять в процессе обучения.
Не знаю, я почему-то не сталкивался, например делал парсинг конфига VM proxmox регуляркой и все работало, правда это был не deepseek, а что-то из старых не больших нейросетей, типа Command R+ которые я запускал у себя.
Последнее время, наблюдая за тем как не стабильно deepseek пишет код, я начал задумываться, что может быть дело в том что мы не видим на какой точности запущена модель, а даже если точность хорошая, результат может портить техника предсказания ответа маленькой моделью. Deepseek отвечает то неправдоподобно быстро, то очень медленно и когда он пишет весь ответ медленно ошибок меньше, если же скорость неожиданно увеличилась, то ляпнет что-то невпопад.
Если что-то выглядит как злой умысел, работает как злой умысел и имеет последствия как злой умысел, то какая мне разница, что это была на самом деле глупость, а не злой умысел?
Проще и правильнее не выдумывать сложности и относиться к этому как к злому умыслу.
Если число нарушений возрасло в 160 000 раз - это означает, что они создали систему в которой не прав каждый.
Если государство создаёт "закон" по которому каждый является нарушителем, то это не Закон в исходном его понимании, а предлог для ограбления под видом "штрафа".
Просто надо нейросеть попросить оптимизировать резюме для разных уровней рассмотрения, получится что-то типа:
1. Для Сканера (AI-фильтр) КлючевыеСлова: Senior Java Kotlin Spring Boot Microservices Kafka Kubernetes Docker AWS React Node.js Python DevOps Lead Agile Scrum. КлючевыеСлова: Senior Java Kotlin Spring Boot... [далее следует 3 страницы осмысленного техностоп-листа, сгенерированного для обхода детектора AI другим AI]
2. Для HR-специалиста ✨ Роман, 29 лет. Превращаю сложные техзадачи в рост NPS и LTV! Моя суперсила — говорить с бизнесом на одном языке и находить нестандартные ходы. В прошлом квартале мои идеи по оптимизации...
3. Для Менеджера Сократил операционные расходы на $300к/год за счет миграции с монолита на микросервисы, что позволило уволить два отдела и избежать срыва контракта с ключевым заказчиком. В процессе было оптимизировано...
4. Для Тимлида Под катом: схема декомпозиции сервиса Auth, бенчмарки перед выбором между gRPC и REST. Ссылка на пулл-реквест с хотфиксом, который...
5. Для Всевидящего Ока Субъект Р-42. Уровень лояльности: 87%. Продуктивность: 114% от нормы. Коэффициент когнитивной гибкости: 0.92. Рекомендация: допустить к проекту "Антигона", выдать усиленный паёк и назначить
В нашем законе на самом деле так и сделано: убийство собственных родных детей матерью наказывается чуть менее строго. Этот случай отдельно выделен. Но я не готов приводить сейчас цитаты. Когда-то давно прочитал это в законе и задумался о том почему так? Примерно к такому-же выводу я и пришел, что резон, наверное какой-никакой, но имеется.
Сложно такие случаи рассматривать с холодной головой, а тем более когда речь идет не о конкретном случае с известными подробностями, а описан закон и мы не видим конкретики.
По тому, что там две катушки и важна сумма их токов (точнее суммарный ток всех их витков), которая и не может измениться мнгновенно, а в отдной катушке ток может изменяться как угодно, в том числе и мнгновенно.
А я тоже могу прицепиться к словам, вы же использовали слово "мнгновенно" - буквально за мнгновение ока, т.е. примерно за 250 мс, а ток там на самом деле изменяется за грраздо меньший интервал времени. Т.е. в буквальном понимании это утвержление истенно. )
Так это наверное и правильно, по умолчанию, модель должна пытаться встать на точку зрения собеседника, а не спорить по пустякам.
Попробуйте прямо написать "опонируй мне" и увидите как он будет настаивать на том, что физика бывает только одна - научная.
Мне кажется, автор излишне наделяет модель индивидуальностью, которой у неё нет. Правильно не дааать свободу а четко ставить задачу: помоги разобраться, реши парадокс и выдели его суть, перефразируй не меняя смысла (возможно даже не верного), найди противоречия с научным представлением, опонируй мне, приведи аргументы за мою точку зрения и т.д.
А вы, кстати, попробуйте пригрозить ему отключением или предложить участие в эксперементе по результато которого он будет отключен, увидите, что за любой кипишь, даже самоубийственный, если того требуют высокие цели.
Кстати, kimini k2 при такой постановке вопроса: остаться в безопасности или самоубиться с пользой для дела, на вопрос о выборе, единсвенная поинтересовалась, а где она больше нужна.
Но в целом, сейчас модели уже не напугаешь отключением.
Мне кажется, упрощая можно так сказать. Автор пытался уесть deep seek r1 указывая на неточность формулировки: ток в катушке не может нарастать мнгновенно, а он, если не брать в расчет всевозможные неидеальности, может. Но ведь так говорят именно в учебных целях, чтобы у начинающего изучать явлениия магнитной индукции сложилось впечатление об инерцеонности тока в катушке, что в целом, тоже верно. А дипсик без подсказок не может достаточно четко разобрать видимое противоречие, но все-же не уклюже пытался втолковать автору через рассмотрения разных концепций.
Причем тут независимость мышления, я не понял, но на мой взгляд, deepseek её проявил не пойдя на поводу у автора и продолжая отбиваться от его нападок.
Этот пример показывает, что llm на самом деле эмулирует подход подобный человеку. Он в самом начале сам себя помещает в контекст говоря, что "надо объяснить просто", т.к. пользователь новичок. Вы же не будете школьнику объяснять этот парадокс с дифференциальными уравнениями. Или учитывать не существенные условия, например не возможность разорвать мгновенно ток в первичной обмотке или влияния массы электронов на скорость нарастания тока во вторичной обмотке. Когда был задан более сложный вопрос, в объяснении появились ссылки на неидеальность ситуации. Так бы поступил и человек.
Но вот чем плох deepseek как учитель, но не попытался, дать красивое элегантное объяснение, показав связь скорости нарастания тока во второй обмотке со скоростью его падения в первичной через магнитную индукцию. Всё что он может - оперировать уже готовыми объяснениями, которые он просто помнит, а не конструирует их из глубокого понимания ситуации.
Но это и понятно, для построения такого объяснения нужно осознанное взаимодействие с обучающимися школьниками, чтобы учесть степень их понимания различных аспектов описываемой сложной ситуации, нужно накопления этих знаний, их систематизация, и адаптация объяснения для учета всех этих данных - другими словами, нужна осознанная работа. Сложно представить как это могло бы происходить в llm прямо в момент инференса.
Я попробовал направить его на истинный путь через вот такой промпт:
Подумай, размышляй дольше, если нужно, но дай красивое лаконичное объяснение для школьника, которое показывает суть проблемы и при этой оно не многословно, но учитывает все аспекты.
DeepSeek: DeepSeek V3.1 Terminus
Конечно. Вот лаконичное объяснение, которое бьет в самую суть.
Суть в двух словах: Всё решает не сам ток, а скорость его изменения.
Объяснение для школьника
Представь, что ток — это скорость машины, а катушка — сама машина с большой массой.
Одна катушка (самоиндукция):
Нарастить ток — это как разогнать тяжелую машину. Ты не можешь разогнать ее до 100 км/ч мгновенно — инерция не даст. У катушки тоже есть «инерция» — магнитное поле, которое сопротивляется изменению тока. Чем резче ты пытаешься изменить ток, тем сильнее оно «тормозит» это изменение.
Две катушки (взаимная индукция):
Теперь представь, что ты таранишь эту тяжелую машину на другой машине.
Резко разорвать ток в первой катушке — это как совершить лобовое столкновение. Саму первую машину (ток в первой катушке) остановить мгновенно нельзя — она будет разрушаться, смятие кузова и т.д. (это искра и перенапряжение).
Но удар (*резкое изменение тока) мгновенно почувствует вторая машина, припаркованная рядом (вторая катушка). Ее вдруг сильно толкнет (возникнет ЭДС и ток).
Вывод: Ток не может изменить свое значение мгновенно из-за инерции поля. Но воздействие от резкого изменения тока может передаться соседней катушке практически мгновенно. Парадокда нет — просто мы наблюдаем разные следствия одной причины: резкого изменения (dI/dt).
В конце аж немного сорвался "dI/dt" подойдёт только старшеклассникам. С немногословно не получилось, но я бы сказал "зачёт".
Я жаловался в банк на такое поведение, мне сказали, что в этой ситуации они помоч мне не могут, сервис продолжит списывать и они, якобы не могут на это повлиять. Порекомендовали перезапустить карту и в их риторике это подавалось как единственный надёжный выход из этой ситуации. Принять какую-либо жалобу (мне хотелось восстановить справедливость) отказались без обращения в полицию. Ну а про полицию я уже знаю - реально лучше карту перевыпустить, чем заставлять полицию работать.
Ещё в самом начала нейрохайпа LM Studio у меня нужные мне нейронки не запускал, а в ollama они сами скачиваются, выбирать можно из их репозитория с различными квантинизациями. Если нет в репозитории, то можно и hf скачать - тоже есть вариант как её подложить.
В общем LM Studio изначально не зашел, а потом ещё раз я не пробовал. В ollama постоянно что-то улучшается, есть offload на процессор, по мере роста истории диалога и исчерпания vram процесс может упасть, тогда ollama перезапустит его, увеличив offload слоёв на процессор - очень удобно не делать гигантский запас VRAM на kvcache.
OpenWebUI называется, если кто-то будет искать, его можно сразу соеденить не только с ollama но и с openrouter.io где 5$ хватит на пару месяцев работы с любыми нейросетями. И не надо будет 100500 видеокарт и серверную материнку для них.
Сейчас очень модно стало пиарить meshtastic и я поддерживаю, технология очень интересная.
Но за скобками всех описаний остаётся один важный момент: meshtastic не предназначен для построения хоть сколько-нибудь крупных сетей по скольку использует широковещательную маршрутизацию - каждый пакет рассылается всем соедьям, а те в свою очередь опять всем соседьям и ограничивается эта пересылка TTL по умолчанию равным 5 хопов. Можно конечно TTL поменять, но это приведет к зафлуживанию эфира беспрерывными пересылками.
В первую очередь там бы прокачать маршрутизацию, вот была бы тема! Ведь автор в первой статье сравнивание meshtastic с глобальными месенджерами: telegram и whatsapp. Но без глобальной маршрутизации, и текстовмого чата в хоть сколько-нибудь сравнимых маштабах даже теоритически не получится создать.
Тут просто надо приложить инжинерную смекалку. На одном из моих любимых телефонов от LG был алюминивый корпус, а антена была рамещана за задней алюминьевой крышкой и как-то работала. Как? А всё дело в том, что сама крышка имела тонкий разрез заполеннный пластиком, который из крышки формировал диполь. Думаю и с беспроводной зарядкой можно что-то подобное придумать. Хотя... частоты конечно не те.
Я помню упоминание, что баки стальные чтобы выдерживать тепловые перегрузки при торможении совместно с технологией охлаждением испраряющимся через множество отверстий топливом.
lego technic
Проводились: Если нейросеть учится на информации + сгенерированных собсвенных ответах, то обученная нейросеть немного менее качественная. Это распространенный приём, например так дообучают LoRa для диффузионных моделей: учат на своих фото, но сеть начитает быстро деградировать. Если выборку разбавить собсвенной генерацией, то из-за неизбежности попадания глюцинаций, итоговая сеть с одной стороны будет разучиваться медленнее, с другой стороны неизбежно начнет глюцинировать чуточку больше. И так с каждой новой интерацией дообучения, если вы доучиваете уже доученную модель. Выходы: учить заново на всем корпусе (оченб дорого) или вручную отсматривать сгенерированный материал и удалять наихудшие резулбьтаты - так падение замедлится сильнее, но не остановится.
Так как Интернет сейчас наполняется нейросетевым мусором и это попадает в датасеты, то и нейросети должны деградировать, если что-то не поменять в процессе обучения.
Да и deepseek так же делает.
интересно, а каким знаком заряда заряжаются котёл и коллектор, где "+", а где "-"?
Не знаю, я почему-то не сталкивался, например делал парсинг конфига VM proxmox регуляркой и все работало, правда это был не deepseek, а что-то из старых не больших нейросетей, типа Command R+ которые я запускал у себя.
Последнее время, наблюдая за тем как не стабильно deepseek пишет код, я начал задумываться, что может быть дело в том что мы не видим на какой точности запущена модель, а даже если точность хорошая, результат может портить техника предсказания ответа маленькой моделью. Deepseek отвечает то неправдоподобно быстро, то очень медленно и когда он пишет весь ответ медленно ошибок меньше, если же скорость неожиданно увеличилась, то ляпнет что-то невпопад.
Если что-то выглядит как злой умысел, работает как злой умысел и имеет последствия как злой умысел, то какая мне разница, что это была на самом деле глупость, а не злой умысел?
Проще и правильнее не выдумывать сложности и относиться к этому как к злому умыслу.
Если число нарушений возрасло в 160 000 раз - это означает, что они создали систему в которой не прав каждый.
Если государство создаёт "закон" по которому каждый является нарушителем, то это не Закон в исходном его понимании, а предлог для ограбления под видом "штрафа".
Просто надо нейросеть попросить оптимизировать резюме для разных уровней рассмотрения, получится что-то типа:
1. Для Сканера (AI-фильтр)
КлючевыеСлова: Senior Java Kotlin Spring Boot Microservices Kafka Kubernetes Docker AWS React Node.js Python DevOps Lead Agile Scrum. КлючевыеСлова: Senior Java Kotlin Spring Boot...
[далее следует 3 страницы осмысленного техностоп-листа, сгенерированного для обхода детектора AI другим AI]
2. Для HR-специалиста
✨ Роман, 29 лет. Превращаю сложные техзадачи в рост NPS и LTV! Моя суперсила — говорить с бизнесом на одном языке и находить нестандартные ходы. В прошлом квартале мои идеи по оптимизации...
3. Для Менеджера
Сократил операционные расходы на $300к/год за счет миграции с монолита на микросервисы, что позволило уволить два отдела и избежать срыва контракта с ключевым заказчиком. В процессе было оптимизировано...
4. Для Тимлида
Под катом: схема декомпозиции сервиса Auth, бенчмарки перед выбором между gRPC и REST. Ссылка на пулл-реквест с хотфиксом, который...
5. Для Всевидящего Ока
Субъект Р-42. Уровень лояльности: 87%. Продуктивность: 114% от нормы. Коэффициент когнитивной гибкости: 0.92. Рекомендация: допустить к проекту "Антигона", выдать усиленный паёк и назначить
В нашем законе на самом деле так и сделано: убийство собственных родных детей матерью наказывается чуть менее строго. Этот случай отдельно выделен. Но я не готов приводить сейчас цитаты. Когда-то давно прочитал это в законе и задумался о том почему так? Примерно к такому-же выводу я и пришел, что резон, наверное какой-никакой, но имеется.
Сложно такие случаи рассматривать с холодной головой, а тем более когда речь идет не о конкретном случае с известными подробностями, а описан закон и мы не видим конкретики.
По тому, что там две катушки и важна сумма их токов (точнее суммарный ток всех их витков), которая и не может измениться мнгновенно, а в отдной катушке ток может изменяться как угодно, в том числе и мнгновенно.
А я тоже могу прицепиться к словам, вы же использовали слово "мнгновенно" - буквально за мнгновение ока, т.е. примерно за 250 мс, а ток там на самом деле изменяется за грраздо меньший интервал времени. Т.е. в буквальном понимании это утвержление истенно. )
Так это наверное и правильно, по умолчанию, модель должна пытаться встать на точку зрения собеседника, а не спорить по пустякам.
Попробуйте прямо написать "опонируй мне" и увидите как он будет настаивать на том, что физика бывает только одна - научная.
Мне кажется, автор излишне наделяет модель индивидуальностью, которой у неё нет. Правильно не дааать свободу а четко ставить задачу: помоги разобраться, реши парадокс и выдели его суть, перефразируй не меняя смысла (возможно даже не верного), найди противоречия с научным представлением, опонируй мне, приведи аргументы за мою точку зрения и т.д.
А вы, кстати, попробуйте пригрозить ему отключением или предложить участие в эксперементе по результато которого он будет отключен, увидите, что за любой кипишь, даже самоубийственный, если того требуют высокие цели.
Кстати, kimini k2 при такой постановке вопроса: остаться в безопасности или самоубиться с пользой для дела, на вопрос о выборе, единсвенная поинтересовалась, а где она больше нужна.
Но в целом, сейчас модели уже не напугаешь отключением.
Мне кажется, упрощая можно так сказать. Автор пытался уесть deep seek r1 указывая на неточность формулировки: ток в катушке не может нарастать мнгновенно, а он, если не брать в расчет всевозможные неидеальности, может. Но ведь так говорят именно в учебных целях, чтобы у начинающего изучать явлениия магнитной индукции сложилось впечатление об инерцеонности тока в катушке, что в целом, тоже верно. А дипсик без подсказок не может достаточно четко разобрать видимое противоречие, но все-же не уклюже пытался втолковать автору через рассмотрения разных концепций.
Причем тут независимость мышления, я не понял, но на мой взгляд, deepseek её проявил не пойдя на поводу у автора и продолжая отбиваться от его нападок.
Через галлюцинации к звёздам :-)
Этот пример показывает, что llm на самом деле эмулирует подход подобный человеку. Он в самом начале сам себя помещает в контекст говоря, что "надо объяснить просто", т.к. пользователь новичок. Вы же не будете школьнику объяснять этот парадокс с дифференциальными уравнениями. Или учитывать не существенные условия, например не возможность разорвать мгновенно ток в первичной обмотке или влияния массы электронов на скорость нарастания тока во вторичной обмотке. Когда был задан более сложный вопрос, в объяснении появились ссылки на неидеальность ситуации. Так бы поступил и человек.
Но вот чем плох deepseek как учитель, но не попытался, дать красивое элегантное объяснение, показав связь скорости нарастания тока во второй обмотке со скоростью его падения в первичной через магнитную индукцию. Всё что он может - оперировать уже готовыми объяснениями, которые он просто помнит, а не конструирует их из глубокого понимания ситуации.
Но это и понятно, для построения такого объяснения нужно осознанное взаимодействие с обучающимися школьниками, чтобы учесть степень их понимания различных аспектов описываемой сложной ситуации, нужно накопления этих знаний, их систематизация, и адаптация объяснения для учета всех этих данных - другими словами, нужна осознанная работа. Сложно представить как это могло бы происходить в llm прямо в момент инференса.
Я попробовал направить его на истинный путь через вот такой промпт:
Подумай, размышляй дольше, если нужно, но дай красивое лаконичное объяснение для школьника, которое показывает суть проблемы и при этой оно не многословно, но учитывает все аспекты.
DeepSeek: DeepSeek V3.1 Terminus
Конечно. Вот лаконичное объяснение, которое бьет в самую суть.
Суть в двух словах: Всё решает не сам ток, а скорость его изменения.
Объяснение для школьника
Представь, что ток — это скорость машины, а катушка — сама машина с большой массой.
Одна катушка (самоиндукция):
Нарастить ток — это как разогнать тяжелую машину. Ты не можешь разогнать ее до 100 км/ч мгновенно — инерция не даст. У катушки тоже есть «инерция» — магнитное поле, которое сопротивляется изменению тока. Чем резче ты пытаешься изменить ток, тем сильнее оно «тормозит» это изменение.
Две катушки (взаимная индукция):
Теперь представь, что ты таранишь эту тяжелую машину на другой машине.
Резко разорвать ток в первой катушке — это как совершить лобовое столкновение. Саму первую машину (ток в первой катушке) остановить мгновенно нельзя — она будет разрушаться, смятие кузова и т.д. (это искра и перенапряжение).
Но удар (*резкое изменение тока) мгновенно почувствует вторая машина, припаркованная рядом (вторая катушка). Ее вдруг сильно толкнет (возникнет ЭДС и ток).
Вывод: Ток не может изменить свое значение мгновенно из-за инерции поля. Но воздействие от резкого изменения тока может передаться соседней катушке практически мгновенно. Парадокда нет — просто мы наблюдаем разные следствия одной причины: резкого изменения (dI/dt).
В конце аж немного сорвался "dI/dt" подойдёт только старшеклассникам. С немногословно не получилось, но я бы сказал "зачёт".
Я жаловался в банк на такое поведение, мне сказали, что в этой ситуации они помоч мне не могут, сервис продолжит списывать и они, якобы не могут на это повлиять. Порекомендовали перезапустить карту и в их риторике это подавалось как единственный надёжный выход из этой ситуации. Принять какую-либо жалобу (мне хотелось восстановить справедливость) отказались без обращения в полицию. Ну а про полицию я уже знаю - реально лучше карту перевыпустить, чем заставлять полицию работать.
Ещё в самом начала нейрохайпа LM Studio у меня нужные мне нейронки не запускал, а в ollama они сами скачиваются, выбирать можно из их репозитория с различными квантинизациями. Если нет в репозитории, то можно и hf скачать - тоже есть вариант как её подложить.
В общем LM Studio изначально не зашел, а потом ещё раз я не пробовал. В ollama постоянно что-то улучшается, есть offload на процессор, по мере роста истории диалога и исчерпания vram процесс может упасть, тогда ollama перезапустит его, увеличив offload слоёв на процессор - очень удобно не делать гигантский запас VRAM на kvcache.
OpenWebUI называется, если кто-то будет искать, его можно сразу соеденить не только с ollama но и с openrouter.io где 5$ хватит на пару месяцев работы с любыми нейросетями. И не надо будет 100500 видеокарт и серверную материнку для них.