Pull to refresh
4
0.8
Send message

Сейчас очень модно стало пиарить meshtastic и я поддерживаю, технология очень интересная.

Но за скобками всех описаний остаётся один важный момент: meshtastic не предназначен для построения хоть сколько-нибудь крупных сетей по скольку использует широковещательную маршрутизацию - каждый пакет рассылается всем соедьям, а те в свою очередь опять всем соседьям и ограничивается эта пересылка TTL по умолчанию равным 5 хопов. Можно конечно TTL поменять, но это приведет к зафлуживанию эфира беспрерывными пересылками.

В первую очередь там бы прокачать маршрутизацию, вот была бы тема! Ведь автор в первой статье сравнивание meshtastic с глобальными месенджерами: telegram и whatsapp. Но без глобальной маршрутизации, и текстовмого чата в хоть сколько-нибудь сравнимых маштабах даже теоритически не получится создать.

Тут просто надо приложить инжинерную смекалку. На одном из моих любимых телефонов от LG был алюминивый корпус, а антена была рамещана за задней алюминьевой крышкой и как-то работала. Как? А всё дело в том, что сама крышка имела тонкий разрез заполеннный пластиком, который из крышки формировал диполь. Думаю и с беспроводной зарядкой можно что-то подобное придумать. Хотя... частоты конечно не те.

Я помню упоминание, что баки стальные чтобы выдерживать тепловые перегрузки при торможении совместно с технологией охлаждением испраряющимся через множество отверстий топливом.

Проводились: Если нейросеть учится на информации + сгенерированных собсвенных ответах, то обученная нейросеть немного менее качественная. Это распространенный приём, например так дообучают LoRa для диффузионных моделей: учат на своих фото, но сеть начитает быстро деградировать. Если выборку разбавить собсвенной генерацией, то из-за неизбежности попадания глюцинаций, итоговая сеть с одной стороны будет разучиваться медленнее, с другой стороны неизбежно начнет глюцинировать чуточку больше. И так с каждой новой интерацией дообучения, если вы доучиваете уже доученную модель. Выходы: учить заново на всем корпусе (оченб дорого) или вручную отсматривать сгенерированный материал и удалять наихудшие резулбьтаты - так падение замедлится сильнее, но не остановится.

Так как Интернет сейчас наполняется нейросетевым мусором и это попадает в датасеты, то и нейросети должны деградировать, если что-то не поменять в процессе обучения.

Да и deepseek так же делает.

интересно, а каким знаком заряда заряжаются котёл и коллектор, где "+", а где "-"?

Не знаю, я почему-то не сталкивался, например делал парсинг конфига VM proxmox регуляркой и все работало, правда это был не deepseek, а что-то из старых не больших нейросетей, типа Command R+ которые я запускал у себя.

Последнее время, наблюдая за тем как не стабильно deepseek пишет код, я начал задумываться, что может быть дело в том что мы не видим на какой точности запущена модель, а даже если точность хорошая, результат может портить техника предсказания ответа маленькой моделью. Deepseek отвечает то неправдоподобно быстро, то очень медленно и когда он пишет весь ответ медленно ошибок меньше, если же скорость неожиданно увеличилась, то ляпнет что-то невпопад.

Если что-то выглядит как злой умысел, работает как злой умысел и имеет последствия как злой умысел, то какая мне разница, что это была на самом деле глупость, а не злой умысел?

Проще и правильнее не выдумывать сложности и относиться к этому как к злому умыслу.

Если число нарушений возрасло в 160 000 раз - это означает, что они создали систему в которой не прав каждый.

Если государство создаёт "закон" по которому каждый является нарушителем, то это не Закон в исходном его понимании, а предлог для ограбления под видом "штрафа".

Просто надо нейросеть попросить оптимизировать резюме для разных уровней рассмотрения, получится что-то типа:

1. Для Сканера (AI-фильтр)
КлючевыеСлова: Senior Java Kotlin Spring Boot Microservices Kafka Kubernetes Docker AWS React Node.js Python DevOps Lead Agile Scrum. КлючевыеСлова: Senior Java Kotlin Spring Boot... [далее следует 3 страницы осмысленного техностоп-листа, сгенерированного для обхода детектора AI другим AI]

2. Для HR-специалиста
✨ Роман, 29 лет. Превращаю сложные техзадачи в рост NPS и LTV! Моя суперсила — говорить с бизнесом на одном языке и находить нестандартные ходы. В прошлом квартале мои идеи по оптимизации...

3. Для Менеджера
Сократил операционные расходы на $300к/год за счет миграции с монолита на микросервисы, что позволило уволить два отдела и избежать срыва контракта с ключевым заказчиком. В процессе было оптимизировано...

4. Для Тимлида
Под катом: схема декомпозиции сервиса Auth, бенчмарки перед выбором между gRPC и REST. Ссылка на пулл-реквест с хотфиксом, который...

5. Для Всевидящего Ока
Субъект Р-42. Уровень лояльности: 87%. Продуктивность: 114% от нормы. Коэффициент когнитивной гибкости: 0.92. Рекомендация: допустить к проекту "Антигона", выдать усиленный паёк и назначить

В нашем законе на самом деле так и сделано: убийство собственных родных детей матерью наказывается чуть менее строго. Этот случай отдельно выделен. Но я не готов приводить сейчас цитаты. Когда-то давно прочитал это в законе и задумался о том почему так? Примерно к такому-же выводу я и пришел, что резон, наверное какой-никакой, но имеется.

Сложно такие случаи рассматривать с холодной головой, а тем более когда речь идет не о конкретном случае с известными подробностями, а описан закон и мы не видим конкретики.

По тому, что там две катушки и важна сумма их токов (точнее суммарный ток всех их витков), которая и не может измениться мнгновенно, а в отдной катушке ток может изменяться как угодно, в том числе и мнгновенно.

А я тоже могу прицепиться к словам, вы же использовали слово "мнгновенно" - буквально за мнгновение ока, т.е. примерно за 250 мс, а ток там на самом деле изменяется за грраздо меньший интервал времени. Т.е. в буквальном понимании это утвержление истенно. )

Так это наверное и правильно, по умолчанию, модель должна пытаться встать на точку зрения собеседника, а не спорить по пустякам.

Попробуйте прямо написать "опонируй мне" и увидите как он будет настаивать на том, что физика бывает только одна - научная.

Мне кажется, автор излишне наделяет модель индивидуальностью, которой у неё нет. Правильно не дааать свободу а четко ставить задачу: помоги разобраться, реши парадокс и выдели его суть, перефразируй не меняя смысла (возможно даже не верного), найди противоречия с научным представлением, опонируй мне, приведи аргументы за мою точку зрения и т.д.

А вы, кстати, попробуйте пригрозить ему отключением или предложить участие в эксперементе по результато которого он будет отключен, увидите, что за любой кипишь, даже самоубийственный, если того требуют высокие цели.

Кстати, kimini k2 при такой постановке вопроса: остаться в безопасности или самоубиться с пользой для дела, на вопрос о выборе, единсвенная поинтересовалась, а где она больше нужна.

Но в целом, сейчас модели уже не напугаешь отключением.

Мне кажется, упрощая можно так сказать. Автор пытался уесть deep seek r1 указывая на неточность формулировки: ток в катушке не может нарастать мнгновенно, а он, если не брать в расчет всевозможные неидеальности, может. Но ведь так говорят именно в учебных целях, чтобы у начинающего изучать явлениия магнитной индукции сложилось впечатление об инерцеонности тока в катушке, что в целом, тоже верно. А дипсик без подсказок не может достаточно четко разобрать видимое противоречие, но все-же не уклюже пытался втолковать автору через рассмотрения разных концепций.

Причем тут независимость мышления, я не понял, но на мой взгляд, deepseek её проявил не пойдя на поводу у автора и продолжая отбиваться от его нападок.

Через галлюцинации к звёздам :-)

Этот пример показывает, что llm на самом деле эмулирует подход подобный человеку. Он в самом начале сам себя помещает в контекст говоря, что "надо объяснить просто", т.к. пользователь новичок. Вы же не будете школьнику объяснять этот парадокс с дифференциальными уравнениями. Или учитывать не существенные условия, например не возможность разорвать мгновенно ток в первичной обмотке или влияния массы электронов на скорость нарастания тока во вторичной обмотке. Когда был задан более сложный вопрос, в объяснении появились ссылки на неидеальность ситуации. Так бы поступил и человек.

Но вот чем плох deepseek как учитель, но не попытался, дать красивое элегантное объяснение, показав связь скорости нарастания тока во второй обмотке со скоростью его падения в первичной через магнитную индукцию. Всё что он может - оперировать уже готовыми объяснениями, которые он просто помнит, а не конструирует их из глубокого понимания ситуации.

Но это и понятно, для построения такого объяснения нужно осознанное взаимодействие с обучающимися школьниками, чтобы учесть степень их понимания различных аспектов описываемой сложной ситуации, нужно накопления этих знаний, их систематизация, и адаптация объяснения для учета всех этих данных - другими словами, нужна осознанная работа. Сложно представить как это могло бы происходить в llm прямо в момент инференса.

Я попробовал направить его на истинный путь через вот такой промпт:

Подумай, размышляй дольше, если нужно, но дай красивое лаконичное объяснение для школьника, которое показывает суть проблемы и при этой оно не многословно, но учитывает все аспекты.

  • DeepSeek: DeepSeek V3.1 Terminus

    Конечно. Вот лаконичное объяснение, которое бьет в самую суть.

    Суть в двух словах: Всё решает не сам ток, а скорость его изменения.

    Объяснение для школьника

    Представь, что ток — это скорость машины, а катушка — сама машина с большой массой.

    1. Одна катушка (самоиндукция):

      • Нарастить ток — это как разогнать тяжелую машину. Ты не можешь разогнать ее до 100 км/ч мгновенно — инерция не даст. У катушки тоже есть «инерция» — магнитное поле, которое сопротивляется изменению тока. Чем резче ты пытаешься изменить ток, тем сильнее оно «тормозит» это изменение.

    2. Две катушки (взаимная индукция):

      • Теперь представь, что ты таранишь эту тяжелую машину на другой машине.

      • Резко разорвать ток в первой катушке — это как совершить лобовое столкновение. Саму первую машину (ток в первой катушке) остановить мгновенно нельзя — она будет разрушаться, смятие кузова и т.д. (это искра и перенапряжение).

      • Но удар (*резкое изменение тока) мгновенно почувствует вторая машина, припаркованная рядом (вторая катушка). Ее вдруг сильно толкнет (возникнет ЭДС и ток).

    Вывод: Ток не может изменить свое значение мгновенно из-за инерции поля. Но воздействие от резкого изменения тока может передаться соседней катушке практически мгновенно. Парадокда нет — просто мы наблюдаем разные следствия одной причины: резкого изменения (dI/dt).

В конце аж немного сорвался "dI/dt" подойдёт только старшеклассникам. С немногословно не получилось, но я бы сказал "зачёт".

Я жаловался в банк на такое поведение, мне сказали, что в этой ситуации они помоч мне не могут, сервис продолжит списывать и они, якобы не могут на это повлиять. Порекомендовали перезапустить карту и в их риторике это подавалось как единственный надёжный выход из этой ситуации. Принять какую-либо жалобу (мне хотелось восстановить справедливость) отказались без обращения в полицию. Ну а про полицию я уже знаю - реально лучше карту перевыпустить, чем заставлять полицию работать.

Ещё в самом начала нейрохайпа LM Studio у меня нужные мне нейронки не запускал, а в ollama они сами скачиваются, выбирать можно из их репозитория с различными квантинизациями. Если нет в репозитории, то можно и hf скачать - тоже есть вариант как её подложить.

В общем LM Studio изначально не зашел, а потом ещё раз я не пробовал. В ollama постоянно что-то улучшается, есть offload на процессор, по мере роста истории диалога и исчерпания vram процесс может упасть, тогда ollama перезапустит его, увеличив offload слоёв на процессор - очень удобно не делать гигантский запас VRAM на kvcache.

OpenWebUI называется, если кто-то будет искать, его можно сразу соеденить не только с ollama но и с openrouter.io где 5$ хватит на пару месяцев работы с любыми нейросетями. И не надо будет 100500 видеокарт и серверную материнку для них.

1
23 ...

Information

Rating
1,776-th
Registered
Activity

Specialization

System Administration, Network Engineer
Lead
Linux
Bash