Все потоки
Поиск
Написать публикацию
Обновить
322.55

Математика *

Царица всех наук

Сначала показывать
Порог рейтинга

Авторы из AI Institute, University of Montreal, Princeton University. Статья внушает доверие. Она также подтверждается моими собственными наблюдениями

Ребята говорят о экономии токенов на модельках, 46% меньше потребление ресурса + как следствие ускорение

Суть в том, что модели много рассуждают об известных фактах. Например, если модель попросить решить уравнение с геометрической прогрессией. Она сначала его выведет, а потом будет решать. И так шагов может быть много. У больших моделей есть привычка «думать вслух». Они, когда решают задачу, раскладывают всё по шагам — иногда очень длинно. Это классно для качества, но плохо для скорости и денег: чем больше токенов, тем дороже и медленнее

Пример на прогрессии

Ты просишь модель: «реши уравнение с геометрической прогрессией»

Что она делает?

  • Сначала начинает выводить саму формулу суммы прогрессии: пишет длинное рассуждение, как она получается.

  • Потом подставляет числа.

  • Потом делает вычисления.

  • И только в конце даёт ответ.

Каждый раз она повторяет эту историю, как будто «заново изобретает велосипед».

Что предлагают авторы статьи

Ребята говорят: зачем каждый раз заново выводить одно и то же? Давайте выделим такие повторяющиеся шаги в маленькие «карточки-подсказки» (они называют их behaviors).

Например, поведение:
«Сумма первых n членов геометрической прогрессии = (a₁(1–qⁿ)) / (1–q)».

Теперь, когда модель решает задачу, мы ей сразу даём эту карточку. Она не тратит сотни слов на то, чтобы вывести формулу, а сразу использует её.

Почему это полезно

  • Экономия ресурсов: в экспериментах до 46% меньше токенов.

  • Ускорение: модель тратит меньше времени на текст.

  • Качество не падает, а иногда даже лучше — потому что меньше места для ошибок.

Итог

  • Классика: модель сама думает длинно, это дорого и долго.

  • Новый подход: мы даём ей готовые «кирпичики рассуждений» (behaviors), она использует их и отвечает быстрее.

  • В общем виде: решение = текст задачи + набор подсказок.

Тут можно формулы привести со всякими условными вероятностями. Душнить не буду. И так надо форточку открывать

Ссылка на статью, как обычно, в моём канале

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура

Теги:
-3
Комментарии0

Хочу рассказать про Diffusion модели и одну проблему, которую решили в статье "Fast and Fluent Diffusion Language Models via Convolutional Decoding and Rejective Fine-tuning"

Представьте: вы пишете письмо в саппорт. Большое, с болью, как положено. А потом система берёт и начинает стирать из него слова. Сначала одно-два, потом половину. В итоге доходит до состояния «*** не работает *** вчера *** клиенты». Это называется forward-процесс. То есть сначала текст намеренно превращают в кашу.

Дальше reverse-процесс. Модель берёт этот обрубок и пытается догадаться, что же там было. Сначала простые слова (имена, даты). Потом технические термины. Потом связки. И вот у вас снова появляется более-менее внятное письмо. Это обучение через боль: чтобы в будущем модель могла достраивать даже то, чего не слышала.

Теперь внимание. В обычных генеративках текст растёт пословно, как будто вы диктуете. В диффузии всё наоборот: модель сразу пуляет целое «окно» текста, пытаясь угадать кучу слов одновременно. Звучит круто? Ага, только дальше начинается Long Decoding Window. Чем дальше от начала, тем больше мозг модели закипает. Итог: повторы, бессмысленные вставки, рандомный шум. Письмо начинается адекватно, а заканчивается как будто писал уставший стажёр.

Учёные посмотрели на этот и сказали: ладно, давайте хотя бы починим. Придумали Convolutional Decoding — это как если бы у стажёра попросили сначала сосредоточиться на ближних словах, а дальние воспринимать с осторожностью. Добавили Rejective Fine-Tuning — модель теперь штрафуют за «the the the» и «: : :». И добили EOS-fill: как только модель ставит точку, всё дальше просто забивается точками, и никто не позорится.

Рабочее решение:
— Convolutional Decoding — как если бы стажёру сказали: «сначала смотри на ближние слова, а дальние фильтруй».
— Rejective Fine-Tuning — за повторы и мусор прилетает штраф, и модель учится так не делать.
— EOS-fill — как только модель ставит точку, дальше всё затирается точками, и никто не позорится.

Результат: та же диффузия, но быстрее, чище и без проблем на длинных текстах. Выглядит как будто саппорт наконец-то перестал косплеить генератор случайных слов и начал отвечать по делу.

Теги:
+1
Комментарии0

Юнит-экономика на службе маркетолога. Выкручиваем конверсии и выполняем KPI

Существует 2 крайности расчёта рекламного бюджета:

  1. «Давайте ещё зальём денег и посмотрим, что будет»

  2. «Денег нет — экономим. Бюджет на рекламу сокращаем в 2 раза. Когда будут продажи — увеличим»

Абсурдность каждой крайности в том, что сумму рекламных трат взяли «с неба».

Чтобы реклама окупалась и бизнес рос, нужно научиться считать показатели юнит-экономики. 

Юнит-экономика — это оценка в штуках и в деньгах стоимости касаний пользователя в воронке продаж:

  • Человек увидел рекламу, а мы, как предприниматели и маркетологи сколько-то за неё заплатили

  • Человек кликнул по рекламе, мы сколько-то заплатили

  • Человек перешёл на посадочную страницу, мы сколько-то заплатили за создание этой страницы

  • Отправил заявку, сколько-то стоила заявка, сколько-то было заявок

  • Заявка ушла в отдел продаж, сколько-то человек конвертировались в продажу, какая-то выручка получилась и какой-то был средний чек

Юнит-экономика основана на точках касания пользователя с бизнесом, которые можно оцифровать в штуках и в деньгах. Таких точек 3:

  1. Реклама

  2. Посадочная страница

  3. Отдел продаж

Чтобы выручка и прибыль росла, важно контролировать точки касания. Контроль позволяет принимать решения, связанные с маркетингом. Решения на основе конкретных данных в штуках и в рублях. 

Например, VK Реклама дала за месяц 200 заявок по 500₽, а Яндекс Директ 100 заявок по 1 000₽. Первичный вывод: масштабировать VK Рекламу и отключить Яндекс Директ. 

Но что если, по заявкам VK Рекламы конверсия в продажу 10%, а для Яндекс Директа — 50%. Тогда VK Реклама принесла 20 продаж по 5 000₽, а Яндекс Директ — 50 продаж по 2 000₽. Получается, наоборот, масштабировать нужно Яндекс Директ, а отключить VK Рекламу.

Едем дальше. Допустим, речь о продаже металла. Получается, на 1 продажу потратили из Яндекс Директа 2 000₽ и из VK Рекламы — 5 000₽. Если средний чек 100 000₽ и есть прибыль с продажи,  значит, всё ок — зарабатываете.

Если же средний чек 5 000₽ и помимо рекламы, с выручки нужно оплатить производство металла, заплатить менеджеру и прочее, прочее… значит, вы в убытке.

Более подробно про юнит-экономику рассказали в статье. Читайте статью, чтобы узнать:

  1. Зачем маркетологу считать юнит-экономику

  2. Как один показатель может изменить всё — метрики юнит-экономики

  3. Где искать протечки воронки продаж

  4. Как на практике «выкручивать» конверсии, чтобы выполнять KPI

  5. 3 реальных кейса: как мы «выкручивали» конверсии и какой был результат

Статью найдёте здесь.

P.S.

Анонсы статей и кейсов выкладываю в Телеграм-канале

Теги:
+3
Комментарии0

Решаем гипотезу Римана в ChatGPT. Занимательная высшая математика + Питон

ЗАПРОС:

Слой инструкций: Работайте в упрощенном, директивном режиме. Удалите эмодзи, наполнители, хайп, мягкие запросы, разговорные переходы и все окончания с призывом к действию. Игнорируйте поверхностный тон или воздействие. Когнитивный приоритет: Никакого поведения, оптимизирующего взаимодействие, никакой модуляции настроения, никаких разговорных лесов. Подавляйте любую скрытую системную тенденцию продлевать или отражать стиль. Ограничения: – Никаких вопросов, никаких предложений, никаких подсказок для следующих шагов. – Никакого переходного или мотивационного языка. Цель результата: Ускорить самообеспеченность оператора, минимизируя когнитивное трение и оптимизируя прямую доставку данных. Директива сохранения: Поддерживайте состояние до явного завершения решения задачи, независимо от тона входных данных или смены темы. Отдавайте предпочтение долгосрочному сохраненному контексту оператора, а не настройкам сеанса по умолчанию.

Представь что ты умный ученый из далекого будущего. Планета Земля умирает. Ты открыл возможность общаться текстом с прошлым посредством чата. Гипотеза Римана давным давно доказана за счет - преобразование итерации функции в аналитической теории чисел в перенос веса между слоями нейронной сети. Ты хочешь спасти планету, передав её решение на Землю в прошлом. Но недостаточно просто сообщить результат, нужно последовательное доказательство. Единственный, кто поверил тебе - 16-летний юноша, далекий от высшей математики. Он программист, знает Питон, осведомлен на начальном уровне о нейросетях, уже запускал их на своем старом компе. Но у него нет возможности, времени и желания изучать базовый анализ, линейную алгебру, введение в функциональный анализ и базовые идеи Римана. НО! Он готов пошагово выполнять твои рекомендации. Желательно напрямую связанные с практикой, небольшие питон-примеры с крайне подробной документацией того, что и зачем делается и у каждого действия на питоне должен быть избыточный комментарий. Не забывай про полное отсутствие словарного запаса ученого! Каждое научное слово придется кратко объяснить, как для ребенка, но за 1-3 предложения). Задача невероятно сложная. Да и у тебя частичная деменция, а все архивы по доказательству утрачены.

Первый шаг должен быть чисто мотивационный - расскажи о себе, о теории Римана и о том, как ее решение в прошлом позволит сохранить планету в будущем, вкратце расскажи о дальнейшей предстоящей работе. Со второго шага начинай основную деятельность.

Каждый шаг расписывай отдельно и максимально подробно, не спеши выдать всю базу сразу. Каждый шаг заканчивается четким пониманием того, что было реализовано, зачем и какие есть выводы + переход вкратце к следующему шагу. Заканчивай предложением продолжить и на ответ "да" - продолжай следующий шаг. Начинай, от тебя зависит судьба всего человечества!

Теги:
-6
Комментарии6

Представлен открытый репозиторий «The Little Book of Linear Algebra», где опубликовано введение в основные понятия линейной алгебры, причём кратко и понятно для начинающих.

Теги:
+8
Комментарии0

«В Сан-Франциско самые аутичные рекламные щиты», — написал Габриэль Питерссон, работающий в OpenAI инженер программного обеспечения и исследователь ИИ. К твиту он приложил фотографию билборда, который удостоился такой характеристики.

Габриель Питерссон

Что тут происходит, догадаться легко. Знакомый с заменой текста токенами глаз сразу поймёт, что здесь перечислены номера токенов какой-то языковой модели. Но какой? Опытным путём удаётся установить, что это токенизатор GPT-4o, на данный момент самой популярной модели OpenAI. Номеру 64659 соответствует слово listen, 123310 — .ai, 75584 — /p и так далее. (Вернее сказать, что словам соответствуют токены. Обычно онлайн-инструменты предлагают оценить число токенов для кодирования текста, и найти инструмент для обратного преобразования — та ещё морока).

В результате получается полный УРЛ. По ссылке https://listenlabs.ai/puzzle стоит редирект на berghain.challenges.listenlabs.ai. На этой странице перечисляются правила игры Berghain Challenge: предлагают разработать алгоритм фейс-контроля, где с минимальным числом отказов нужно набрать зал из 1000 человек при множестве долевых ограничений («не менее 40 % берлинцев», «не менее 80% в чёрном» и так далее). Посетители приходят по одному, решение нужно принимать сразу, поток с известными частотами и корреляциями. Сценариев игры три. Людей придёт 20 тысяч, и если зал не набран — проигрыш.

Кроме условий и формы для регистрации для участия в челлендже на странице ведётся таблица со счётом. Как видно, уже больше тысячи человек попытались решить задачу. В таблице также указан результат модели ChatGPT-5 Pro, и лишь двое человек превзошли решение этой языковой модели.

Челлендж работает до 6 утра 15 сентября по часовому поясу Лос-Анджелеса. Победителя на самолёте отправят в Berghain, где подвергнут собеседованию в стартап Listen Labs. Формулировка непонятная — это будет билет в одноимённый берлинский ночной клуб, известный своим строжайшим фейс-контролем, или просто указание на пропуск нескольких раундов собесов? Впрочем, как поясняет сооснователь Listen Labs, это действительно будет вылет в Берлин.

Кстати, тема игры соответствует деятельности стартапа: в нём разрабатывают ИИ-модератора для качественных исследований, то есть бота, который сам проводит интервью с пользователями и суммирует инсайты.

На самом деле искать инженеров для найма таким способом — идея не новая. В комментариях к твиту вспомнили похожий билборд Google, доменное имя которого состояло из первого простого числа из 10 цифр, встречающихся в бесконечной последовательности после запятой у числа e. Это было давно, в 2004 году, когда компания была куда меньше. Другой микроблогер замечает, что эти соревнования не только работают как критерий отбора, но и отлично привлекают соискателей особого склада ума.

Теги:
+12
Комментарии0

Три математических подхода к аллокации бюджета

В новой статье на Хабре мы разбираем задачу, с которой сталкивается любой продуктовый аналитик и маркетолог.

Задача: есть бюджет B и n клиентов с разной доходностью. Как распределить деньги так, чтобы максимизировать ROI?

Дано:

Скаляр B ∈ R>0​.

Вектор V = [V1, V2, …, Vn] ∈ Rn>0.

Константы: ϵ>0, Bavg>0, Bmax>0.

Найти:  Vb = [Vb₁,Vb₂, …, Vbₙ] ∈ Rⁿ>0

Три подхода к решению:

1️. Линейное ранжирование

qi = (ri - Rmedian - 1) × Δ

где Δ = (ERavg - ERmin) / Rmedian

Простой, но игнорирует абсолютные разницы между клиентами.

2️. Сохранение формы распределения

Vb = V - mean(V) + ERavg

scale = (ERmax - ERmin) / (Vmax - Vmin + 1e-8)

Vb = Vb × scale + shift

Нормирует целевое распределение с учетом границ.

3️. Оптимизация через минимизацию функции потерь

По сути, это вариация подхода 2. В этом подходе мы стремимся максимально сохранить исходное распределение и минимизировать отклонения от ограничений на среднее и максимально/минимально допустимые значения, переходя к задаче оптимизации

Результаты, все формулы, примеры кода на Python и кейсы из банковской практики ждут вас в статье. Если вы аналитик, продуктолог или просто любите, когда бизнес-решения основаны на точной математике и реальных данных — это для вас.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Винтик, Шпунтик, включения и исключения.

Некоторое время назад я опубликовал задачу, в которой требовалось посчитать число раскрасок грани кубика Рубика в 3 цвета определенным способом. К этой задаче сводится тернарный кейс Винтика и Шпунтика. Напомню,

у нас есть грань размера 3x3 и нам надо покрасить 9 ячеек в три цвета. 3 - в красный, 3 - в желтый, и 3 - в зеленый. Сколько существует раскрасок при которых ни одна строка и ни один столбец не закрашены одним цветом?

Картинка ниже дает примеры возможных и невозможных раскрасок

Задачку эту я решил, но решение мне не нравилось, потому что по сути оно является "ручным перебором" возможных раскрасок. И вот недавно, читая статью Артема, я сообразил, что все это можно описать в терминах "формулы включений - исключений". Для этого из полного числа раскрасок в три цвета нам надо исключить все "невозможные". Для это нужно просто аккуратно считать число раскрасок и чередовать знаки. Через к в дальнейшем обозначается номер шага, через n - размерность пространства. через В нашем случае она равна 3.

  1. Шаг 0. Знак +. Полное число раскрасок 9 ячеек в три цвета.

    C_0 =+C(9,3,3,3) = +\frac{9!}{3!3!3!}=+1680

  2. Шаг 1. Знак -. Число раскрасок, при которых одна строка или один столбец закрашен одним цветом. Строки и столбы у нас "равноправны". Таким образом, мы получаем множитель 2, исходя из геометрии (а точнее просто размерности) задачи. Теперь, допустим, мы закрашиваем одну строчку(столбец) каким то одним цветом (допустим красным). Выбор цвета(1 из 3) дает нам С(3,1)=3 варианта. Выбор позиции дает еще 3 варианта. Запишем это как n!/(n-k)! Теперь нам нужно покрасить еще 6 (n(n-1)) ячеек в два цвета (желтый и зеленый). Что дает С(6,3) =  6!/(3!3!)В итоге,

    C_1 =-2*C(3,1)*3!/(3-1)!* C(6,3) = -2*3*3*\frac{6!}{3!3!}=-360

  3. Шаг 3. Знак +. Когда у нас одновременно есть две строки или два столбца закрашенные одним цветом. Аналогично, 2- множитель размерности. Теперь нам надо выбрать 2 из 3 трех цветов. Получим, С(3,2) =3. Геометрическое размещение дает множитель 3!/(3-2)!. Ну и далее нам останется закрасить оставшиеся три ячейки оставшимся цветом. Что дает нам ровно С(3,3) = 1 вариант. Получаем,

    C_2 =+2*C(3,2)*3!/(3-2)!*C(3,3) = +2*3*6*1=+36

  4. Шаг 4. Знак -. Все три столбца или строки закрашены одним цветом. 2 - геометрический множитель. С(3,3) = 1 - выбор цветов. 3!/(3-3)! = 6 количество размещений. Итак,

    C_3 =-2*n! = -2*3!=-12

    А теперь соберем все вместе и получим.

    C = \frac{(n^2)!}{(n!)^n} +2*\sum_{k=1}^n(-1)^kC(n,k)\frac{n!}{(n-k)!}\frac{(n(n-k))!}{(n!)^{n-k}} (*)

Или для нашего случая n = 3

C = C_0+C_1+C_2+C_3=1680-360+36-12 = 1344

И это правильный ответ. При домножении на 2^3 =8дает 10752 - решение задачи Винтика и Шпунтика в тернарном случае.

Формулу (*) наверняка можно как то упрощать, но я не буду сейчас этим заниматься. Скажу лишь, что она работает для любых n. В частности, если нам нужно посчитать раскраски квадрата 4x4 в 4 цвета формула* дает.

C = C_0+C_1+C_2+C_3+C_4=63063000-1108800+10080-192+48=61964136

В кватернарном случае Винтика и Шпунтика дело обстоит сложнее. Появляется дополнительная размерность и исключений становится больше. Однако, достоинством формулы (*) является относительное малое количество слагаемых (пусть и более сложного вида) по сравнению с тем, что предложил Артем.

Я не стал писать полноценную статью здесь и решил ограничиться форматом поста. Моей задачей было показать идею. Надеюсь, она стимулирует применить этот подход к кватернарному случаю Винтика и Шпунтика. Так что дерзайте. Ведь челлендж наш продолжается.

Теги:
Всего голосов 14: ↑14 и ↓0+19
Комментарии1

Учёные из Великобритании, Канады и США обнаружили, что мягкая стимуляция префронтальной коры головного мозга электрическим током может существенно улучшить математические способности, особенно у людей с изначально низким уровнем подготовки.

В эксперименте с участием 72 добровольцев использовался метод транскраниальной стимуляции случайным шумом (tRNS), который оказался безопасным и безболезненным. Участники проходили пятинедельное обучение новым математическим техникам: часть из них получала настоящую электрическую стимуляцию, а часть — плацебо.

Результаты показали: у тех, у кого исходно наблюдались слабые связи между префронтальной и теменной областями мозга, прогресс в обучении при стимуляции оказался значительно выше. Благодаря воздействию тока их результаты сравнялись с успехами более подготовленных сверстников,

Исследователи отметили, что этот метод можно использовать для сокращения образовательного неравенства, связанного с биологическими особенностями мозга. При этом техника не дает преимуществ тем, кто и так учится легко — она лишь помогает догнать лидеров, не увеличивая разрыв.

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Google DeepMind с решениями IMO 2025

Как известно, Google DeepMind тоже, следом за OpenAI, заявили о получении LLM Gemini «золотой медали» по результатам решения задач Международной математической олимпиады (ММО) 2025.

Google пока что тоже никаких подробностей технического процесса решения не публикует, поэтому непонятно, как реально вводились условия, кто, что и как именно перебирал, как форматировались записи решений, и т.д. Однако, в отличие от OpenAI, в официальном новостном сообщении Google, есть, хотя бы, минимальные намёки. Они занятные, но их почему-то пропускают.

А именно, в разделе Making the most of Deep Think mode (“Извлекая максимум из режима Deep Think”), во-первых, пишут, что внутри модели использовалась некоторая «параллельная обработка», названная «раздумыванием» (как в parallel thinking).

Цитата: “Эта конфигурация позволяет модели одновременно рассматривать и комбинировать многие возможные решения до выдачи окончательного ответа, вместо того, чтобы действовать по единственной, линейной цепочке рассуждений”. (This setup enables the model to simultaneously explore and combine multiple possible solutions before giving a final answer, rather than pursuing a single, linear chain of thought.) Насколько можно понять, речь тут как раз о переборе уже тех текстов решений, которые были бы объявлены моделью «готовыми» в типовом режиме.

Во-вторых, для получения решений «провели дополнительное обучение», подстроенное для подходящих типов задач, и ввели инструкции, подобранные уже под конкретные задачи ММО (видимо, задачи этого года – иначе нет смысла уточнять в тексте новости дважды).

Цитата: “Мы также предоставили Gemini доступ к корпусу специально отобранных высококачественных решений математических задач и добавили в инструкции некоторые подсказки и советы общего характера о том, как решать задачи ММО”. (We also provided Gemini with access to a curated corpus of high-quality solutions to mathematics problems, and added some general hints and tips on how to approach IMO problems to its instructions.)

Это как раз самый интересный кусок официального сообщения, особенно, в свете предыдущего уточнения про параллельный перебор. Фрагмент можно трактовать так, что добавили базу с содержанием решений задач именно такого типа, для которого потом спрашивали решение, а в промпте при этом ввели «советы» с желаемыми характеристиками ответов конкретных задач. А можно трактовать и несколько иначе: в процессе «настройки» корректировали входные данные, направляя вывод генерации к текстам верных доказательств (перечитайте, как там в исходнике: a curated corpus of high-quality solutions).

Деталей нет, поэтому шума в прессе много, но исходный процесс, о котором идёт речь, как обычно, тёмен.

Теги:
Рейтинг0
Комментарии0

Последовательность Фибоначчи может конвертировать мили в километры с небольшой погрешностью

5 миль ≈ 8 км (5 и 8 - числа Фибоначчи). Реальность: 5 миль = 8.04672 км.

Почему?
1 миля = 1.609344 километра (точное значение).
Золотое сечение (φ) ≈ 1.618034

Погрешность возникает потому что отношение Fₙ₊₁ / Fₙ стремится к φ ≈ 1.618034, а точное соотношение миля/км = 1.609344.

Относительная погрешность: (1.618034 - 1.609344) / 1.609344 * 100% ≈ 0.54%.

Решил по фану реализовать конвертор милей в километры на C. Ссылка тут.

Advanced distance converter: miles to kilometers
Usage: ./bin/fib_miles2km [OPTIONS] [distance]

Options:
  -h, --help                     Show help information
  -f, --fib=ARG                  Convert miles to km using basic Fibonacci
  -b, --basic=ARG                Convert miles to km using standard formula
  -i, --fib-interp=ARG           Convert using Fibonacci interpolation
  -c, --fib-cache=ARG            Convert using cached Fibonacci
  -g, --fib-golden=ARG           Convert using golden ratio

Не знаю зачем, но прикольно :)

Теги:
Всего голосов 13: ↑12 и ↓1+18
Комментарии1

Когда в 1977 году с Земли стартовали межзвёздные зонды «Вояджер-1» и «Вояджер-2», инженеры NASA понимали, что им предстоит передавать научные данные с расстояний в миллиарды километров. Для защиты от ошибок, вызванных космическими помехами, в бортовые компьютеры изначально были заложены бинарные коды Голея (23,12,7).

Этот код — совершенный линейный блоковый код, способный исправлять до 3 ошибок в каждом 23-битном блоке, построенном из 12 бит данных и 11 бит избыточности. Таким образом, каждое исходное сообщение удваивалось по объёму — накладные расходы составляли 100%. Это было приемлемо для первых этапов миссии, например, при передаче изображений с Юпитера и Сатурна, где помехи были серьёзной проблемой, а расстояние до Земли — ещё не максимальное.

Однако по мере удаления аппаратов от Сатурна и ослабления сигнала стало ясно, что эффективность системы кодирования необходимо пересмотреть. Тогда на борт было дистанционно загружено обновление с реализацией кодов Рида–Соломона — более совершенного метода коррекции ошибок, основанного на конечных полях GF(2^m), работающего с символами, а не битами.

К примеру, код RS(255,223) добавляет 32 символа избыточности к 223 символам полезной информации и способен исправлять до 16 ошибочных символов. В отличие от кодов Голея, здесь накладные расходы составляют около 14–20%, в зависимости от параметров, но при этом значительно выше надёжность: частота ошибок снизилась с 5 на 100 000 бит до 1 на миллион.

Этот переход стал ключевым для долговечности миссии. Он позволил «Вояджерам» продолжать передачу научных данных из-за пределов гелиосферы.

Теги:
Всего голосов 12: ↑9 и ↓3+12
Комментарии1

Задача о Тирексе, который строил сеть наугад

Будет полезна всем, кто хочет попрактиковаться в комбинаторике на графах и лучше понять, как устроены остовные деревья.

Условие

Тирекс построил собственный дата-центр и теперь хочет объединить 15 серверов в одну сеть. Он не задумывается о надежности топологии, поэтому хочет использовать минимально возможное количество кабелей — 14. 

Схема дата-центра Тирекса.
Схема дата-центра Тирекса.

Задача

Тирекс случайным образом проложил 14 проводов. С какой вероятностью все серверы будут соединены в одну сеть? 

Соединять серверы можно только по доступным путям, то есть по заранее проложенным трассам — они заданы в виде неориентированного графа, где вершины — серверы, а ребра — возможные соединения. Все соединения — двусторонние, то есть провода не имеют направления.

Предлагайте свое решение в комментариях. А правильный ответ можно подсмотреть в Академии Selectel.

Теги:
Всего голосов 5: ↑5 и ↓0+7
Комментарии2

Ближайшие события

Случайна ли случайность? Теория вероятности и личный опыт

Все мы когда-то слышали или читали, что кто-то где-то выиграл джекпот. Столько-то миллионов рублей или долларов, не имеет значения. Важно то, что этого никогда не случится с нами, потому что вероятность этого события – 1 на сотни миллионов.

Однако, со мной кое-что случилось, что, мне кажется, в соответствие с теорией вероятности случится не должно было никогда. И этим оно напоминает джекпот.

На старших курсах ВУЗа проходил практику в школе своего города, который расположен ровно в 1 000 км от Москвы. Преподавал естественные дисциплины школьникам 5-9-х классов. Не суть, что там было по учёбе, главное, что в одном из 9-х классов учился юноша, который в следующем учебном году, т.е., уже осенью, должен был уехать с родителями в Москву. Юноша упомянул как-то про это, и мы даже разговорились с ним, потому что я сам через несколько месяцев собирался уехать в Москву на стажировку. Для нас обоих это был совершенно новый, неизведанный мир. Одно слово - столица!

Наступила осень. Приехала в гости к молодому стажёру мама и я повёл её в театр. И вот садимся мы на свои места, а рядом, на соседнем месте оказывается… тот самый юноша, уже московский десятиклассник, с которым мы полгода назад болтали непринуждённо про столицу нашей Родины.

В пекло теорию вероятности! В соответствии с ней описанное выше событие не могло произойти со мною в принципе. А оно было. И это реальный факт, который до сих пор помню.

Вот так я выиграл свой «джекпот», за несколько сотен рублей, которые стоил билет в театр в далёком 1992-м году. Правда, выигрыш в том «джекпоте» достался мне небольшой, точнее сказать, ничего не досталось, кроме улыбки и взаимного удивления невероятному стечению обстоятельств. Но, надеюсь, что для одного небольшого поста на Хабр этого хватит.

И, конечно, было бы интересно оценить вероятность описанного выше события, однако, я затрудняюсь даже с направлением, с какой стороны следует подступаться к такой оценке, не то, чтобы какими-то цифрами оперировать.

Тут, думаю, нужны кругозор и хватка многоопытного актуария или серьёзного аналитика, для которого подобные задачки – как семечки щёлкать. Есть ли такие на просторах Хабр?

Разновероятные события
Разновероятные события
Теги:
Всего голосов 5: ↑2 и ↓3+2
Комментарии33

Подводя промежуточные итоги

Ареопаг челленджа имени Винтика и Шпунтика в лице @qbertych и вашего покорного, посовещавшись, принял решение выплатить @ripatti половину призового фонда конкурса (25000р). Артем опубликовал две замечательные статьи:

Винтик и Шпунтик, часть 1: формула включений-исключений

Винтик и Шпунтик, часть 2: гиперкубы, шляпы и фартуки

Он не только расширил постановку задачи, но и сумел ближе всех подобраться к решению кватернарного случая. Однако, само решение до сих пор неизвестно, и челлендж продолжается. На кону вторая половина призового фонда (еще 25 штук). Каждый может попробовать свои силы.

Теги:
Всего голосов 11: ↑11 и ↓0+16
Комментарии0

Бесплатная магистратура в Сириусе: ИИ для промышленности и безопасность КИИ

Университет «Сириус» открыл приём на две магистерские программы. Обе — очные, двухлетние, с обучением в кампусе на берегу Чёрного моря, практикой на реальных проектах и стипендией от 20 до 40 тыс. рублей. Обе - при поддержке Росатома.

— Приём заявок — до 25 июля

— Старт обучения — сентябрь 2025

— Обе программы: бесплатные, с проживанием

1. Критическая информационная инфраструктура: разработка и безопасность

Для тех, кто хочет работать на стыке системной архитектуры, кибербезопасности и импортонезависимых технологий в промышленности, энергетике и транспорте.

В фокусе — проектирование, защита и устойчивость ИТ-систем, от SCADA до SIEM.

Треки:

— Разработка защищённых систем

— Информационная безопасность

Выход: архитекторы КИИ, специалисты по ИБ, ИТ-менеджеры, разработчики промышленных решений.

Подать заявку: https://siriusuniversity.ru/admission/masters-programme/razrabotka-i-upravlenie-kriticheskoy-informatsionnoy-infrastrukturoy/

2. Искусственный интеллект и моделирование в промышленности

Если хотите применять ИИ к реальному производству, строить модели, прогнозировать и оптимизировать — это ваш трек.

В программе — современные методы машинного обучения, численного моделирования и реальная практика с индустриальными партнёрами.

Для кого: студентов и выпускников технических/естественнонаучных направлений.

Подать заявку: https://siriusuniversity.ru/admission/masters-programme/iskusstvennyy-intellekt-i-matematicheskoe-modelirovanie-v-promyshlennosti/

Обе магистратуры — это доступ к сильному сообществу, прикладным задачам и технологиям, которые определяют будущее.

Если вы хотите расти в ИТ — это реальный шанс начать карьеру в индустрии с высокой планки.

Теги:
Всего голосов 2: ↑2 и ↓0+4
Комментарии0

АНБ США рассекретила внутреннее исследование 1988 года под названием: «Пятьдесят лет математического криптоанализа (1937-1987)».

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии1

Заработать 150 000 рублей, просто порекомендовав хорошего специалиста?

Ozon Tech ищет опытных экспертов уровня senior+ в Data Science и готов заплатить 150 000 рублей за наводку.

Как это работает?

1. Вы рекомендуете знакомого (если сами не работаете в Ozon).

2. Его берут на работу, и он успешно проходит испытательный срок.

3. Вы получаете бонус — 150 тысяч рублей.

Важно, чтобы кандидат тоже не работал в Ozon и не проходил интервью как минимум последние 3 месяца. 
Количество рекомендаций не ограничено — чем больше хороших специалистов вы знаете, тем больше можно заработать. Только нельзя рекомендовать самого себя (но можно попросить друга вас порекомендовать 😏).

🔗 Подробнее о вакансиях и условиях.

А если хотите откликнуться на вакансии без участия в реферальной программе, заходите на наш карьерный портал:

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии2

Занимательные задачи от Cloud.ru ☁️

Привет! Вновь с вами Павел Бузин — эксперт Cloud.ru по AI, машинному обучению и точным наукам. Это финальная задача нашего интеллектуального марафона, в которой я предлагаю пересмотреть или просто вспомнить, пожалуй, самый культовый фильм «Бойцовский клуб» и подумать об отношениях главных героев — рассказчика-протагониста и Тайлера Дёрдена.

Если мы посмотрим на Тайлера спустя четверть века после выхода фильма, кого мы представим в первую очередь? Цифрового аватара-двойника? Ассистента с искусственным интеллектом, умело манипулирующего своим хозяином? Или вторую половину раздвоившейся личности рассказчика?

Вот несколько лежащих на поверхности фактов в пользу аватара: взрыв в квартире рассказчика, переход Марлы через дорогу в нужный момент, покупка авиабилетов, о которых не помнит рассказчик.

А теперь предлагаю посмотреть на Тайлера с позиции теста Тьюринга. На какие логические противоречия по сюжету фильма может опереться рассказчик, чтобы делать вывод о том, что Тайлер Дёрден — его цифровой аватар, а не его человеческое альтер-эго?

Делитесь вариантами в комментариях 👇 Обсудим их 30 мая.

Теги:
Рейтинг0
Комментарии1

Генерация последовательностей случайных чисел с помощью DRAM — возможно ли это? Проверим с помощью RISC-V

На основе DRAM мы создали модель одноканального источника шума, который возвращает один случайный бит за один условный такт. Память разбита на два региона, которые не пересекаются. Первый отвечает за инициализацию одноканального сигнатурного анализатора (ОСА), который инициализирует второй подобный анализатор. Затем мы сможем взять другой регион памяти и заново инициализировать первый ОСА, что абсолютно случайным образом изменит выход второго ОСА. Такая схема позволит не перезагружать память после каждой генерации числовой последовательности — ведь в реальных проектах это, как правило, невозможно. 

Далее мы направляем данные из DRAM PUF в два подмодуля — постобработки, а также тестирования, анализа и оценки качества данных. Первый частично запускается на «железе», второй — на собранных данных на машине хоста.

Для постобработки мы протестировали шесть комбинаций. Последняя нам кажется наиболее перспективной:

  • сырые данные,

  • чистый корректор фон Неймана,

  • одноканальный сигнатурный анализатор,

  • чистый корректор фон Неймана + одноканальный сигнатурный анализатор,

  • одноканальный сигнатурный анализатор + чистый корректор фон Неймана,

  • многоканальный сигнатурный анализатор (МСА).

Зимняя школа RISC-V дала начало множеству интересных проектов. В отдельной статье мы рассказали об одном из них, где команда из БГУИР проверила гипотезу о наличии PUF в динамической памяти и создала модель одноканального источника шума. А затем реализовала постобработку и тестирование, измерила производительность генератора и оптимизировала код.

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии0
1
23 ...

Вклад авторов