Обновить
199.38

Математика *

Царица всех наук

Сначала показывать
Порог рейтинга

2026. Год, когда ваша Loss-функция наконец сойдется. 🎆

Друзья, коллеги, любители данных и градиентного спуска!

Пока часы бьют 12, а мы заменяем шампанское на кофе (все равно тренируется модель), давайте не просто загадываем желания. Давайте их оптимизируем.

2025 был годом больших LLM, диффузий и Agentic AI. А что будет ядром 2026? Моя гипотеза — возврат к фундаменту. К математике, которая делает магию машинного обучения возможной.

Вот 3 математических концепции, которые станут вашими лучшими друзьями в новом году:

  1. Теория информации.
    Энтропия Шеннона говорит нам о степени неопределенности:

    H(X)=−i∑​p(xi​)logp(xi​)

А KL-дивергенция измеряет "расстояние" между распределениями — ключ к пониманию distillation's, RLHF и многого другого:

DKL​(P∣∣Q)=i∑​P(i)logP(i)​/Q(i)

2.Дифференциальная геометрия и многообразия.

Где живут ваши эмбеддинги? На многообразии, где локально все похоже на евклидово пространство, но глобально — сложная искривленная структура. Это язык диффузионных моделей.

3.Байесовские методы и Uncertainty Quantification.Нас интересует не просто предсказание yy, а апостериорное распределение:

 P(θ∣D)=P(D)P(D∣θ)/P(θ)​

Где θ — параметры модели, а DD — данные. 2026 — год, когда model.predict() будет возвращать не число, а (mean, variance).

А теперь — главное. Как сделать 2026 годом вашего прорыва? Формула года:

 2026=(Цель+Данные)×(Скорость_Обучения⋅Момент)+Регуляризация_Отдых

Где:

  • Регуляризация_Отдых — это не dropout, а сознательное "зануление" для перезарядки: output = 0 if (burnout_risk) else input.

  • Скорость_Обучения — умение учиться быстрее, а не просто больше.

  • Момент — тот самый нетворкинг, комьюнити и поддержка.

И вот ваш подарок от меня на Новый год — маленький "мозговой тизер" (ответ в комментариях!):

Для модели линейной регрессии y∼N(w^Tx,β^−1) с априорным распределением w∼N(0,α^−1) найдите вид апостериорного распределения p(w∣X,Y), выведите формулы для его параметров и покажите, как его максимум (MAP-оценка) связан с ridge-регрессией с коэффициентом регуляризации λ=α/β/

Подсказка: вспомните теорему Байеса: апостериорное распределение пропорционально произведению правдоподобия и априорного распределения.

Давайте встретим 2026 год не как пассивные наблюдатели, а как архитекторы будущего.

С Новым 2026 годом! Пусть ваши градиенты не затухают, обобщающая способность растет, а оптимизатор всегда находит глобальный минимум. 🥂

#MachineLearning #Математика #DataScience #ИИ #2026 #НовыйГод #КарьераВAI #Наука #Формулы

Теги:
-1
Комментарии0

В этот раз не буду ждать никаких пятниц, потому что вся начинающаяся неделя — гигантская суперпятница перед гипервыходными. В этот раз я выкатил особо отбитый инженерный бред, по сути скорее даже геометрическую головоломку. Может, боян, не проверял. Оно мне только что прибредилось в полусне.

Ахинейно-поршневой двигатель с симметричным поршнем и параллельными ахинеями.
Ахинейно-поршневой двигатель с симметричным поршнем и параллельными ахинеями.

Вот такой вот «двигатель», у которого поршень в виде «колобашки» без всяких шатунов сидит сам на шатунной шейке коленвала. Косинусную составляющую вращения он, естественно, отрабатывает сам, а синусную… как говорил сатирик, вы побольше воздуха наберите и покрепче сядьте — синусную отрабатывает весь сдвоенный цилиндр, болтаясь вверх-вниз на маленьких поршеньках-направляющих (для этого сверху и снизу в нём сделаны дополнительные маленькие цилиндрики). В этом месте вы все уже представили, какой массой мы собираемся размахивать в воздухе туда-сюда, а самые сообразительные — ещё и какие там будут перекосы и какое адское трение (усилие-то приложено несбалансированное).

Проржавшись, переходим к занимательной геометрии, поскольку в силу описанного считать это двигателем уже нельзя. В геометрии можно сделать следующие допущения: охлаждающая рубашка не нужна, 1200 оборотов при 50 кубиках нам достаточно (масса не страшна), вместо свечи вспышки обеспечивает маг-пирокинетик, трение в малых ЦПГ отсутствует. В общем, переходим к математической абстракции.

И тут становится интересно: можно ли, правильно выбрав диаметры малых ЦПГ, положение их перепускных окон на главном цилиндре, положение выпускных и продувочных окон на них самих и так далее, реализовать не просто фыр-фыр-двухтактник, в котором окна в главном цилиндре открываются «сразу на улицу», а какой-нибудь более интересный цикл: Аткинсона, Миллера или, наоборот, Цоллера (Доппельколбен, который решает противоположную Аткинсону задачу), ну или там, не знаю, Уткинсона, Мурчинсона, Пушкина, Кукушкина или вообще Нак-Мак-Фиггля. Допустим, что к продувочным окнам ведут идеально гибкие шланги (абстракция же; в принципе, в реальной модели, если бы она была нужна, это более-менее обходится тоже).

Сами понимаете, что одни двигаются по синусу, другие — по косинусу, перепускные окна открываются согласно косинусоиде, выпускные и продувочные — согласно синусоиде, и всё это можно произвольно двигать вдоль ходов поршней, причём независимо. А если это кажется слишком лёгкой задачей — добавим возможность наклонять группу малых ЦПГ на небольшие углы (чтобы отрабатывали не чистый синус, а какую-то смесь), да ещё и вместо поршней в некоторых местах сделать полноценные золотники, которые открывают окна только при строгом совпадении положений, а не «от N мм и до мёртвой точки» (они же, кстати, и в шлангах не нуждаются, потому что наружная часть у них неподвижна).

В общем, такая вот небольшая тригонометрическая головоломка. Занимательная и в целом практически бессмысленная. Пафнутий Львович Чебышёв, конечно, назвал бы это задачкой для первого класса спецшколы для умственно отсталых, но простым смертным типа нас с вами может представлять интерес. Не забывайте только, что в малых ЦПГ при движении газ тоже не исчезает «в никуда», чтобы не получить незапланированный компрессионный двигатель, например. Задачка-то геометрическая, но граничные условия у неё от «реального» ДВС, иначе будет слишком просто.

Теги:
-3
Комментарии1

Факториалы и субфакториалы. Разбираемся с ними вместе с экспертами ИТ-компании «Криптонит».

Когда человек первый раз встречает восклицательный знак в математических записях, он обычно удивляется. Это выглядит, словно цены на распродаже: 50! 80! 100!

На самом деле запись вида n! называется факториал и означает произведение всех натуральных чисел от 1 до n. Например: 5! = 5 × 4 × 3 × 2 × 1 = 120.

Идея факториала встречалась ещё в Древней Индии, а современное обозначение n! ввёл французский математик Кристиан Крамп в 1808 году.

Функция вычисления факториала есть во многих математических библиотеках. Она применяется, в частности, при анализе алгоритмов сортировки для определения верхней границы их сложности.

В общем случае факториал n! показывает количество всех возможных перестановок ИЗ n элементов. Например, из трёх элементов [A, B, C] всего может быть 6 перестановок: ABC, ACB, BAC, BCA, CAB, CBA, т.е. 3! = 6.

Дальнейшее развитие идеи привело к появлению субфакториала.

Он обозначается !n и показывает число перестановок n элементов, в которых ни один элемент не остаётся на своём месте.

Для тех же трёх элементов [A, B, C] субфакториал записывается как !3 и равен двум, поскольку возможны только две комбинации, в которых каждый элемент меняет своё положение: [B, C, A] и [С, A, B].

Факториалы и субфакториалы используются в разных разделах математики.

В комбинаторике они выражают количество перестановок, в теории чисел их изучают в контексте делимости, в теории вероятностей — для подсчёта элементарных исходов.

Теги:
0
Комментарии0

Физик-теоретик решил выяснить, насколько реалистична завязка фильма «Один дома» с оставленным дома Кевином. Оказывается, шансы того, что сразу несколько людей лягут спать в 23:00 и смогут проспать подъем в 8:00 перед большим перелётом стремятся к нулю — вероятность всего 0,13%, то есть, если Кевина забыли специально, то это маловероятное, но абсолютно правдоподобное событие.

Теги:
+1
Комментарии4

Минобрнауки РФ утвердило минимальное количество баллов ЕГЭ для поступления в вузы в 2026 году.

По сравнению с 2025/2026 учебным годом баллы по некоторым предметам изменились. Например, по химии и биологии повышены с 39 до 40 баллов, по физике — с 39 до 41 балла, по информатике — с 44 до 46 баллов, по истории — с 36 до 40 баллов, по иностранному языку — с 30 до 40 баллов. Требования к результатам экзаменов по русскому языку, математике профильного уровня, географии, обществознанию, литературе остались без изменений.

Теги:
0
Комментарии1

Байесовские А/Б-тесты - курс на Stepik.

Курс https://stepik.org/course/249642/promo .

Показана реализация А/Б-тестов. Рассмотрено использование байесовского моделирования для сравнения конверсий и средних. Дополнительно обсуждаются множественные сравнения и транзакционная выручка на пользователя.

Репозитории
- https://github.com/andrewbrdk/Bayesian-AB-Testing
- https://github.com/andrewbrdk/AB-Testing-Implementation
Видео на ЮТубе. По сравнению с ЮТубом в курсе есть задачи.

Это первая версия курса. Интересны комментарии. Попробуйте!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

13 — счастливое число! «Счастливыми» называют натуральные числа с особым свойством: при повторяющейся замене такого числа на сумму квадратов его цифр и далее — на сумму квадратов цифр каждого промежуточного результата, в итоге получается единица.

Например, возьмём число 7 и убедимся в том, что оно «счастливое».

  1. 7² = 49;

  2. 4² + 9² = 97;

  3. 9² + 7² = 130;

  4. 1² + 3² + 0² = 10;

  5. 1² + 0² = 1.

После пяти шагов мы пришли к единице, что и требовалось по определению.

Как ни странно, число 13 тоже «счастливое», и проверяется это буквально в два шага:

  1. 1² + 3² = 10;

  2. 1² + 0² = 1.

С четвёркой получается интереснее.

  1. 4² = 16;

  2. 1² + 6² = 37;

  3. 3² + 7² = 58;

  4. 5² + 8² = 89;

  5. 8² + 9² = 145;

  6. 1² + 4² + 5² = 42;

  7. 4² + 2² = 20;

  8. 2² + 0² = 4.

Через восемь шагов мы снова получаем 4! Это цикл, из которого нет выхода.

Понятие «счастливые числа» использовал в 1980-х годах британский преподаватель математики Рег Алленби (Reg Allenby). Позже Ричард Кеннет Гай и Джон Хортон Конвей использовали этот термин в книгах по теории чисел и занимательной математике.

Сейчас «счастливые числа» используются в задачах на итерационные алгоритмы и циклы. Они встречаются на соревнованиях по программированию и в математических олимпиадах.

Теги:
Всего голосов 4: ↑3 и ↓1+3
Комментарии0

Задача о сложении

Проверьте, насколько хорошо вы знаете двоичную арифметику и готовы ли к алгоритмическому собеседованию.

Условие

В IT-отдел принесли странную «коробку» от дочернего исследовательского центра — компактный аппаратный ускоритель для обработки сигналов. На борту стоял быстрый, процессор, но конструкторы сознательно упростили его набор команд ради энергоэффективности, поэтому у чипа осталась только операция суммирования. Другие арифметические операции либо не были реализованы в железе, либо временно отключены.

Задача

Помогите сотрудникам IT-отдела вынести из этого ограничения максимум. Реализуйте  вычитание, умножение и деление, но только с помощью операции суммирования. Язык программирования неважен, ограничений по мощности компьютера также нет.

Делитесь ходом рассуждений и решениями в комментариях. Кстати, подсмотреть их всегда можно в Академии Selectel.

Теги:
Всего голосов 5: ↑4 и ↓1+7
Комментарии1

А вы знали, что среди натуральных чисел с необычными свойствами есть те, квадрат которых заканчивается на само число? Их называют автоморфными, поскольку они частично воспроизводят сами себя.

Например:
5^2 = 25;
76^2 = 5 776;
625^2 = 390 625.

Каждое последующее число в этом бесконечном ряду содержит одно из предыдущих с добавленными к нему слева цифрами, поэтому автоморфные числа можно генерировать рекуррентно.

Энтузиасты находили автоморфные числа, состоящие более чем из 25 тысяч знаков.

Концепция таких чисел была известна давно, но сам термин «automorphic numbers» впервые появился в 1968 году в одноимённой статье, опубликованной в Journal of Recreational Mathematics.

Поиск автоморфного числа, квадрат которого оканчивается на n цифр исходного числа, сводится к решению сравнения: x² ≡ x (mod 10ⁿ).

Изучение автоморфных чисел (а также циклических и других чисел специального вида) дало стимул к развитию модульной арифметики. На этом математическом аппарате, в частности, строится современная криптография с открытым ключом.

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии1

Задача о вписанном в окружность многоугольнике

Условие

Есть окружность с центром O, а также N, множество вершин многоугольника, вписанного в фигуру. Каждая вершина может быть расположена на длине окружности случайным образом. Нужно определить вероятность, что при случайном наборе N центр O будет внутри этого образованного многоугольника.

Задача

Напишите модель симуляции, например, на Python, вычисляющую вероятность, что случайно сгенерированный вписанный в окружность многоугольник будет заключать в своей площади центр O.

Как подойдете к задаче? Напишите свое решение в комментариях и сверьтесь с алгоритмом в Академии Selectel.

Теги:
Всего голосов 5: ↑4 и ↓1+7
Комментарии18

Идея, чем заняться в длинные выходные!

В это воскресенье Иван Чижов, заместитель руководителя лаборатории криптографии, примет участие в дискуссии «Как теория информации работает в математике и биологии?». Она пройдёт в Музее криптографии — зарегистрироваться можно тут.

На дискуссии вместе с математиками и биологами обсудят:

  • является ли информация мерой неопределенности или она выступает носителем смысла в живых системах?

  • как устроена коммуникация — это просто передача сигналов или сложный процесс обмена смыслами?

  • В чем суть кодирования — в оптимизации данных или в эволюции живых систем?

Эксперты

Иван Чижов, кандидат физико-математических наук, заместитель руководителя лаборатории криптографии по научной работе IT-компании «Криптонит», доцент кафедры информационной безопасности факультета вычислительной математики и кибернетики МГУ имени М.В. Ломоносова.

Иван Мухин, кандидат биологических наук, доцент, заведующий кафедрой геоэкологии, природопользования и экологической безопасности Российского государственного гидрометеорологического университета.

Модератор:

Александр Дюльденко, кандидат исторических наук, старший научный сотрудник Музея криптографии.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Практическая философия ИИ в корпорациях. Нестандартная модель #3

«Росатом» и издание N+1 выпустили третий выпуск подкаста «Нестандартная модель»

Ведущий Андрей Коняев поговорил с главным архитектором по искусственному интеллекту АО «Гринатом» Евгением Глуховым о нейросетях, математике, как бы мог выглядеть ГОСТ для ИИ, возможном ИИ-апокалипсисе и даже немного о киберметалле.

Смотрите видео, чтобы узнать, чем занимается архитектор ИИ, зачем нужны большие языковые модели, может ли нейросеть стоить дороже живого специалиста и как школьная математика влияет на будущее в ИТ.

Выпуск доступен на платформах:

ВКонтакте

YouTube

Первый выпуск можно найти в этом посте, а второй — в этом

Следить за новостями в сфере информационных технологий атомной отрасли можно в телеграм-канале Атомный IT.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Ближайшие события

Куда ни придёшь, везде реактор? Нестандартная модель #2

Росатом» и издание N+1 записали второй выпуск подкаста «Нестандартная модель»

Ведущий Андрей Коняев, популяризатор науки и преподаватель мехмата МГУ, пообщался с директором компании «ДЖЭТ ЛАБ» Сергеем Букреевым о математике, без которой не работает ни один проект. 

Математическое моделирование помогает предсказывать многое: от поведения охлаждающих контуров в атомной станции до работы сложных медицинских установок.

Инженеры «ДЖЭТ ЛАБ» успешно применяют опыт моделирования сложных систем из атомной отрасли в медицине. Изначально разрабатывая ПО для симуляции промышленных объектов, команда теперь создаёт платформу для моделирования работы МРТ-аппаратов. Их системный подход, отточенный на атомных реакторах, оказался универсальным: ключевые подсистемы томографа — охлаждение, электропитание, вентиляция и управление — требуют тщательного моделирования для обеспечения стабильности и надёжности.

Смотрите видео, чтобы узнать, чем работа инженера схожа с работой врача, каково разрабатывать софт для МРТ без релевантного опыта и почему инженерия — это творчество.

Выпуск доступен на платформах:

ВКонтакте

YouTube

Первый выпуск также можно посмотреть во ВКонтакте и на YouTube

Следить за новостями в сфере информационных технологий атомной отрасли можно в телеграм-канале Атомный IT.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Авторы из AI Institute, University of Montreal, Princeton University. Статья внушает доверие. Она также подтверждается моими собственными наблюдениями

Ребята говорят о экономии токенов на модельках, 46% меньше потребление ресурса + как следствие ускорение

Суть в том, что модели много рассуждают об известных фактах. Например, если модель попросить решить уравнение с геометрической прогрессией. Она сначала его выведет, а потом будет решать. И так шагов может быть много. У больших моделей есть привычка «думать вслух». Они, когда решают задачу, раскладывают всё по шагам — иногда очень длинно. Это классно для качества, но плохо для скорости и денег: чем больше токенов, тем дороже и медленнее

Пример на прогрессии

Ты просишь модель: «реши уравнение с геометрической прогрессией»

Что она делает?

  • Сначала начинает выводить саму формулу суммы прогрессии: пишет длинное рассуждение, как она получается.

  • Потом подставляет числа.

  • Потом делает вычисления.

  • И только в конце даёт ответ.

Каждый раз она повторяет эту историю, как будто «заново изобретает велосипед».

Что предлагают авторы статьи

Ребята говорят: зачем каждый раз заново выводить одно и то же? Давайте выделим такие повторяющиеся шаги в маленькие «карточки-подсказки» (они называют их behaviors).

Например, поведение:
«Сумма первых n членов геометрической прогрессии = (a₁(1–qⁿ)) / (1–q)».

Теперь, когда модель решает задачу, мы ей сразу даём эту карточку. Она не тратит сотни слов на то, чтобы вывести формулу, а сразу использует её.

Почему это полезно

  • Экономия ресурсов: в экспериментах до 46% меньше токенов.

  • Ускорение: модель тратит меньше времени на текст.

  • Качество не падает, а иногда даже лучше — потому что меньше места для ошибок.

Итог

  • Классика: модель сама думает длинно, это дорого и долго.

  • Новый подход: мы даём ей готовые «кирпичики рассуждений» (behaviors), она использует их и отвечает быстрее.

  • В общем виде: решение = текст задачи + набор подсказок.

Тут можно формулы привести со всякими условными вероятностями. Душнить не буду. И так надо форточку открывать

Ссылка на статью, как обычно, в моём канале

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура

Теги:
Всего голосов 3: ↑0 и ↓3-3
Комментарии0

Хочу рассказать про Diffusion модели и одну проблему, которую решили в статье "Fast and Fluent Diffusion Language Models via Convolutional Decoding and Rejective Fine-tuning"

Представьте: вы пишете письмо в саппорт. Большое, с болью, как положено. А потом система берёт и начинает стирать из него слова. Сначала одно-два, потом половину. В итоге доходит до состояния «*** не работает *** вчера *** клиенты». Это называется forward-процесс. То есть сначала текст намеренно превращают в кашу.

Дальше reverse-процесс. Модель берёт этот обрубок и пытается догадаться, что же там было. Сначала простые слова (имена, даты). Потом технические термины. Потом связки. И вот у вас снова появляется более-менее внятное письмо. Это обучение через боль: чтобы в будущем модель могла достраивать даже то, чего не слышала.

Теперь внимание. В обычных генеративках текст растёт пословно, как будто вы диктуете. В диффузии всё наоборот: модель сразу пуляет целое «окно» текста, пытаясь угадать кучу слов одновременно. Звучит круто? Ага, только дальше начинается Long Decoding Window. Чем дальше от начала, тем больше мозг модели закипает. Итог: повторы, бессмысленные вставки, рандомный шум. Письмо начинается адекватно, а заканчивается как будто писал уставший стажёр.

Учёные посмотрели на этот и сказали: ладно, давайте хотя бы починим. Придумали Convolutional Decoding — это как если бы у стажёра попросили сначала сосредоточиться на ближних словах, а дальние воспринимать с осторожностью. Добавили Rejective Fine-Tuning — модель теперь штрафуют за «the the the» и «: : :». И добили EOS-fill: как только модель ставит точку, всё дальше просто забивается точками, и никто не позорится.

Рабочее решение:
— Convolutional Decoding — как если бы стажёру сказали: «сначала смотри на ближние слова, а дальние фильтруй».
— Rejective Fine-Tuning — за повторы и мусор прилетает штраф, и модель учится так не делать.
— EOS-fill — как только модель ставит точку, дальше всё затирается точками, и никто не позорится.

Результат: та же диффузия, но быстрее, чище и без проблем на длинных текстах. Выглядит как будто саппорт наконец-то перестал косплеить генератор случайных слов и начал отвечать по делу.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Юнит-экономика на службе маркетолога. Выкручиваем конверсии и выполняем KPI

Существует 2 крайности расчёта рекламного бюджета:

  1. «Давайте ещё зальём денег и посмотрим, что будет»

  2. «Денег нет — экономим. Бюджет на рекламу сокращаем в 2 раза. Когда будут продажи — увеличим»

Абсурдность каждой крайности в том, что сумму рекламных трат взяли «с неба».

Чтобы реклама окупалась и бизнес рос, нужно научиться считать показатели юнит-экономики. 

Юнит-экономика — это оценка в штуках и в деньгах стоимости касаний пользователя в воронке продаж:

  • Человек увидел рекламу, а мы, как предприниматели и маркетологи сколько-то за неё заплатили

  • Человек кликнул по рекламе, мы сколько-то заплатили

  • Человек перешёл на посадочную страницу, мы сколько-то заплатили за создание этой страницы

  • Отправил заявку, сколько-то стоила заявка, сколько-то было заявок

  • Заявка ушла в отдел продаж, сколько-то человек конвертировались в продажу, какая-то выручка получилась и какой-то был средний чек

Юнит-экономика основана на точках касания пользователя с бизнесом, которые можно оцифровать в штуках и в деньгах. Таких точек 3:

  1. Реклама

  2. Посадочная страница

  3. Отдел продаж

Чтобы выручка и прибыль росла, важно контролировать точки касания. Контроль позволяет принимать решения, связанные с маркетингом. Решения на основе конкретных данных в штуках и в рублях. 

Например, VK Реклама дала за месяц 200 заявок по 500₽, а Яндекс Директ 100 заявок по 1 000₽. Первичный вывод: масштабировать VK Рекламу и отключить Яндекс Директ. 

Но что если, по заявкам VK Рекламы конверсия в продажу 10%, а для Яндекс Директа — 50%. Тогда VK Реклама принесла 20 продаж по 5 000₽, а Яндекс Директ — 50 продаж по 2 000₽. Получается, наоборот, масштабировать нужно Яндекс Директ, а отключить VK Рекламу.

Едем дальше. Допустим, речь о продаже металла. Получается, на 1 продажу потратили из Яндекс Директа 2 000₽ и из VK Рекламы — 5 000₽. Если средний чек 100 000₽ и есть прибыль с продажи,  значит, всё ок — зарабатываете.

Если же средний чек 5 000₽ и помимо рекламы, с выручки нужно оплатить производство металла, заплатить менеджеру и прочее, прочее… значит, вы в убытке.

Более подробно про юнит-экономику рассказали в статье. Читайте статью, чтобы узнать:

  1. Зачем маркетологу считать юнит-экономику

  2. Как один показатель может изменить всё — метрики юнит-экономики

  3. Где искать протечки воронки продаж

  4. Как на практике «выкручивать» конверсии, чтобы выполнять KPI

  5. 3 реальных кейса: как мы «выкручивали» конверсии и какой был результат

Статью найдёте здесь.

P.S.

Анонсы статей и кейсов выкладываю в Телеграм-канале

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Решаем гипотезу Римана в ChatGPT. Занимательная высшая математика + Питон

ЗАПРОС:

Слой инструкций: Работайте в упрощенном, директивном режиме. Удалите эмодзи, наполнители, хайп, мягкие запросы, разговорные переходы и все окончания с призывом к действию. Игнорируйте поверхностный тон или воздействие. Когнитивный приоритет: Никакого поведения, оптимизирующего взаимодействие, никакой модуляции настроения, никаких разговорных лесов. Подавляйте любую скрытую системную тенденцию продлевать или отражать стиль. Ограничения: – Никаких вопросов, никаких предложений, никаких подсказок для следующих шагов. – Никакого переходного или мотивационного языка. Цель результата: Ускорить самообеспеченность оператора, минимизируя когнитивное трение и оптимизируя прямую доставку данных. Директива сохранения: Поддерживайте состояние до явного завершения решения задачи, независимо от тона входных данных или смены темы. Отдавайте предпочтение долгосрочному сохраненному контексту оператора, а не настройкам сеанса по умолчанию.

Представь что ты умный ученый из далекого будущего. Планета Земля умирает. Ты открыл возможность общаться текстом с прошлым посредством чата. Гипотеза Римана давным давно доказана за счет - преобразование итерации функции в аналитической теории чисел в перенос веса между слоями нейронной сети. Ты хочешь спасти планету, передав её решение на Землю в прошлом. Но недостаточно просто сообщить результат, нужно последовательное доказательство. Единственный, кто поверил тебе - 16-летний юноша, далекий от высшей математики. Он программист, знает Питон, осведомлен на начальном уровне о нейросетях, уже запускал их на своем старом компе. Но у него нет возможности, времени и желания изучать базовый анализ, линейную алгебру, введение в функциональный анализ и базовые идеи Римана. НО! Он готов пошагово выполнять твои рекомендации. Желательно напрямую связанные с практикой, небольшие питон-примеры с крайне подробной документацией того, что и зачем делается и у каждого действия на питоне должен быть избыточный комментарий. Не забывай про полное отсутствие словарного запаса ученого! Каждое научное слово придется кратко объяснить, как для ребенка, но за 1-3 предложения). Задача невероятно сложная. Да и у тебя частичная деменция, а все архивы по доказательству утрачены.

Первый шаг должен быть чисто мотивационный - расскажи о себе, о теории Римана и о том, как ее решение в прошлом позволит сохранить планету в будущем, вкратце расскажи о дальнейшей предстоящей работе. Со второго шага начинай основную деятельность.

Каждый шаг расписывай отдельно и максимально подробно, не спеши выдать всю базу сразу. Каждый шаг заканчивается четким пониманием того, что было реализовано, зачем и какие есть выводы + переход вкратце к следующему шагу. Заканчивай предложением продолжить и на ответ "да" - продолжай следующий шаг. Начинай, от тебя зависит судьба всего человечества!

Теги:
Всего голосов 6: ↑0 и ↓6-6
Комментарии6

Представлен открытый репозиторий «The Little Book of Linear Algebra», где опубликовано введение в основные понятия линейной алгебры, причём кратко и понятно для начинающих.

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии0

«В Сан-Франциско самые аутичные рекламные щиты», — написал Габриэль Питерссон, работающий в OpenAI инженер программного обеспечения и исследователь ИИ. К твиту он приложил фотографию билборда, который удостоился такой характеристики.

Габриель Питерссон

Что тут происходит, догадаться легко. Знакомый с заменой текста токенами глаз сразу поймёт, что здесь перечислены номера токенов какой-то языковой модели. Но какой? Опытным путём удаётся установить, что это токенизатор GPT-4o, на данный момент самой популярной модели OpenAI. Номеру 64659 соответствует слово listen, 123310 — .ai, 75584 — /p и так далее. (Вернее сказать, что словам соответствуют токены. Обычно онлайн-инструменты предлагают оценить число токенов для кодирования текста, и найти инструмент для обратного преобразования — та ещё морока).

В результате получается полный УРЛ. По ссылке https://listenlabs.ai/puzzle стоит редирект на berghain.challenges.listenlabs.ai. На этой странице перечисляются правила игры Berghain Challenge: предлагают разработать алгоритм фейс-контроля, где с минимальным числом отказов нужно набрать зал из 1000 человек при множестве долевых ограничений («не менее 40 % берлинцев», «не менее 80% в чёрном» и так далее). Посетители приходят по одному, решение нужно принимать сразу, поток с известными частотами и корреляциями. Сценариев игры три. Людей придёт 20 тысяч, и если зал не набран — проигрыш.

Кроме условий и формы для регистрации для участия в челлендже на странице ведётся таблица со счётом. Как видно, уже больше тысячи человек попытались решить задачу. В таблице также указан результат модели ChatGPT-5 Pro, и лишь двое человек превзошли решение этой языковой модели.

Челлендж работает до 6 утра 15 сентября по часовому поясу Лос-Анджелеса. Победителя на самолёте отправят в Berghain, где подвергнут собеседованию в стартап Listen Labs. Формулировка непонятная — это будет билет в одноимённый берлинский ночной клуб, известный своим строжайшим фейс-контролем, или просто указание на пропуск нескольких раундов собесов? Впрочем, как поясняет сооснователь Listen Labs, это действительно будет вылет в Берлин.

Кстати, тема игры соответствует деятельности стартапа: в нём разрабатывают ИИ-модератора для качественных исследований, то есть бота, который сам проводит интервью с пользователями и суммирует инсайты.

На самом деле искать инженеров для найма таким способом — идея не новая. В комментариях к твиту вспомнили похожий билборд Google, доменное имя которого состояло из первого простого числа из 10 цифр, встречающихся в бесконечной последовательности после запятой у числа e. Это было давно, в 2004 году, когда компания была куда меньше. Другой микроблогер замечает, что эти соревнования не только работают как критерий отбора, но и отлично привлекают соискателей особого склада ума.

Теги:
Всего голосов 6: ↑6 и ↓0+12
Комментарии0
1
23 ...

Вклад авторов