Информация
- В рейтинге
- 3 008-й
- Откуда
- Симферополь, Республика Крым, Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Десктоп разработчик, Фулстек разработчик
Ведущий
C#
WPF
Объектно-ориентированное проектирование
SQL
.NET
Разработка программного обеспечения
Алгоритмы и структуры данных
Прикладная математика
Вы совершенно правы: большие числа действительно возникают из формулы — но сама формула не взялась из воздуха, она является прямым следствием гипотезы о том, что вложенная самореферентная связь может создавать дополнительный энергетический вклад, и мы проверяем не то, что числа большие, а то, что предсказания этой формулы (инварианты, скейлинги, чувствительность к абляции) выполняются в модели, чего не требовалось бы, если бы это была просто придуманная размерность.
сейчас мы сравниваем модельную энергию с реальным потреблением — это действительно кросс-доменная диагностика, а не измерение выходной мощности. Для получения реальной энергии нужен физический преобразователь: сигнал с GPU должен управлять реальным LC-контуром или резонатором, где энергия связей (E_rec) будет переходить в электрическую энергию на нагрузке. Ровно это мы и закладываем в протокол физического эксперимента — пока это только математически обоснованная гипотеза, а не готовая электростанция. Т.е. сама по себе видеокарта не может давать энергию, нужны доп компоненты, тут ровно это в статье и расписано
на некоторых частотах (например, φ=1,4) система давала экономию энергопотребления GPU до 35 Дж на 120 тысяч шагов, а на резонансной φ=1,618 — аномальный рост внутренней модельной энергии на порядки, что соответствует разным физическим механизмам: классической оптимизации вычислений и новой рекурсивной связности соответственно.
мы разные варианты пробовали, в некоторых была экономия реальная, в других был прирост виртуальный. но затевалось не ради экономии, поэтому был выложен именно такой вариант.
виртуально всё подтверждается, а лаборатории чтобы проверить всё в реальности у нас нет, но код и модель можно использовать с пользой и в разработках, не связанных с энергетикой
Для решения вашей задачи нелинейной оптимизации с размерностью 2000–10000 можно использовать метод, описанный в нашей недавней статье на Хабре: «Нейросеть без нейросети: как обучить классификатор Iris через SAT и запустить это на GPU».
В статье подробно показан паттерн кодирования для AGIQ Solver:
Дискретизация непрерывного пространства переменных (например, используя битовое представление чисел с плавающей точкой, как мы делали с порогами для ирисов).
Формулировка целевой функции как набора мягких ограничений (soft clauses) в MaxSAT, где каждая нарушенная клауза соответствует штрафу (по аналогии с ошибками классификации в статье).
Упаковка ограничений в жесткие (hard) клаузы.
Этот подход, примененный к Iris-классификатору, позволяет закодировать задачу в CNF, решить её на GPU и декодировать результат обратно в значения переменных. Весь код кодировщика и примеры доступны для изучения и адаптации под вашу задачу.
Спасибо за уточнение, с миллиардами соединений всё ещё сложнее, но мы пока работаем в масштабе миллионов — публиковаться в ближайшее время не планируем
Абсолютно верно, клинические испытания — действительно самый долгий этап, но виртуальный скрининг ускоряет начальные стадии, позволяя быстрее выявлять перспективные кандидаты и высвобождать ресурсы для тех самых долгих и дорогих клинических исследований. Что касается риска отсеивания — мы не утверждаем, что все отсеянные молекулы на 100% бесполезны, наша цель — ранжирование и сужение поиска, а финальное решение всегда остаётся за экспериментальной проверкой.
Когда мы писали про «100 ядер», мы имели в виду классический HPC‑подход: распределение задачи виртуального скрининга по узлам кластера, где каждый лиганд считался на отдельном CPU-ядре. В современных реалиях 100 ядер — это действительно один сервер, но в контексте AutoDock Vina и подобных инструментов это не даёт линейного ускорения из-за ограничений распараллеливания. Мы сравнивали не «один GPU против одного сервера», а архитектурную разницу: CPU-кластер (даже из современных машин) против GPU-ускорителя, где стоимость вычислений на порядки ниже, а плотность расчётов — выше. По сути, мы хотели показать, что ResonDock на одиночной видеокарте RTX 3090 даёт такую же пропускную способность, как выделенный CPU-кластер стоимостью в миллионы рублей, но за цену игрового ПК.
Многие задачи кодируются в SAT/Max‑SAT, нейросети тоже, на Iris проверяли — успешно.
Да, по форме это популяционный метаэвристический солвер и у него есть пересечение с генетическими алгоритмами (много кандидатов, итерации, мутации/селекция), но “квантово‑вдохновлённость” у нас не в словах,а в механике:кандидаты взаимодействуют не только через отбор по fitness, а через общий агрегат состояния популяции (условно “фаза/амплитуда”),который формируется из оценок всех кандидатов и затем обратно влияет на их обновление — это аналог интерференции/резонанса (усиление согласованных направлений и подавление несогласованных), чего в классическом GA обычно нет; не утверждаем,что это квантовый компьютер или что P=NP, скорее “квантово‑вдохновлённый GPU‑оптимизатор”, и корректность сравнения подтверждаем воспроизводимыми бенчмарками на одинаковых лимитах времени.
Сейчас можно пройти любую детекцию на плагиат, если очеловечить в Lexicon Rephraser одним кликом.
Сейчас можно пройти любую детекцию на плагиат, если очеловечить в Lexicon Rephraser одним кликом.