Pull to refresh
95
0
Send message

Спасибо ) Очень приятно что статью читают, хотя прошло уже больше трех лет )

Спасибо, я ориентировался на русскую версию, а там описано ровно наоборот:
Идея о квантовых вычислениях была высказана Юрием Маниным в 1980 году[3].

Одна из первых моделей квантового компьютера была предложена[4] Ричардом Фейнманом в 1981 году. Вскоре Пол Бениофф описал теоретические основы построения такого компьютера[5].

Не готов спорить какой вариант более верный, но еще раз спасибо за уточнение.
Наколько я понял, Google сначала провел несколько итераций с меньшим количеством кубитов (до ~50), проэмулировал схему на своих кластерах, провел статистические тесты — и убедился, что сэмулированное распределение совпадает с полученным от КК.

Потом они запустили схему на 53-х кубитном КК, получили результат и сказали — «кто хочет — проверяйте».

Вот тут, в ответе B6, Ааронсон раскрывает этот метод более подробно. В оригинальной статье это параграф "The classical computational cost".

Эксперты — поправьте, если где ошибся.
Спасибо. По поводу картинки — ну это и есть сам виновник торжества — квантовый компьютер. Вот тут можно посмотреть и почитать поподробнее. Насколько я понимаю, мы видим каскадные охладители, а чуть ниже (на КДПВ не влезло) расположена капсула с собственно процессором.

From top to bottom, the system gradually cools from four Kelvin — liquid-helium temperatures — to 800 milliKelvin, 100 milliKelvin and, finally, 10 milliKelvin. Inside the canister, that's 10 thousandths of a degree above absolute zero. The wires, meanwhile, carry RF-frequency signals down to the chip.


Могу в чем-то ошибаться, физическое устройство (и современные реализации) квантовых установок глубоко не прорабатывал.
Спасибо. Именно такого результата и планировалось достичь. Рад, если мне это все-таки удалось )
Спасибо. А можно ссылки на эти результаты? Мне они не попадались, к сожалению.
UPD: Увидел от Shkaff выше, ушел читать…
Согласен, не всегда. Но в данном контексте речь шла про регрессию к среднему («после получения экстраординарных результатов возрастает вероятность результата, более близкого к статистическому среднему»)
Мне сложно ответить насчет недостатков, но, наверное, занудство )
Спасибо, обязательно почитаю.
Да, Вы правы, неоднозначно смотрится, исправлю. В данном случае подразумевается «лучше». Еще раз повторюсь — это личное мнение, сформировавшееся из личного опыта.
В каждом соревновании на главной странице есть вкладка «Rules», в которой описаны правила данного соревнования. Очень рекомендую внимательно прочитать прежде чем начинать что-то делать. Там указываются ограничения на количество сабмитов в день, размер команд, и прочее. Но два основных правила (за которые в основном и банят) кочуют из соревнования в соревнование:

  • One account per participant (You cannot sign up to Kaggle from multiple accounts and therefore you cannot submit from multiple accounts.)
  • No private sharing outside teams (Privately sharing code or data outside of teams is not permitted. It's okay to share code if made available to all participants on the forums.)
Оценить грамотность (и применимость) валидации как раз самое сложное. Базовый подход — валидация считается нормальной, если скор на валидации и на паблике синхронизирован, то есть улучшается CV -> улучшается LB, и наоборот. Если, как в случае с GA соревнованием, CV растет, а LB падает, то вступает в действие правило «Trust your CV!».

Не принимался еще за GA, но, в целом, такое может происходить, например, если трейн и тест получены из разных распределений (условно). То есть того сигнала, который выучила модель на трейне — в тесте просто нет. Как бороться — простейший вариант попробовать другие схемы валидации, по времени, по различным группам, и т.д. Более сложный — это т.н. adversarial validation, когда мы сначала строим модель, чтобы отличить трейн от теста, а потом используем в качестве валидационного сета тот кусок трейна, который наиболее похож на тест.

Конкретно по GA, навскидку нашел вот такие обсуждения на форуме как раз про валидацию:

www.kaggle.com/c/ga-customer-revenue-prediction/discussion/66270
www.kaggle.com/c/ga-customer-revenue-prediction/discussion/66811
www.kaggle.com/c/ga-customer-revenue-prediction/discussion/67645
1. Не совсем так, но в целом — да. Отличие в том, что каждое соревнование на kaggle в своей основе содержит какую-то реальную бизнес-задачу (тут перекличка с Вашим вторым вопросом) и, решая соревнование, помимо прокачки базовых скиллов, вы еще получаете представление как и какими подходами решаются бизнес-задачи такого класса. Олимпиады же, насколько я помню, содержат безусловно красивые, но оторванные от жизни задачи. Поправьте, если ошибаюсь.

2. Хороший вопрос. Этим вопросом задаются практически на каждом втором соревновании, особенно если выбранная организаторами метрика, скажем так, не совсем релевантна бизнес цели. На мой взгляд, организаторы, создавая соревнование, берут какую-то свою реальную задачу и ставят перед собой следующие цели:

* получить свежий взгляд от коммьюнити на методы и подходы к решению действительно важной для них задачи.
* PR компании
* хантинг

К сожалению, у меня нет данных насколько топ решения потом внедряются в продакшен, может коллеги в комментариях подскажут.
Про k-fold кросс-валидацию:

В целом — она позволяет оценить точность модели на новых данных, используя всю тренировочную выборку.
Для трейна — позволяет получить OOF предсказание, которое можно дальше использовать при построении ансамбля.
Для теста — позволяет получить более устойчивое предсказание усреднением предсказаний k моделей.

Стоит отметить, что для получения предсказаний для теста есть несколько подходов, один описан выше, второй — когда кросс-валидацией мы только подбираем гиперпараметры модели, а потом обучаем отдельную модель с подобранными параметрами на всем трейне — и делаем один предикт для теста.

Как первый, так и второй подход могут привести к переобучению (почитайте статью Данилы Савенкова), поэтому стоит сначала проверить качество на отложенной выборке.

Если вкратце, то как-то так.
Копипаста из профиля в слаке. Вы правы, некрасиво смотрится, исправлю. Спасибо за замечание.

Information

Rating
Does not participate
Works in
Registered
Activity