Ну, справедливости ради стоит отметить, что были какие-то подвижки в направлении, например, полифазных снов. Некоторые утверждают, что это даже работает.
Годится только для последовательностей вида Ak = f(Ak-1, ..., Ak-N), где f – какая-то «комбинирующая функция». Но последовательности могут быть и такие, что k-ый член определяется, например, с помощью k/2, k/3 и т.д.
Если взять совсем любую рекурсивную функцию вроде mergesort'а, то, кажется мне, никаким конечным N тут не обойтись.
Как предлагаете проверять код на «понятность»? Если я открою его в своей любимой IDE, нажму Auto format, а потом назначу каждой переменной случайное слово из словаря длиною в 5 букв, он станет понятным? Предложите решение, которое масштабировалось бы на несколько тысяч участников.
сами позвонили, сами пригласили. Так ведь не бывает
А вы думаете, рекрутеры гугла целыми днями кипы присланных резюме пересматривают, а настоящие специалисты спят и видят себя в корпорации добра, каждый месяц отправляя очередной вариант cv?
Нет, рекрутеры гугла прочесывают релевантные ресурсы (linkedin, например) в поисках интересных кадров. Даже выпускающимся студентам (сами) пишут.
Как-то не заметил в прошлый раз, но почему вы называете эти лекции «Лекциями от Яндекса»? Наталья Сергеевна являлась (про настоящее время ничего утверждать не могу) сотрудником HP Labs. Да, Яндекс вложился в Computer Science Center, за что ему огромное спасибо, но данный курс был прочитан в Computer Science Club'е и был доступен всем желающим. Не очень очевидно, в чём заслуга Яндекса в его существовании.
А ещё вопрос: какие сечения надо рассматривать? Мы неявно исходим из предположения, что наша трёхмерная реальность является линейным подпространством объемлещего пространства, как линия является подпространством плоскости или плоскость является подпространством 3D. Однако, поверхность трёхмерной сферы тоже двумерна и может быть тем самым миром, где мы живём.
Особенно интересно это выглядит в контексте расширения вселенной. Она, как известно, расширяется в каждой точке пространства, прямо как поверхность надуваемого воздушного шара. Так может, мы живём на поверхности k-мерной сферы (k > 3)?
Никогда раньше не понимал, почему в статьях Ализара пишут «Ализар такой Ализар», но теперь понял.
В этой статье мы показываем каскадный многосеточный алгоритм для быстрого вычисления вектора Фидлера для графика лапласианы, а именно, собственный вектор, соответствующий второму наименьшему собственному вектору
Кто такая лапласиана, и что за график у неё? В оригинале говорится про graph Laplacian, являющейся матрицей специального вида для графа, т.е. его логичнее было бы назвать, как минимум, Лапласианом графа, а ещё лучше — Матрицей Кирхгофа.
Ну и на векторах нельзя задать отношение порядка, поэтому выражение «второй наименький собственный вектор» не имеет смысла. В оригинале же речь идёт о собственном числе.
Поэтому было бы интересно взглянуть на такое исследование, проведённое с кросскультурной выборкой, в которой бы в равной степени присутствовали люди, выросшие в среде какого-либо не-английского языка.
И да, картинку нужно сначала классифицировать, и потом строить корреляции — там я упомянул, что с этим и возникла проблема — если без классификации, то и получиться брутфорсовский вариант — найти все возможное.
Ну загрузите в свою программу сперва обучающую выборку, в чём проблема?
А всякие методы оптимизации поиска предлагают альтернативные последовательности перебора, где в первую очередь перебираются те, где больше вероятности найти нужное
И где хоть какое-нибудь обоснование «быстроты» этого перебора хотя бы в среднем (минус выбросы / медианном) случае?
они проглядели свойство, что так можно с ней разговаривать
Серьёзно? Вы фильмы смотрите? Я не знаю ни одного фильма, где с ИИ бы не разговаривали. Я уже не говорю про всевозможных ассистентов вроде Сири, Кортаны и пр. Или Вы думаете, что все учёные мужи до единого просто сидят взаперти уже 60 лет, потирают лбы и сосредоточенно смотрят на формулы?
Хм, а у меня были другие ощущения: первый эпизод я прошёл часа за 4 (от начала до конца), да и Valve сами признавали, что да, коротко как-то получилось. А вот вторая часть уже, кажется, дольше игралась.
Недосказанность огорчает, да. Может Valve, там, книжку выпустить или на фильм права продать (Хотя, кажется, приличных фильмов по играм история не знает)…
Второе утверждение требует банальной вычислимости «чего угодно», а, перефразируя Матроскина, у нас теоремы о неразрешимости есть. Более того, даже если алгоритм и существует, Вам его никогда не найти, т.к., очевидно, существует бесконечное количество алгоритмов, выдающих на любой конечном множестве входов любой (конечный, как следствие) набор выходов. Разумно утверждать, что искомый алгоритм будет обладать минимальной длиной программы, его вычисляющей, в каком-нибудь ЯП, но это тоже неразрешимая задача, и не надейтесь.
Да и что там неразрешимые задачи, уже пара NP-сложных задач сведёт Вашу систему на нет, на сколько машин Вы её не распараллеливайте. Ибо насчёт пары лет на вычисление это Вы сильно размечтались, реалистичные цифры будут примерно такими: 5.3 * 10285 лет (время факторизации 1024-битного числа перебором, тоже NP сложная задача). Даже если Вы сможете запустить параллельные вычисления на каждой частице во Вселенной (которых всего 1080), это ничем не поможет.
Задача классификации, это не задача прогнозирования.
Чем задача прогнозирования метки для изображения не классификация? Вы в своей статье говорили, что можно загрузить в программу данные, произнести заклинание «Прогнозируй!» и машина выдаст ответ. Почему если до этого в неё загрузить обучающую выборку в предложенном Вами же формате "[биты картинки] — [число на ней изображенное]", это не будет классификацией?
Позвольте нескромный вопрос: а в каком объёме Вы знакомы с Теорией Сложности, Машинным Обучением, Искуственным Интеллектом, Теорией Статистического Обучения? Что такого инновационного Вы предлагаете, что ещё не было опробовано другими?
Код есть? Можете хотя бы Ирисы Фишера классифицировать?
У вас там лишь вода и философия. Более того, логические парадоксы подсказывают нам, что на естественном языке можно выразить такие вещи, о которых и рассуждать строго-то нельзя. Так что априори не верю ни единому слову, покуда оно не подкреплено каким-нибудь более формальным аргументом.
Если взять совсем любую рекурсивную функцию вроде mergesort'а, то, кажется мне, никаким конечным N тут не обойтись.
Нет, рекрутеры гугла прочесывают релевантные ресурсы (linkedin, например) в поисках интересных кадров. Даже выпускающимся студентам (сами) пишут.
Мне казалось, что приличные камеры «ускоряются», когда в кадре появляется какое-то движение.
Особенно интересно это выглядит в контексте расширения вселенной. Она, как известно, расширяется в каждой точке пространства, прямо как поверхность надуваемого воздушного шара. Так может, мы живём на поверхности k-мерной сферы (k > 3)?
Кто такая лапласиана, и что за график у неё? В оригинале говорится про graph Laplacian, являющейся матрицей специального вида для графа, т.е. его логичнее было бы назвать, как минимум, Лапласианом графа, а ещё лучше — Матрицей Кирхгофа.
Ну и на векторах нельзя задать отношение порядка, поэтому выражение «второй наименький собственный вектор» не имеет смысла. В оригинале же речь идёт о собственном числе.
И где хоть какое-нибудь обоснование «быстроты» этого перебора хотя бы в среднем (минус выбросы / медианном) случае?
Серьёзно? Вы фильмы смотрите? Я не знаю ни одного фильма, где с ИИ бы не разговаривали. Я уже не говорю про всевозможных ассистентов вроде Сири, Кортаны и пр. Или Вы думаете, что все учёные мужи до единого просто сидят взаперти уже 60 лет, потирают лбы и сосредоточенно смотрят на формулы?
Недосказанность огорчает, да. Может Valve, там, книжку выпустить или на фильм права продать (Хотя, кажется, приличных фильмов по играм история не знает)…
Да и что там неразрешимые задачи, уже пара NP-сложных задач сведёт Вашу систему на нет, на сколько машин Вы её не распараллеливайте. Ибо насчёт пары лет на вычисление это Вы сильно размечтались, реалистичные цифры будут примерно такими: 5.3 * 10285 лет (время факторизации 1024-битного числа перебором, тоже NP сложная задача). Даже если Вы сможете запустить параллельные вычисления на каждой частице во Вселенной (которых всего 1080), это ничем не поможет.
Чем задача прогнозирования метки для изображения не классификация? Вы в своей статье говорили, что можно загрузить в программу данные, произнести
заклинание«Прогнозируй!» и машина выдаст ответ. Почему если до этого в неё загрузить обучающую выборку в предложенном Вами же формате "[биты картинки] — [число на ней изображенное]", это не будет классификацией?Позвольте нескромный вопрос: а в каком объёме Вы знакомы с Теорией Сложности, Машинным Обучением, Искуственным Интеллектом, Теорией Статистического Обучения? Что такого инновационного Вы предлагаете, что ещё не было опробовано другими?
У вас там лишь вода и философия. Более того, логические парадоксы подсказывают нам, что на естественном языке можно выразить такие вещи, о которых и рассуждать строго-то нельзя. Так что априори не верю ни единому слову, покуда оно не подкреплено каким-нибудь более формальным аргументом.