Как бы и да и нет, суть в том что Ван Гог это продукт эволюции как и мы с вами, а так же обучения через окружающую среду и некоторых случайных процессов. И только совокупность этих всех факторов приводит к созданию картины. То есть понятно, что ни одна нейросеть сейчас не ИИ, хотя некоторые из них попадают под мутное описание на Википедии, но это уже вопрос к их модерации, хотя в теоретическом плане если воссоздать многие процессы человека используя компьютеры мы можем получить ИИ (но тут уже парадокс Моравека). Поэтому говорить "фу, оно не может создать новое, а копирует старое и чутка изменяет", человек то же это делает, но куда сложнее.
Но в любом случае "предсказание" в статье крайне мутное, закон мура с предсказаниями яркое тому доказательство.
Сами по себе нейросети, а в будущем потенциально ИИ вполне можно сравнить с открытием и созданием парового двигателя, он так же начинался с самого простого, был не особо популярен, развивался на протяжении века, а потом опять два лагеря — те кто видел угрозу и те кто видел будущее. И это подарило дальше нам атом, полеты в космос, потом и интернет, ну, а теперь эпоха ИИ плавно движется к нам. И опять же, без всего предыдущего не было бы успеха у ИИ, а у всего предыдущего без его предыдущего. Нужно признать, что мы находимся в начале новой эпохи.
Хоть по KNN и много статей, но перечисление различных подходов к построению модели это хорошо. Я бы добавил ещё про Kernel KNN, да, он проигрывает по скорости классическому алгоритму, и на больших данных он не так эффективен из-за расходов, но на маленьких и для большей точности как раз подойдёт.
Вполне может быть, он же ищет сходство, но нужно будет учитывать что он не работает с матричными операциями, и по сравнению с моментальным скалярным умножением он занимает некоторое время, тут вопрос будет обстоять насколько он может улучшить точность в сравнении с потраченным временем, тут только тесты покажут. Но идея интересная.
Способ получения мнимых компонент не сильно отражается на общем анализе, в любом случае алгорим успешно определит схожие и различые вектора, при чем, чувствуя различные детали из-за фазовой синхронизации.
Если получать мнимые компоненты последовательно к примеру, то на практике в основном различия есть в масштабе, при синтетическом наблюдается различия между каждым кластером компонент, и это тоже нормально, так как банально меняя гиперпараметры вейвлет-преобразования мы получаем внутри кластера то же другие результаты.
Вот как выглядят при последовательном выборе мнимых компонент на практическом тесте, как в статье:
Побеждают те же в порядке убывания: 7, 5, 9, 3, 4, 2, 0, 1, 6, 8.
Насчет кватернионов, возникает проблема понятие фазы, так как мы имеет дело с одномерным сигналом, поскольку традиционное понятие фазы, используемое в коэфициенте фазовой синхронизации, применимо к сигналам, представленным комплексными числами, отражающими одномерные колебания.
Спасибо, да, рассотяние Минковского то же довольно хорошая метрика, хотя как я наблюдаю не особо ее любят, все больше привычные как косинусное или эвклидову, даже Манхэттенское не так часто встретишь.
Насчет сигнала все не так однозначно, если мы возьмем статью из Википедии в разделе "Definitions" то становится понятно, что эмбеддинги не являются сигналами в классическом смысле (как временное изменение физических величин), но они могут быть интерпретированы как сигналы в более широком смысле слова — как представления информации, способные нести и передавать смысловое содержание. Таким образом, применение методов анализа сигналов, включая вейвлет-преобразования, к эмбеддингам может быть оправдано в контексте извлечения, обработки и анализа закодированной в них информации. Так что это не просто "набор чисел".
По поводу выгоды, я показал, что главная выгода это очень сильная реакция на разную синхронизацию сигналов по сравнению с косинусным сходством, что позволяет тонко различать семантические свойства. Что касается интерпретируемости, мы сталкиваемся с нелинейным алгоритмом, который, конечно, сложнее интерпретировать.
Как бы и да и нет, суть в том что Ван Гог это продукт эволюции как и мы с вами, а так же обучения через окружающую среду и некоторых случайных процессов. И только совокупность этих всех факторов приводит к созданию картины. То есть понятно, что ни одна нейросеть сейчас не ИИ, хотя некоторые из них попадают под мутное описание на Википедии, но это уже вопрос к их модерации, хотя в теоретическом плане если воссоздать многие процессы человека используя компьютеры мы можем получить ИИ (но тут уже парадокс Моравека). Поэтому говорить "фу, оно не может создать новое, а копирует старое и чутка изменяет", человек то же это делает, но куда сложнее.
Но в любом случае "предсказание" в статье крайне мутное, закон мура с предсказаниями яркое тому доказательство.
Сами по себе нейросети, а в будущем потенциально ИИ вполне можно сравнить с открытием и созданием парового двигателя, он так же начинался с самого простого, был не особо популярен, развивался на протяжении века, а потом опять два лагеря — те кто видел угрозу и те кто видел будущее. И это подарило дальше нам атом, полеты в космос, потом и интернет, ну, а теперь эпоха ИИ плавно движется к нам. И опять же, без всего предыдущего не было бы успеха у ИИ, а у всего предыдущего без его предыдущего. Нужно признать, что мы находимся в начале новой эпохи.
Хоть по KNN и много статей, но перечисление различных подходов к построению модели это хорошо. Я бы добавил ещё про Kernel KNN, да, он проигрывает по скорости классическому алгоритму, и на больших данных он не так эффективен из-за расходов, но на маленьких и для большей точности как раз подойдёт.
Вполне может быть, он же ищет сходство, но нужно будет учитывать что он не работает с матричными операциями, и по сравнению с моментальным скалярным умножением он занимает некоторое время, тут вопрос будет обстоять насколько он может улучшить точность в сравнении с потраченным временем, тут только тесты покажут. Но идея интересная.
Способ получения мнимых компонент не сильно отражается на общем анализе, в любом случае алгорим успешно определит схожие и различые вектора, при чем, чувствуя различные детали из-за фазовой синхронизации.
Если получать мнимые компоненты последовательно к примеру, то на практике в основном различия есть в масштабе, при синтетическом наблюдается различия между каждым кластером компонент, и это тоже нормально, так как банально меняя гиперпараметры вейвлет-преобразования мы получаем внутри кластера то же другие результаты.
Вот как выглядят при последовательном выборе мнимых компонент на практическом тесте, как в статье:
Побеждают те же в порядке убывания: 7, 5, 9, 3, 4, 2, 0, 1, 6, 8.
Насчет кватернионов, возникает проблема понятие фазы, так как мы имеет дело с одномерным сигналом, поскольку традиционное понятие фазы, используемое в коэфициенте фазовой синхронизации, применимо к сигналам, представленным комплексными числами, отражающими одномерные колебания.
Спасибо, да, рассотяние Минковского то же довольно хорошая метрика, хотя как я наблюдаю не особо ее любят, все больше привычные как косинусное или эвклидову, даже Манхэттенское не так часто встретишь.
Спасибо)
Спасибо)
Насчет сигнала все не так однозначно, если мы возьмем статью из Википедии в разделе "Definitions" то становится понятно, что эмбеддинги не являются сигналами в классическом смысле (как временное изменение физических величин), но они могут быть интерпретированы как сигналы в более широком смысле слова — как представления информации, способные нести и передавать смысловое содержание. Таким образом, применение методов анализа сигналов, включая вейвлет-преобразования, к эмбеддингам может быть оправдано в контексте извлечения, обработки и анализа закодированной в них информации. Так что это не просто "набор чисел".
По поводу выгоды, я показал, что главная выгода это очень сильная реакция на разную синхронизацию сигналов по сравнению с косинусным сходством, что позволяет тонко различать семантические свойства. Что касается интерпретируемости, мы сталкиваемся с нелинейным алгоритмом, который, конечно, сложнее интерпретировать.
А если не секрет, то когда можно ожидать код на гитхабе?