All streams
Search
Write a publication
Pull to refresh
27
0
Liubomyr Horbatko @Flokis_guy

User

Send message

Как бы и да и нет, суть в том что Ван Гог это продукт эволюции как и мы с вами, а так же обучения через окружающую среду и некоторых случайных процессов. И только совокупность этих всех факторов приводит к созданию картины. То есть понятно, что ни одна нейросеть сейчас не ИИ, хотя некоторые из них попадают под мутное описание на Википедии, но это уже вопрос к их модерации, хотя в теоретическом плане если воссоздать многие процессы человека используя компьютеры мы можем получить ИИ (но тут уже парадокс Моравека). Поэтому говорить "фу, оно не может создать новое, а копирует старое и чутка изменяет", человек то же это делает, но куда сложнее.

Но в любом случае "предсказание" в статье крайне мутное, закон мура с предсказаниями яркое тому доказательство.

Сами по себе нейросети, а в будущем потенциально ИИ вполне можно сравнить с открытием и созданием парового двигателя, он так же начинался с самого простого, был не особо популярен, развивался на протяжении века, а потом опять два лагеря — те кто видел угрозу и те кто видел будущее. И это подарило дальше нам атом, полеты в космос, потом и интернет, ну, а теперь эпоха ИИ плавно движется к нам. И опять же, без всего предыдущего не было бы успеха у ИИ, а у всего предыдущего без его предыдущего. Нужно признать, что мы находимся в начале новой эпохи.

Хоть по KNN и много статей, но перечисление различных подходов к построению модели это хорошо. Я бы добавил ещё про Kernel KNN, да, он проигрывает по скорости классическому алгоритму, и на больших данных он не так эффективен из-за расходов, но на маленьких и для большей точности как раз подойдёт.

Вполне может быть, он же ищет сходство, но нужно будет учитывать что он не работает с матричными операциями, и по сравнению с моментальным скалярным умножением он занимает некоторое время, тут вопрос будет обстоять насколько он может улучшить точность в сравнении с потраченным временем, тут только тесты покажут. Но идея интересная.

Способ получения мнимых компонент не сильно отражается на общем анализе, в любом случае алгорим успешно определит схожие и различые вектора, при чем, чувствуя различные детали из-за фазовой синхронизации.

Если получать мнимые компоненты последовательно к примеру, то на практике в основном различия есть в масштабе, при синтетическом наблюдается различия между каждым кластером компонент, и это тоже нормально, так как банально меняя гиперпараметры вейвлет-преобразования мы получаем внутри кластера то же другие результаты.

Вот как выглядят при последовательном выборе мнимых компонент на практическом тесте, как в статье:

[0.030232085679003352, 0.015492751507748755, 0.06165048558091049, 0.28410146245018314, 0.07920580892911805, 0.3291238288004444, 0.012666878254538197, 0.491305267183525, 0.012538072309331747, 0.296305247221098]

Побеждают те же в порядке убывания: 7, 5, 9, 3, 4, 2, 0, 1, 6, 8.

Насчет кватернионов, возникает проблема понятие фазы, так как мы имеет дело с одномерным сигналом, поскольку традиционное понятие фазы, используемое в коэфициенте фазовой синхронизации, применимо к сигналам, представленным комплексными числами, отражающими одномерные колебания.

Спасибо, да, рассотяние Минковского то же довольно хорошая метрика, хотя как я наблюдаю не особо ее любят, все больше привычные как косинусное или эвклидову, даже Манхэттенское не так часто встретишь.

Насчет сигнала все не так однозначно, если мы возьмем статью из Википедии в разделе "Definitions" то становится понятно, что эмбеддинги не являются сигналами в классическом смысле (как временное изменение физических величин), но они могут быть интерпретированы как сигналы в более широком смысле слова — как представления информации, способные нести и передавать смысловое содержание. Таким образом, применение методов анализа сигналов, включая вейвлет-преобразования, к эмбеддингам может быть оправдано в контексте извлечения, обработки и анализа закодированной в них информации. Так что это не просто "набор чисел".

По поводу выгоды, я показал, что главная выгода это очень сильная реакция на разную синхронизацию сигналов по сравнению с косинусным сходством, что позволяет тонко различать семантические свойства. Что касается интерпретируемости, мы сталкиваемся с нелинейным алгоритмом, который, конечно, сложнее интерпретировать.

А если не секрет, то когда можно ожидать код на гитхабе?

12 ...
7

Information

Rating
4,875-th
Registered
Activity

Specialization

ML Engineer
Python
English
Maths
Pytorch
Deep Learning