Pull to refresh
13
2
Liubomyr Horbatko @Flokis_guy

User

Send message

В каких-то простых и бредовых гипотетических сценариях ответить на этот вопрос не составит труда, так сказать вспоминаем мем про мужей. К тому же ряд подобных вопросов покажет обобщающую способность кандидата к предметной области.

Давай рассмотрим от обратного: если всё так просто, то почему мы ещё не создали ИИ? Может, в будущем и будут думать по-другому, но на данном этапе развития это для нас не просто. Хочу также заметить, что мозг человека по своему функционалу является уникальной вещью в биосфере.

Стоит учитывать, что мозг также подвержен случайным процессам на физическом уровне, что влияет на наш разум. Окружающая среда находится в состоянии случайности и неопределённости для нашего мозга до обработки, но после он её обрабатывает так, чтобы на выходе получить логический вывод, исходя из опыта и прочего. Только исходя из некоторых этих аспектов, можно заключить, что всё не так уж и просто: как минимум, симуляция различных аспектов есть программно, но вот собрать всё в одно и чтобы оно работало – на данный момент задача не из тривиальных.

Человек обучается за всю жизнь меньшим количеством текстовой информации, и в том числе иногда недостаточно качественной, и это все равно ему не мешает уделывать LLM практически во всем. Так что вся статистика и разговоры по поводу недостатка информации говорит о том, что как и всегда рубить деньги сейчас намного важнее чем интенсивнее исследовать область.

И сейчас мульти-модальность это ещё один маленький шаг к тому что можно назвать ИИ, и в ближайшее время ИИ не пахнет.

Вы очень верно подметили, что человек обучается на объемах данных, которые на порядок меньше, нежели нужны для текущих поколений ИИ.

Тогда зачем хомячить и повторять за маркетологами слова от которых нужно отнять 100, поделить на 1000 и умножить на 0, потому что вы явно заявляете в статье, что нужно больше инфы для моделей.

И вы уже с первого абзаца начинаете подтверждать мои слова вот этой фразой: "И все чаще от разных компаний мы слышим про сильный ИИ. Но что это и стоит ли ждать его создания в ближайшее время?"

Суть в том, что вы около "научно" рассуждаете об крайне спорных маркетинговых заявлениях, поэтому тут и есть недовольство в комментариях.

Ну я так и не услышал ответ на это: "непонятно почему автор сравнивает человеческий мозг и несовершенные LLM модели которые с ним схожи только некоторыми концепциями, и на основе этого делает какие-то выводы в будущем"

Согласен насчет "совы на глобус", непонятно почему автор сравнивает человеческий мозг и несовершенные LLM модели которые с ним схожи только некоторыми концепциями, и на основе этого делает какие-то выводы в будущем. Так же не понял что такое "сильный ИИ" и "слабый ИИ". Непонятно почему автор говорит в стиле что "АААА, нам нужно больше данных для обучения" (как и огромное кол-во людей), но вот в чем дилемма, в основном человек за всю жизнь обучается на меньшем количестве разнообразной текстовой инфы чем chatgpt тот же, и не всегда качественной в том числе, так может дело не только в количестве и качестве этой инфы?

Но самое забавное, что даже на Википедии описание ИИ ну немного мутное. Это как говорить, что число е это константа приблизительно равна 2,71, как бы верно, но не проясняет детали. Но оно проясняет то, что на данном этапе нашего развития мы не способны корректно провести черту после которой можно что-то назвать ИИ, ну правда маркетологов это не касается :)

Не стоит так нервничать из-за своего, вполне обоснованного выбора. Меня всегда забавляет, когда люди начинают обсуждать "какой язык самый лучший". И я даже больше скажу, когда ты только начинаешь что-то выбирать без нужной начальной информации, ты действуешь довольно-таки рандомно. Мозг пытается использовать какую-то знакомую информацию: "Вот, я слышал про Python, там авторитетный, по моему мнению, ютубер тоже так говорил", и понеслось. В итоге корректировать свой выбор нужно не исходя из по большей части крайне субъективных споров, а из потребностей и прочих факторов.

Немного вырвалось, но тебе вообще успеха и удачи)

Я не знаю откуда вы взяли что будет обязательно перенаселение, потенциально человечество может стать "жадной цивилизацией" и не быть ограничено только землей. Во вторых, если все будут рожать только одного ребенка в каждом из поколений, то все ограничивается геометрической прогрессией, к примеру если изначально 100 человек, то сумма не будет превышать 200. Да, это все обобщенно и мир не так строго работает, но увы, я не считаю что из-за этого не стоит развивать технологии.

Здравствуйте, спасибо, исправил момент с z, хотя я предполагал что это должно послужить для определения и различия в общем виде и тем что мы подставляем. По поводу линейного ядра я ссылаюсь на Википедию, в контексте этой статьи нас не интересовали многие другие линейные операторы, а так же отрицательно определенные ядра, сам косинус не подходит под эти условия, возможно вы имели ввиду это ядро, но многие из ядер я оставил на 2 часть, и так же понятное дело упущено множество математических аспектов, но это статья не про функциональный анализ и теорию операторов. По поводу "inner dot product", возможно вы правы и немного вышло сумбурно, постараюсь в следующей части избежать такого.

Да, многие алгоритмы машинного обучения справятся с задачей распознавания символов, включая двойные буквы "О". Но позвольте мне прояснить несколько моментов:

Во-первых, метод опорных векторов использует ядерный трюк и является стандартным методом, который часто преподается в курсах по машинному обучению.

Во-вторых, почему надо ограничивать себя определёнными алгоритмами и решениями, только тем, что составили люди в учебной программе? Обобщать информацию, понимать её более интуитивно — это и есть часть успешного обучения. Важно уметь применять знания в различных контекстах и адаптироваться к новым задачам. Это одна из целей статьи. К тому же, судя по фразе — "вам по хорошему неплохо бы разобраться дает ли фильтрация ядрами какое- либо преимущество" показывает что вы не особо знакомы с тем как работает машинное обучение, что нет абсолютно "лучшего" и "худшего", допустим даже если в вашей задаче он и не даст "преимущество", кто сказал что он не нужен, статья не нужна и прочее.

В-третьих, смею предположить, что триггером для написания столь гневного комментария стало первое предложение в статье :), и вы просто не дочитали до пункта "Обобщаем информацию" и саму статью не прочли до конца, иначе не возникло бы таких вопросов.

В-четвёртых, почему в статье про теорию с упрощённой математикой для более низкого порога входа и более интуитивного понимания обязан быть код на Python? Эта статья про математику и теорию, и в последнем абзаце я упоминаю, что практическая часть с примерами кода будет в будущем во 2 части. Это тоже доказывает, что вы не дочитали до конца.

Ну и вообще, я так и не понял, почему возникли сомнения в том, что статью написал я. На основании чего сделан этот вывод?

Привет! Хочу прояснить, что эту статью написал я сам. Да, я использовал некоторые англоязычные источники в некоторых частях статьи, которые указаны в разделе "Дополнительные источники". Эти материалы помогли мне структурировать свои мысли и предоставить более точную информацию.

Статья очень качественная как всегда, но хотелось бы видеть ещё про Lion от Google Brain который использует генетические алгоритмы, ибо по их исследованию он значительно лучше чем Adam(W).

Как бы и да и нет, суть в том что Ван Гог это продукт эволюции как и мы с вами, а так же обучения через окружающую среду и некоторых случайных процессов. И только совокупность этих всех факторов приводит к созданию картины. То есть понятно, что ни одна нейросеть сейчас не ИИ, хотя некоторые из них попадают под мутное описание на Википедии, но это уже вопрос к их модерации, хотя в теоретическом плане если воссоздать многие процессы человека используя компьютеры мы можем получить ИИ (но тут уже парадокс Моравека). Поэтому говорить "фу, оно не может создать новое, а копирует старое и чутка изменяет", человек то же это делает, но куда сложнее.

Но в любом случае "предсказание" в статье крайне мутное, закон мура с предсказаниями яркое тому доказательство.

Сами по себе нейросети, а в будущем потенциально ИИ вполне можно сравнить с открытием и созданием парового двигателя, он так же начинался с самого простого, был не особо популярен, развивался на протяжении века, а потом опять два лагеря — те кто видел угрозу и те кто видел будущее. И это подарило дальше нам атом, полеты в космос, потом и интернет, ну, а теперь эпоха ИИ плавно движется к нам. И опять же, без всего предыдущего не было бы успеха у ИИ, а у всего предыдущего без его предыдущего. Нужно признать, что мы находимся в начале новой эпохи.

Хоть по KNN и много статей, но перечисление различных подходов к построению модели это хорошо. Я бы добавил ещё про Kernel KNN, да, он проигрывает по скорости классическому алгоритму, и на больших данных он не так эффективен из-за расходов, но на маленьких и для большей точности как раз подойдёт.

Вполне может быть, он же ищет сходство, но нужно будет учитывать что он не работает с матричными операциями, и по сравнению с моментальным скалярным умножением он занимает некоторое время, тут вопрос будет обстоять насколько он может улучшить точность в сравнении с потраченным временем, тут только тесты покажут. Но идея интересная.

Способ получения мнимых компонент не сильно отражается на общем анализе, в любом случае алгорим успешно определит схожие и различые вектора, при чем, чувствуя различные детали из-за фазовой синхронизации.

Если получать мнимые компоненты последовательно к примеру, то на практике в основном различия есть в масштабе, при синтетическом наблюдается различия между каждым кластером компонент, и это тоже нормально, так как банально меняя гиперпараметры вейвлет-преобразования мы получаем внутри кластера то же другие результаты.

Вот как выглядят при последовательном выборе мнимых компонент на практическом тесте, как в статье:

[0.030232085679003352, 0.015492751507748755, 0.06165048558091049, 0.28410146245018314, 0.07920580892911805, 0.3291238288004444, 0.012666878254538197, 0.491305267183525, 0.012538072309331747, 0.296305247221098]

Побеждают те же в порядке убывания: 7, 5, 9, 3, 4, 2, 0, 1, 6, 8.

Насчет кватернионов, возникает проблема понятие фазы, так как мы имеет дело с одномерным сигналом, поскольку традиционное понятие фазы, используемое в коэфициенте фазовой синхронизации, применимо к сигналам, представленным комплексными числами, отражающими одномерные колебания.

Спасибо, да, рассотяние Минковского то же довольно хорошая метрика, хотя как я наблюдаю не особо ее любят, все больше привычные как косинусное или эвклидову, даже Манхэттенское не так часто встретишь.

1

Information

Rating
1,120-th
Registered
Activity

Specialization

Data Analyst, ML Engineer
Git
Python
English
Maths
Pytorch