Как стать автором
Обновить
4
0
Алексей @VDG

Sparse Hash AI

Отправить сообщение

Пожалуй, это одно из самых вредных и коварных убеждений

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров30K

Есть одно убеждение, которое сделало многих людей несчастными, но они даже не подозревают об этом. Эта желание быть хорошим. В отличие от кучи других убеждений, которые не скрывают, что добавляют в жизни проблем, это выглядит белым и пушистым. Если ты «хороший человек», то этим можно гордиться. На самом деле — это повод всерьез забеспокоиться.

Читать далее

Реализация функции потерь Triplet Loss в Python (функция тройных потерь)

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров11K

Большинство из нас думают о машинном обучении как о "черном ящике", который принимает некоторые данные и выдает отличные результаты. В последние годы этот черный ящик работает как имитация человека в соответствующих областях, где он используется, и достигает выдающихся результатов.

Читать далее

Дифференцируемый нейронный компьютер, нейронная машина Тьюринга (подробное изучение)

Уровень сложностиСредний
Время на прочтение7 мин
Количество просмотров4K

Данная статья является аннотацией к монографии "Анализ и визуализация нейронных сетей с внешней памятью" (LSTM, нейронная машина Тьюринга, дифференцируемый нейронный компьютер).

Читать далее

Генетика нормального распределения

Время на прочтение9 мин
Количество просмотров2.8K

Без Фортуны, богини удачи, не обходились ни одно сражение, ни одна экспедиция или начинание, ни одна победа. Боги и люди молили ее быть на их стороне, строили посвященные ей храмы. И проклинали за изменчивость и непостоянство, но продолжали молить. За тысячелетия имена многих богов забылись, немногие остались на страницах фэнтезийных романов и марвеловских комиксов. Но и сегодня не найдется на планете человека, который не просил бы удачу улыбнуться ему. Боги умерли, их заменили наши знания. Богиню плодородия заменили удобрения, Посейдона — прогноз погоды, богиню любви — порноиндустрия. Даже Афина, богиня разума, растворилась в знаниях. Но удаче продолжают молиться все. Живучесть богини объясняется просто, она воплощает один из фундаментальных законов нашей реальности.

В отличии от знаменитого Е=мс2 или закона сохранения энергии, этот закон не так распиарен и странно называется: центральная предельная теорема. А для непосвященных ее определение и вовсе звучит загадочно: сумма многих слабо связанных величин, имеет распределение близкое к нормальному. Тем не менее, это утверждение определяет то, как из прошлого получается будущее в макромире, в мире где мы живем. Более того, оно определяет какими мы будем — высокими или низкими, толстыми или худыми, глупыми или умными.

Читать далее

Механизм автопилота мозга управляет сознанием

Время на прочтение17 мин
Количество просмотров13K
Представления Фрейда о темном, либидном бессознательном устарело. Новая теория утверждает, что мозг производит непрерывный поток бессознательных предсказаний.


Иллюзия треугольника Каницца свидетельствует о том, что восприятие основано на неявных выводах. Зрительная система конструирует воображаемый треугольник как способ “объяснить” расположение окружностей. Источник: Scientific American

Исследования бессознательного показали, что мозг выносит суждения и принимает решения быстро и автоматически. Он постоянно делает прогноз будущих событий.

Согласно теории “предсказательного разума” сознательный опыт возникает только тогда, когда скрытые ожидания мозга не оправдываются.

Высокоуровневая когнитивная обработка в коре головного мозга может происходить без возникновения сознательного опыта. Сознательное внимание направляют области мозга ответственные за эмоции и мотивацию, а не кора головного мозга.
Читать дальше →

Парадокс Соломона. Легко давать советы другим, но не себе

Время на прочтение5 мин
Количество просмотров17K

Как же мы иногда любим раздавать ценные советы, когда нас об этом просят и особенно — когда не просят! При этом сами почему-то с завидным постоянством принимаем неверные решения и попадаем в глупейшие ситуации.

Почему, например, даже образованные разумные люди нередко поддаются на классические схемы очередных мошенников, верят заманчивым рекламным обещаниям, участвуют в сомнительных конкурсах или, скажем, выкатывают непротестированную сборку прямо в прод?

Раз уж мы так любим раздавать ценные советы другим, почему бы этим не воспользоваться? Попробуем представить, что проблема, которую нам нужно решить, не наша собственная, а чья-то ещё.

Читать далее

Infinityformer: новый подход к обработке длинных последовательностей большими языковыми моделями

Уровень сложностиСложный
Время на прочтение4 мин
Количество просмотров2.4K

Трансформеры - это отличные нейросети для работы с текстом, речью, изображениями и другими типами данных, но они сталкиваются с проблемой ограниченной длины контекста, к которому они могут обращаться. Чем длиннее последовательность, тем больше вычислений требуется для того, чтобы трансформер мог учитывать все элементы. Это приводит к тому, что трансформеры не могут эффективно моделировать долгосрочные зависимости и запоминать важную информацию из прошлого. Infinityformer решает эту проблему, используя непрерывный механизм внимания, который позволяет обращаться к прошлому контексту как к непрерывному сигналу, а не как к дискретной последовательности.

В этой статье я максимально хардкорно расскажу о том, как работает Infinityformer.

Читать далее

Выбор слоя активации в нейронных сетях: как правильно выбрать для вашей задачи

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров50K

В машинном обучении и нейронных сетях слои активации играют очень важную роль в процессе обработки данных. В этой статье мы рассмотрим, что такое слои активации, как они работают и как выбрать наиболее подходящий слой для вашей задачи.

Что такое слои активации?

Слои активации - это один из основных типов слоев, которые используются в нейронных сетях. Они представляют собой функцию, которая добавляет нелинейность к выходу предыдущего слоя. Это позволяет нейронной сети лучше моделировать сложные функции и более точно предсказывать результаты.

Как работают слои активации?

Слои активации принимают на вход результаты предыдущего слоя, называемые входом, и преобразуют их в выходное значение, которое передается следующему слою. Для этого они используют функцию активации, которая определяет, каким образом данные будут преобразованы.

Читать далее, чтобы повысить кругозор

Знакомство с трансформерами. Часть 3

Время на прочтение13 мин
Количество просмотров7.1K

Первая и вторая части перевода материала о трансформерах были посвящены теоретическим основам этого семейства нейросетевых архитектур, рассказу о способах их использования, демонстрации их реализации с применением PyTorch. Сегодня речь пойдёт об истории трансформеров, будет дан обзор современного состояния дел в этой сфере.

Читать далее

Аналоговые микропроцессоры с искусственным интеллектом. Насколько это реально?

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров11K

Первые компьютеры были аналоговыми и представляли собой массивные мейнфреймы, заполненные электронными лампами. Они были очень громоздкие, сложные в программировании, дорогие в обслуживании и ограниченные в точности. Позже интегральные микросхемы сделали вычисления более дешёвыми и надёжными. С 1970-х годов XX века аналоговая технология начала постепенно отмирать, поскольку точность аналоговой электроники всегда ограничивалась её компонентами. Независимо от того, в оборудовании использовались ли зубчатые колеса, вакуумные трубки или химическая плёнка: точность была ограничена производственными допусками и ухудшалась со временем.

Сегодня миром правят цифровые устройства. ПК, ноутбуки, смартфоны, электромобили, камеры наблюдения, устройства для умного дома и другая цифровая электроника формирует будущее. Никто не ожидает, что дисковые телефоны или арифмометры приползут из небытия. Дискеты, VHS-кассеты, электронно-лучевые трубки — покоятся с миром. Точно так же не используют старые аналоговые компьютеры в центрах обработки данных.

Но аналоговая технология может вернуться. Возвращение аналоговых компьютеров в гораздо более продвинутых формах, чем их исторические предки, радикально и навсегда может изменить мир вычислений. У компаний Кремниевой долины есть секретные проекты по созданию аналоговых чипов для ИИ. Компания Mythic разработала «первый аналоговый матричный процессор с искусственным интеллектом».
Читать дальше →

Что скрывают нейронные сети?

Время на прочтение5 мин
Количество просмотров115K
Статья является вольным переводом The Flaw Lurking In Every Deep Neural Net.

Недавно опубликованная статья с безобидным заголовком является, вероятно, самый большой новостью в мире нейронных сетей с момента изобретения алгоритма обратного распространения. Но что же в ней написано?

В статье "Интригующие свойства нейронных сетей" за авторством Christian Szegedy, Wojciech Zaremba, Ilya Sutskever, Joan Bruna, Dumitru Erhan, Ian Goodfellow and Rob Fergus, команды, включающей авторов из проекта Google по глубокому обучению, кратко описываются два открытия в поведении нейронных сетей, противоречащие тому, что мы думали прежде. И одно из них, честно говоря, поражает.
Читать дальше →

Растёт количество учёных, считающих, что будущее может влиять на прошлое

Время на прочтение7 мин
Количество просмотров53K


Приходилось ли вам когда-нибудь, попадая в сложную ситуацию, думать: «Это ведь всё результат моих собственных действий». Эта обычная фраза раскрывает то, как на самом деле мы, люди, понимаем время и причинно-следственные связи. Наши действия в прошлом коррелируют с нашим восприятием будущего: будь то хороший результат, например успешная сдача экзамена после подготовки, или плохой — например когда мы просыпаемся и чувствуем убийственное похмелье.

Но что если эту прямую причинно-следственную связь можно каким-то образом обратить вспять во времени, позволяя действиям в будущем влиять на результаты в прошлом? Эта удивительная идея, известная как ретропричинность, на первый взгляд может показаться фантастикой, но она начинает приобретать реальную популярность среди физиков и философов, а также других исследователей как возможное решение некоторых из самых неразрешимых загадок, лежащих в основе нашей реальности.
Читать дальше →

Цель как антидепрессант

Время на прочтение5 мин
Количество просмотров32K
Для того чтобы с помощью целей бороться с депрессиями, надо для начала определиться с вопросом: что такое депрессия?
image «Calavera of Don Quixote» 1985 г., автор Хосе Посада
Депрессия — это психофизическое состояние человека, о котором пока точно не известно, что это такое. Но при этом уже ясно, как с ней бороться и облегчать жизнь людям.

Вход в депрессию, как и выход из нее, может быть спровоцирован незначительной мелочью. Но на самом деле все сложнее: нарушение выработки гормонов и нейромедиаторов угнетает работу некоторых участков мозга и их взаимодействие.

Генеральный спонсор статьи — нейромедиатор дофамин.
Дофамин усилит чувство радости и повысит удовольствие от жизни, а также поможет преодолеть вредные привычки.
Перед прочтением статьи посоветуйтесь со здравым смыслом.

Читать дальше →

Telegram удалил нашего ChatGPT-бота на 27,000 пользователей без объяснения причин

Уровень сложностиПростой
Время на прочтение4 мин
Количество просмотров42K

Несколько недель назад мы с коллегой сделали ChatGPT-proxy бота в Telegram, который помогал в наших рабочих чатах и просто развлекал нас. Он написан на TypeScript и потрясающем фреймворке Grammy, использует Open AI API, а именно модель gpt3.5-turbo, которая используется в оригинальном ChatGPT.

Читать далее

Стохастический язык программирования на основе алгоритмов Маркова

Время на прочтение13 мин
Количество просмотров27K

MarkovJunior — это вероятностный язык программирования, в котором программы являются сочетаниями правил перезаписи, а инференс выполняется при помощи распространения ограничений. MarkovJunior назван в честь математика Андрея Андреевича Маркова, придумавшего и исследовавшего то, что сейчас называется алгоритмами Маркова.
Читать дальше →

Подробно рассматриваем обратное распространение ошибки для простой нейронной сети. Численный пример

Уровень сложностиСредний
Время на прочтение6 мин
Количество просмотров10K

В данной статье мы рассмотрим прямое распространение сигнала и обратное распространение ошибки в полносвязной нейронной сети. В результате получим весь набор формул, необходимых для её программной реализации. В завершении статьи приведён численный пример.

Надеемся, что статья будет интересной и полезной для всех, кто приступает к изучению глубинного обучения и нейронных сетей!

Transformer в картинках

Время на прочтение14 мин
Количество просмотров145K

В прошлой статье мы рассматривали механизм внимания (attention) – чрезвычайно распространенный метод в современных моделях глубокого обучения, позволяющий улучшить показатели эффективности приложений нейронного машинного перевода. В данной статье мы рассмотрим Трансформер (Transformer) – модель, которая использует механизм внимания для повышения скорости обучения. Более того, для ряда задач Трансформеры превосходят модель нейронного машинного перевода от Google. Однако самое большое преимущество Трансформеров заключается в их высокой эффективности в условиях параллелизации (parallelization). Даже Google Cloud рекомендует использовать Трансформер в качестве модели при работе на Cloud TPU. Попробуем разобраться, из чего состоит модель и какие функции выполняет.


Впервые модель Трансформера была предложена в статье Attention is All You Need. Реализация на TensorFlow доступна как часть пакета Tensor2Tensor, кроме того, группа NLP-исследователей из Гарварда создали гид-аннотацию статьи с реализацией на PyTorch. В данном же руководстве мы попробуем максимально просто и последовательно изложить основные идеи и понятия, что, надеемся, поможет людям, не обладающим глубоким знанием предметной области, понять данную модель.

Читать дальше →

Визуализируя нейронный машинный перевод (seq2seq модели с механизмом внимания)

Время на прочтение5 мин
Количество просмотров53K

Привет, Хабр! Представляю вашему вниманию перевод статьи "Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)" автора Jay Alammar.


Sequence-to-sequence модели (seq2seq) – это модели глубокого обучения, достигшие больших успехов в таких задачах, как машинный перевод, суммаризация текста, аннотация изображений и др. Так, например, в конце 2016 года подобная модель была встроена в Google Translate. Основы же seq2seq моделей были заложены еще в 2014 году с выходом двух статей — Sutskever et al., 2014, Cho et al., 2014.


Чтобы в достаточной мере понять и затем использовать эти модели, необходимо сначала прояснить некоторые понятия. Предложенные в данной статье визуализации будут хорошим дополнением к статьям, упомянутым выше.


Sequence-to-sequence модель – это модель, принимающая на вход последовательность элементов (слов, букв, признаков изображения и т.д.) и возвращающая другую последовательность элементов. Обученная модель работает следующим образом:


Мы обнаружили в GPT-2 нейрон конкретного токена

Время на прочтение10 мин
Количество просмотров15K

Мы начали с вопроса: откуда GPT-2 знает, когда использовать слово an, а не a? Выбор зависит от того, начинается ли следующее за ним слово с гласной, однако GPT-2 может прогнозировать только одно слово за раз.

У нас по-прежнему нет полного ответа, однако мы нашли нейрон MLP в GPT-2 Large, который необходим для прогнозирования токена " an". Также мы выяснили, что веса этого нейрона соотносятся с эмбеддингом токена " an", что позволило нам найти другие нейроны, прогнозирующие конкретный токен.
Читать дальше →

Как вавилонянам удалось вычислить √2 с точностью до шести знаков после запятой?

Время на прочтение5 мин
Количество просмотров32K
Эта изготовленная примерно в 1800-1600 годах до нашей эры глиняная табличка свидетельствует, что древние вавилоняне смогли аппроксимировать квадратный корень двух с точностью 99,9999%.

Как им это удалось?

Читать дальше →

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность