Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 247,8
Рейтинг
Сначала показывать
Порог рейтинга

Real-Time Latent Consistency Model — нейросеть, которая отслеживает движения через веб-камеру и тут же создаёт изображение.

  • Даём браузерное разрешение на использование камеры;

  • Пишем промпт или используем готовый;

  • Получаем генерацию, которая подстраивается в режиме реального времени.

Изменения в промпт можно вносить на ходу, заглядывание в Advanced options по желанию. Сессия запускается примерно на минуту, иногда выдаётся ошибка о том, что сейчас много пользователей и надо подождать.

Попробовать

Теги:
Всего голосов 20: ↑20 и ↓0+20
Комментарии3

Что такое XLNet?

XLNet, или eXtreme Language Model — это языковая модель, созданная компанией Microsoft в 2017 году. Она использует современную архитектуру Transformer с некоторыми улучшениями и модификациями.

Главное из них — использование функции Cross-Layer Attention, выполняющей обработку контекстуальных зависимостей. Она позволяет моделировать двунаправленные взаимодействия между различными слоями и обеспечивает комплексное представление входных данных.

В классической модели Transformer каждый слой самостоятельно обрабатывает данные. Функция Cross-Layer Attention отменяет это ограничение. Точнее, она позволяет учитывать зависимости между данными, находящимися как выше, так и ниже текущего слоя. Это даёт возможность лучше анализировать контекст, особенно в длинных запросах.

XLNet была обучена на англоязычных датасетах суммарным объёмом около 800 млрд символов, что до сих пор считается является одним из самых больших наборов данных для обучения.

Напишите в комментариях, какие ещё термины вам бы хотелось разобрать в рубрике #нейрословарь, которую мы ведём вместе с экспертами из лаборатории больших данных компании "Криптонит".

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии1

Microsoft начала использовать инфраструктуру Oracle для поддержки Bing Chat. Некоторые модели машинного обучения, используемые Bing Search, перенесут в суперкластер графических процессоров Oracle в рамках многолетнего соглашения.

«Наше сотрудничество с Oracle и использование инфраструктуры Oracle Cloud вместе с инфраструктурой искусственного интеллекта Microsoft Azure расширит доступ для клиентов и улучшит скорость получения многих результатов поиска», — пояснили в Microsoft.

Компания решила использовать преимущество Oracle Interconnect для Microsoft Azure, которое позволяет сервисам, работающим в Azure, взаимодействовать с ресурсами в Oracle Cloud Infrastructure (OCI). Ранее эту службу использовали, чтобы позволить клиентам подключать рабочие нагрузки, выполняемые в Azure, обратно к базам данных OCI. В этом случае Microsoft использует систему вместе со своей службой Azure Kubernetes для оркестровки узлов графического процессора Oracle.

Oracle утверждает, что облачные суперкластеры, которые, предположительно, будет использовать Bing, могут масштабироваться каждый до 32 768 графических процессоров Nvidia A100 или 16 384 графических процессоров H100 с использованием сети удалённого прямого доступа к памяти (RDMA) со сверхнизкой задержкой. 

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Meta* запретит использовать свои инструменты ИИ в политической рекламе. Компания опасается, что генеративный искусственный интеллект будет применяться для ускоренного распространения дезинформации.

Meta заявила, что также закроет доступ к функциям ИИ для рекламы жилья, трудоустройства, кредитов и иных финансовых услуг, компаний здравоохранения и фармацевтики. «Мы считаем, что этот подход позволит нам лучше понять потенциальные риски и выработать правильные меры безопасности для использования генеративного ИИ в рекламе, которая касается потенциально деликатных тем в регулируемых отраслях», — говорится в сообщении.

Ранее Meta начала расширять доступ компаний к рекламным инструментам на базе искусственного интеллекта, которые помогают мгновенно создавать фоны, корректировать изображения и изменять рекламные тексты.

Meta Platforms*, а также принадлежащие ей социальные сети Facebook** и Instagram**:
* — признана экстремистской организацией, её деятельность в России запрещена;
** — запрещены в России.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

❓100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_1

?Вопрос_1: Чем ковариация и корреляция отличаются друг от друга?

✔️Ответ:

Ковариация и корреляция - это два статистических показателя, которые используются для определения связи между двумя случайными величинами.

Ковариация измеряет степень, в которой две переменные меняются вместе, тогда как корреляция измеряет не только степень, но и направление отношения между двумя переменными.

Ковариация подразумевает, что две величины меняются в одном направлении: если одна увеличивается, то вторая тоже увеличивается, или если одна уменьшается, то другая тоже уменьшается. Однако, ковариация не учитывает, насколько сильно или слабо эти переменные меняются.

Корреляция, с другой стороны, учитывает не только направление, но и силу отношения между двумя переменными. Коэффициент корреляции может принимать значения от -1 до 1. Значение +1 для корреляции означает, что две переменные имеют прямую связь и полностью коррелируют. Значение -1 для корреляции означает, что две переменные находятся в обратной пропорциональной связи. Значение 0 для корреляции означает, что между двумя переменными нет связи.

#work #coding #testing #optimization #ml #learning

Телеграмм: https://t.me/DenoiseLAB

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Видео инструкция по созданию чат-бот с искусственным интеллектом

В видео показан процесс создания чат-бота с ИИ от компании Wikibot с базой знаний в Google Sheet. Ваш чат-бот будет понимать вопрос клиента и отвечает как человек.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии0

Компания Jina открыла под лицензией Apache 2.0 модель машинного обучения для векторного представления текста — jina‑embeddings‑v2. Модель позволяет преобразовать произвольный текст, включающий до 8192 знаков, в небольшую последовательность вещественных чисел, образующих вектор, сопоставленный с исходным текстом и воспроизводящий его семантику (смысл). Jina Embedding стала первой открытой моделью машинного обучения, обладающей характеристиками, не уступающими проприетарной модели векторизации текста от проекта OpenAI (text‑embedding‑ada-002), также способной обрабатывать тексты, насчитывающие до 8192 токенов.

Для загрузки доступны два варианта модели jina-embeddings (базовая на 270 МБ и сокращённая размером 70 МБ), обученные на 400 млн пар текстовых последовательностей на английском языке, охватывающих различные области знаний. При обучении использовались последовательности размером 512 токенов, которые были экстраполированы до размера 8192 при помощи метода ALiBi (Attention with Linear Biases). В ближайшее время также планируют опубликовать крупную модель, которая будет охватывать 435 млн параметров.

Базовая модель включает в себя 137 млн параметров и рассчитана на использование на стационарных системах с GPU. Сокращённая модель включает 33 млн. параметров, обеспечивает меньшую точность и нацелена на применение на мобильных устройствах и на системах с небольшим объёмом памяти.

Источник: OpenNET.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Элемент умной одежды Humane AI будет работать под управлением GPT-4. При этом разработчики встроили специальный «индикатор доверия», который загорается каждый раз, когда камера, микрофон или другие датчики устройства каким-либо образом записывают данные.

При этом Humane AI сможет выполнять широкий набор функций, начиная от приёма звонков и заканчивая оценкой состава блюд.

Разработчики утверждают, что элемент будет крепиться к одежде благодаря специальному магниту. 

Презентация Humane AI ожидается 9 ноября.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Что такое GoogLeNet?

Рассказывают наши эксперты из лаборатории больших данных.

GoogLeNet — глубокая свёрточная нейросеть, разработанная командой исследователей из Google в 2014 году для классификации изображений. «Le» в её названии — это отсылка к нейросети LeNet 5, одной из первых свёрточных нейросетей, способствовавшей развитию идеи глубокого обучения с 1988 года.

Главным отличием архитектуры GoogLeNet от других свёрточных нейросетей (CNN) является использование дополнительного модуля начальной обработки данных — Inception. Он параллельно применяет свёртки с разными размерами ядра (1x1, 3x3, 5x5), а затем объединяет вектора признаков. Это позволяет эффективнее выделять локальные и глобальные признаки анализируемого изображения.

Несмотря на глубокую архитектуру сети, состоящую из 22 слоёв, количество используемых параметров GoogLeNet остаётся относительно небольшим. Это достигается благодаря использованию свёртки 1x1, которая по сути работает как линейный фильтр и уменьшает размерность следующего слоя. Поэтому GoogLeNet менее требовательна к объёму памяти видеокарты, чем AlexNet и другие архитектуры без модуля Inception.

За счёт своей сбалансированности GoogLeNet показывает высокую точность классификации на изображениях различного размера. В 2014-м году она победила в соревновании ImageNet. С тех пор на её основе разрабатываются более современные нейросети, также использующие глубокую свёрточную архитектуру и концепцию модуля Inception.

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии0

Instagram** тестирует ИИ-функцию, которая позволит пользователям создавать стикеры из своих фотографий и размещать их в роликах или историях. 

Им будет достаточно выбрать объект на фотографии, а инструмент удалит фон и создаст стикер, который можно будет разместить поверх другого контента. 

Глава компании Адам Моссери кратко продемонстрировал на видео, как это будет работать.

Он рассказал, что, помимо создания стикеров из сохранённых в смартфоне фотографий, пользователи смогут выбирать «подходящие изображения в Instagram». Моссери не поделился подробностями, но, вероятно, речь идёт не только о собственных фотографиях пользователей, но и других снимках.

Meta Platforms*, а также принадлежащие ей социальные сети Facebook** и Instagram**:
* — признана экстремистской организацией, её деятельность в России запрещена;
** — запрещены в России.

Теги:
Рейтинг0
Комментарии0

В октябре 2023 WikiBot стал продуктом недели #1 на ProductRadar

Как пришла идея

Сложно было не заметить бум ChatGPT и искуственного интеллекта в целом. Мы начали экспериментировать с языковыми моделями и возможностями, пытались понять что может и чего не может ИИ, преимущества и ограничения. Поняли, что сходу получается крайне неплохой результат и есть огромный задел по улучшению. Дальше начали продумывать конкретные продуктовые кейсы, так и пришли к решению для отдела поддержки.

Сколько времени заняло от идеи до первого клиента

Первой нашей целью было найти трех клиентов за первый месяц. Примерно так и получилось. Среди этой тройки оказался Skillbox. Нам очень повезло с ними. Мы начали свои продажи с рассылки предложения на почты потенциальным клиентам, и одним из адресатов был публичный ящик hello@skillbox.ru. К нашему удивлению, нам ответили! Было примерно так: - Мы делаем крутого чат-бота с ИИ, предлагаем вам попробовать. - Ок, давайте пробовать! Так мы и погрузились в «прод-прод» и реальные кейсы пользователей ? Так что не бойтесь таких простых путей, как прямые продажи!

Наш сайт https://wikibot.pro

Наши новости https://t.me/wikibot_news

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии5

Что такое YOLO?

Разбираемся вместе с нашими экспертами из лаборатории больших данных.

YOLO (you only look once) — это архитектура детектора по распознаванию объектов в реальном времени. YOLO состоит из двух частей: encoder (свёрточные слои) и head (классификационный слой).

Энкодер выполняет роль первичной обработки изображений и извлечения признаков объектов. Обычно для этого используется Darknet или другая предобученная CNN.

Затем head принимает от энкодера признаки объектов и выполняет классификацию, после чего применяет пороговую фильтрацию и оставляет на выходе наиболее вероятные результаты.

Благодаря своей способности анализировать объекты одновременно на всём изображении, YOLO обеспечивает высокую скорость и точность распознавания объектов.

Также YOLO отличается хорошей обобщающей способностью. Он уверенно работает в различных условиях освещения и с разными типами камер (хотя и требует для этого большого количества обучающих данных, покрывающих различные условия). Это делает его востребованным в алгоритмах машинного зрения для роботов, дронов и автономного транспорта.

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии0

В микроблогах предлагают угадать по списку референсов, кто написал научную работу.

Список состоит из работ Юргена Шмидхубера — одного из самых цитируемых исследователей ИИ. На Google Scholar у него более 200 тыс. цитирований, индекс Хирша — 116.

Шмидхубер не стесняется своего статуса. Он даже хвастает им у себя на странице на сайте Института исследований искусственного интеллекта Далле Молле. Страница называется «Все самые цитируемые нейросети построены на работе, выполненной в моих лабораториях». В микроблоге Шмидхубер ещё более скромен: он говорит «нашей работе», а не «моей».

Вообще, преувеличить роль Шмидхубера сложно. Он мог бы побороться с Яном Гудфеллоу за право называть себя изобретателем генеративно-состязательных сетей.

Трансформеры — тоже развитие идей Юргена. 26 марта 1991 года он представил технику neural fast weight programmers. Аналог из наших дней — трансформеры с механизмом внутреннего внимания. Разве что ключ и значение в 1991 году назывались FROM и TO, соответственно. Как известно, термин «трансформеры» закрепился из работы 2017 года «Attention Is All You Need» Ашиша Васвани и других.

Впрочем, Юрген признаёт: это лишь демонстрирует ограниченность и самозацикленность англоязычного мира. На деле глубинное обучение зародилось в 1965 году в «Кибернетических предсказывающих устройствах» Алексея Ивахненко и Валентина Лапы академии наук УССР, считает Юрген.

Что касается документа со скриншота, это работа «One Big Net For Everything» 2018 года. Написал её тоже Шмидхубер.

Теги:
Рейтинг0
Комментарии0

Ближайшие события

Что такое "пирамида признаков"?

Рассказываем в рубрике #нейрословарь вместе с нашими экспертами из лаборатории больших данных.

Пирамида признаков (FPN, Feature Pyramid Net) — это вычислительная архитектура, используемая в машинном зрении для обработки изображений без привязки к их разрешению. Она позволяет обнаруживать объекты на изображениях различных размеров, масштабировать их и автоматически подстраиваться под меняющиеся условия.

Для анализа изображения FPN объединяет информацию из разных слоёв нейронной сети, после чего создаёт «пирамиду» — иерархическую структуру признаков. Если на изображении есть сравнительно большой объект, то FPN обрабатывает его на более высоком уровне пирамиды, а мелкую деталь — на более низком.

FPN широко используется во всех сферах, применяющих машинное зрение. Например, пирамида признаков используется для автоматического диагностирования рака груди по маммограммам и в системах помощи водителю для распознавания участников дорожного движения.

Основные конкурирующие архитектуры для FPN — U-Net и SegNet. Они менее требовательны к ресурсам, но работают только с изображениями фиксированного разрешения и распознают объекты определённого размера. FPN лишена этих ограничений, поэтому в условиях меняющегося окружения показывает более стабильные результаты.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Голосовой помощник Alexa от Amazon уличили в некорректных ответах. Так, он заявил, что президентские выборы 2020 года в США сопровождались фальсификациями, а голоса избирателей украли. При этом помощник ссылался на стриминговый сервис Rumble, пользующийся популярностью у консерваторов.

При этом Amazon продвигает Alexa как надёжный источник новостей о выборах. Пресс-секретарь компании заявил, что конкретно эту ошибку в ответе уже исправили. Он также отметил, что Alexa работает с «достоверными источниками», такими как Reuters, Ballotpedia и RealClearPolitics.

Теперь на вопрос о выборах 2020 года помощник отвечает: «Извините, я не могу ответить на этот вопрос». Если спросить «Кто победил на выборах 2020 года?», то помощник правильно отвечает: «Демократ Джо Байден», ссылаясь на результаты выборов агентства Reuters. Но, если переформулировать его, то Alexa по-прежнему рассказывает о фальсификациях. Непоследовательные ответы Alexa могут отражать попытку разработчиков опираться на широкий спектр источников новостей по всему политическому спектру для решения проблем, связанных с предвзятостью, говорит Мередит Бруссард, доцент Нью-Йоркского университета.

В 2024 году ожидается, что более 75 млн жителей США будут использовать Alexa по крайней мере один раз в месяц.

«Во время выборов мы указываем источники и средства массовой информации, чтобы клиенты точно знали, откуда поступает информация», — заявила компания.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

WikiBot участвует в конкурсе стартапов на ProductRadar

Огромная просьба поддержать нас и попросить это сделать своих друзей:

  1. Зайдите на сайт productradar.ru

  2. Войдите с помощью яндекс или google

  3. Проголосуйте за WikiBot

С меня вкуснейший кофе у меня дома и разговор о саморазвитии (='.'=)

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Джарет Баркетт [Jarett Burkett] представил LoRA для Stable Diffusion XL, которая помогает генерировать картинки в стиле инструкций «ИКЕА».

К многим предметам нидерландской компании приложены инструкции по сборке, выполненные в характерном стиле. Для простоты локализации товаров транснациональной сети магазинов слова на буклете (кроме названия) отсутствуют, что только усиливает запоминаемость образов. Поэтому икеевские инструкции любят пародировать за простоту и узнаваемость графического языка.

Простой промпт balalaika без уточнений
Простой промпт balalaika без уточнений

К файлам проекта Ikea Instructions Баркетт приложил примеры работ. С этой LoRA он сгенерировал как людей, персонажей или предметы (хиппи, Барби с Кеном, гамбургер), так и процессы (сон).

Забавно, что модель с удовольствием вставляет в инструкцию шестигранник даже там, где он вряд ли нужен. В примерах он появляется в гардеробе Кена.

huggingface.co/ostris/ikea-instructions-lora-sdxl

Страница на Civitai

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии2

Bing Chat AI заблокировала генерацию картинок с Дрейком. Если упомянуть Drake в запросе на картинку, фильтр по стоп-слову выдаст предупреждение о невозможности генерации.

Встроенный в чат генератор картинок DALL-E 3 от OpenAI хорошо приспособлен выдавать любые образы по запросу пользователя. Этим незамедлительно воспользовались сетевые шутники. Канадский рэпер в их воображении ржёт как конь над детьми в снежных шарах, пилотирует Евангелион или просто (видимо, фантазия кончилась) руководит Третьим рейхом.

Дрейк дразнит девочку за узкие глаза
Дрейк дразнит девочку за узкие глаза

Вообще, у Microsoft хватает проблем с новым инструментом. Bing Chat AI с трудом пытается отфильтровать башни-близнецы Всемирного торгового центра в Нью-Йорке, на которые повадились запускать самолёты с Марио и Спанч Бобом за штурвалом.

Комбо, где атаки 11 сентября проводит Дрейк, тоже есть.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

BBC присоединилась к СМИ, которые заблокировали для OpenAI сбор данных для обучения ИИ. Компания изложила принципы, которым она планирует следовать при оценке использования генеративного искусственного интеллекта.

Директор BBC по нациям Родри Талфан Дэвис заявил, что телекомпания оценивает технологию как способную принести «большую пользу аудитории и обществу».

Три руководящих принципа компании заключаются в том, что она всегда будет действовать в интересах общественности, отдавать приоритет таланту и творчеству, уважая права художников, а также будет открытой и прозрачной в отношении продукции, созданной искусственным интеллектом. BBC заявила, что будет работать с технологическими компаниями, другими СМИ и регуляторами, чтобы безопасно развивать генеративный ИИ и поддерживать доверие к новостной индустрии.

«В ближайшие несколько месяцев мы начнем ряд проектов, изучающих использование искусственного интеллекта как в том, что мы делаем, так и в том, как мы работаем, чтобы лучше понять как возможности, так и риски», — сказал Дэвис. Так, BBC изучит, как генеративный ИИ может повлиять на журналистские исследования и производство контента, обнаружение и архивирование публикаций, а также обеспечение персонализированного опыта.

Ранее CNN, The New York Times, Reuters и другие новостные организации уже запретили поисковым ботам получать доступ к их материалам, защищённым авторским правом. 

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии0

Китайцы научились создавать и использовать в торговле очень реалистичных аватаров. Причём это аватары реальных людей - инфлюенсеров - умеющих активно двигать продажи. Вот статья об этом в MIT Technology Review: Deepfakes of Chinese influencers are livestreaming 24/7 | MIT Technology Review

1. Во-первых, очевидно, что Китай живёт в каком-то своём мире. Причём очень прогрессивном мире. У нас товары в интернете покупают на Озоне или в Яндекс Маркете, или на каком-то аналогичном маркетплейсе, который, по сути - это виртуальная полка с товарами. А у китайцев какие-то стриминговые платформы, которые заселены аватарами, круглосуточно втюхивающими ненужное барахло населению

2. Реклама и раньше-то была вещью в себе, а теперь и подавно... Крупнейшие компании мира (Гугл, Фэйсбук) зарабатывают деньги именно на рекламе. Реклама - это триллионы долларов. И это триллионы, которые всё равно, в итоге, платит потребитель. Реклама - это один из самых продаваемых "товаров в мире". И так как некоторые из крупнейших технологических компаний зарабатывают именно на рекламе, то и новые технологии во многом вертятся вокруг рекламы, а не вокруг того, чтобы полететь на другую планету, например. Вот и дип фейки прижились именно в рекламе

3. Раньше монополия на то, чтобы говорить, как человек, и выглядеть, как человек, была у человека. Сейчас это уже не так. Немного непривычно..

4. В статье есть пример того, как аватар вертит рекламируемый продукт перед "камерой". Интересно, как аватаров научили это делать...

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии1