Всем привет!
Стартовала конференция по ИИ AI Journey. Кому интересно - Присоединяйтесь!
Хорошего дня!


AI, ANN и иные формы искусственного разума
Всем привет!
Стартовала конференция по ИИ AI Journey. Кому интересно - Присоединяйтесь!
Хорошего дня!

Что такое YandexGPT?
Рассказываем вместе с нашими экспертами из лаборатории больших данных.
YandexGPT или YaGPT — генеративная нейросеть на основе языковой модели YaLM (Yet another Language Model). Она применяется как режим общения в голосовом помощнике «Алиса» (включается по команде: «Алиса, давай придумаем!»), встроена в Яндекс Браузер и доступна через API в облачной платформе Yandex Cloud.
Главное отличие от ChatGPT состоит в том, что YaGPT изначально обучалась на русскоязычных текстах и поисковых запросах к Яндексу. Поэтому она точнее строит фразы на русском языке.
В ходе диалога YaGPT умеет задавать уточняющие вопросы и запоминает предыдущие, чтобы оставаться в контексте беседы. Однако если собеседник выдержал длинную паузу, следующая фраза может быть воспринята как начало нового диалога.
Как и любая генеративная сеть, YaGPT пишет ответы, подражает структуре уже известных ей текстов. Поэтому, при всей стройности изложения, сгенерированные тексты требуют проверки указанных в них фактов.
Недавно компания "Яндекс" представила обновлённую версию языковой модели — YandexGPT 2. Она лучше справляется с задачами генерации и обработки текста, но также не в курсе последних событий, так как для её обучения использовались наборы данных, собранных до марта 2023 года.
Запуск модели искусственного интеллекта следующего поколения Gemini от Google задерживается. Теперь ожидается, что её выпустят в начале 2024 года, а не в этом месяце.
В этом году Google объединила две команды ИИ в одну группу, которая работает над новой моделью, способной конкурировать с GPT-4 от OpenAI. Её лидер Демис Хассабис в июле заявлял: «Мы уже чувствуем, что через пару месяцев будут видны преимущества и сильные стороны проекта Gemini, нашей мультимодальной большой модели следующего поколения. Это довольно впечатляюще».
Ранее представители Google пообещали некоторым облачным клиентам и деловым партнёрам, что к ноябрю они получат доступ к новому диалоговому ИИ компании. Но теперь разработка Gemini задерживается. Одновременно замедлились продажи облачных технологий Google, в то время как у конкурента Microsoft они ускоряются.
Adobe работает над новым аудиоинструментом Project Sound Lift, предназначенным для разделения различных слоев звука в одной записи. Он использует искусственный интеллект для отделения таких элементов, как аплодисменты, от звука чьего-то голоса.
Для обработки аудиодорожки нужно импортировать файл в приложение, а затем выбрать звук, который требуется отфильтровать. Таким образом из аудио можно исключить аплодисменты, смех, сигналы тревоги, гул толпы, звук движения транспорта, клавиатуры и т.д. Импортировать и редактировать каждую дорожку можно в Adobe Premiere Pro, чтобы настроить громкость фонового шума, одновременно повышая чёткость основного трека.
Adobe Project Sound Lift работает по принципу той же технологии, которая использовалась для выпуска первой за почти 30 лет песни Beatles «Now and then». Продюсеры использовали ИИ, чтобы восстановить звучание голоса Джона Леннона с кассетной записи, отделив его голос от звучания фортепиано.
Real-Time Latent Consistency Model — нейросеть, которая отслеживает движения через веб-камеру и тут же создаёт изображение.
Даём браузерное разрешение на использование камеры;
Пишем промпт или используем готовый;
Получаем генерацию, которая подстраивается в режиме реального времени.
Изменения в промпт можно вносить на ходу, заглядывание в Advanced options по желанию. Сессия запускается примерно на минуту, иногда выдаётся ошибка о том, что сейчас много пользователей и надо подождать.

Что такое XLNet?
XLNet, или eXtreme Language Model — это языковая модель, созданная компанией Microsoft в 2017 году. Она использует современную архитектуру Transformer с некоторыми улучшениями и модификациями.
Главное из них — использование функции Cross-Layer Attention, выполняющей обработку контекстуальных зависимостей. Она позволяет моделировать двунаправленные взаимодействия между различными слоями и обеспечивает комплексное представление входных данных.
В классической модели Transformer каждый слой самостоятельно обрабатывает данные. Функция Cross-Layer Attention отменяет это ограничение. Точнее, она позволяет учитывать зависимости между данными, находящимися как выше, так и ниже текущего слоя. Это даёт возможность лучше анализировать контекст, особенно в длинных запросах.
XLNet была обучена на англоязычных датасетах суммарным объёмом около 800 млрд символов, что до сих пор считается является одним из самых больших наборов данных для обучения.
Напишите в комментариях, какие ещё термины вам бы хотелось разобрать в рубрике #нейрословарь, которую мы ведём вместе с экспертами из лаборатории больших данных компании "Криптонит".
Microsoft начала использовать инфраструктуру Oracle для поддержки Bing Chat. Некоторые модели машинного обучения, используемые Bing Search, перенесут в суперкластер графических процессоров Oracle в рамках многолетнего соглашения.
«Наше сотрудничество с Oracle и использование инфраструктуры Oracle Cloud вместе с инфраструктурой искусственного интеллекта Microsoft Azure расширит доступ для клиентов и улучшит скорость получения многих результатов поиска», — пояснили в Microsoft.
Компания решила использовать преимущество Oracle Interconnect для Microsoft Azure, которое позволяет сервисам, работающим в Azure, взаимодействовать с ресурсами в Oracle Cloud Infrastructure (OCI). Ранее эту службу использовали, чтобы позволить клиентам подключать рабочие нагрузки, выполняемые в Azure, обратно к базам данных OCI. В этом случае Microsoft использует систему вместе со своей службой Azure Kubernetes для оркестровки узлов графического процессора Oracle.
Oracle утверждает, что облачные суперкластеры, которые, предположительно, будет использовать Bing, могут масштабироваться каждый до 32 768 графических процессоров Nvidia A100 или 16 384 графических процессоров H100 с использованием сети удалённого прямого доступа к памяти (RDMA) со сверхнизкой задержкой.
Meta* запретит использовать свои инструменты ИИ в политической рекламе. Компания опасается, что генеративный искусственный интеллект будет применяться для ускоренного распространения дезинформации.
Meta заявила, что также закроет доступ к функциям ИИ для рекламы жилья, трудоустройства, кредитов и иных финансовых услуг, компаний здравоохранения и фармацевтики. «Мы считаем, что этот подход позволит нам лучше понять потенциальные риски и выработать правильные меры безопасности для использования генеративного ИИ в рекламе, которая касается потенциально деликатных тем в регулируемых отраслях», — говорится в сообщении.
Ранее Meta начала расширять доступ компаний к рекламным инструментам на базе искусственного интеллекта, которые помогают мгновенно создавать фоны, корректировать изображения и изменять рекламные тексты.
Meta Platforms*, а также принадлежащие ей социальные сети Facebook** и Instagram**:
* — признана экстремистской организацией, её деятельность в России запрещена;
** — запрещены в России.
❓100 Вопросов по Машинному обучению (Machine Learning) - Вопрос_1
?Вопрос_1: Чем ковариация и корреляция отличаются друг от друга?
✔️Ответ:
Ковариация и корреляция - это два статистических показателя, которые используются для определения связи между двумя случайными величинами.
Ковариация измеряет степень, в которой две переменные меняются вместе, тогда как корреляция измеряет не только степень, но и направление отношения между двумя переменными.
Ковариация подразумевает, что две величины меняются в одном направлении: если одна увеличивается, то вторая тоже увеличивается, или если одна уменьшается, то другая тоже уменьшается. Однако, ковариация не учитывает, насколько сильно или слабо эти переменные меняются.
Корреляция, с другой стороны, учитывает не только направление, но и силу отношения между двумя переменными. Коэффициент корреляции может принимать значения от -1 до 1. Значение +1 для корреляции означает, что две переменные имеют прямую связь и полностью коррелируют. Значение -1 для корреляции означает, что две переменные находятся в обратной пропорциональной связи. Значение 0 для корреляции означает, что между двумя переменными нет связи.
#work #coding #testing #optimization #ml #learning
Телеграмм: https://t.me/DenoiseLAB
Видео инструкция по созданию чат-бот с искусственным интеллектом
В видео показан процесс создания чат-бота с ИИ от компании Wikibot с базой знаний в Google Sheet. Ваш чат-бот будет понимать вопрос клиента и отвечает как человек.
Компания Jina открыла под лицензией Apache 2.0 модель машинного обучения для векторного представления текста — jina‑embeddings‑v2. Модель позволяет преобразовать произвольный текст, включающий до 8192 знаков, в небольшую последовательность вещественных чисел, образующих вектор, сопоставленный с исходным текстом и воспроизводящий его семантику (смысл). Jina Embedding стала первой открытой моделью машинного обучения, обладающей характеристиками, не уступающими проприетарной модели векторизации текста от проекта OpenAI (text‑embedding‑ada-002), также способной обрабатывать тексты, насчитывающие до 8192 токенов.
Для загрузки доступны два варианта модели jina-embeddings (базовая на 270 МБ и сокращённая размером 70 МБ), обученные на 400 млн пар текстовых последовательностей на английском языке, охватывающих различные области знаний. При обучении использовались последовательности размером 512 токенов, которые были экстраполированы до размера 8192 при помощи метода ALiBi (Attention with Linear Biases). В ближайшее время также планируют опубликовать крупную модель, которая будет охватывать 435 млн параметров.
Базовая модель включает в себя 137 млн параметров и рассчитана на использование на стационарных системах с GPU. Сокращённая модель включает 33 млн. параметров, обеспечивает меньшую точность и нацелена на применение на мобильных устройствах и на системах с небольшим объёмом памяти.
Источник: OpenNET.
Элемент умной одежды Humane AI будет работать под управлением GPT-4. При этом разработчики встроили специальный «индикатор доверия», который загорается каждый раз, когда камера, микрофон или другие датчики устройства каким-либо образом записывают данные.
При этом Humane AI сможет выполнять широкий набор функций, начиная от приёма звонков и заканчивая оценкой состава блюд.
Разработчики утверждают, что элемент будет крепиться к одежде благодаря специальному магниту.
Презентация Humane AI ожидается 9 ноября.
Что такое GoogLeNet?
Рассказывают наши эксперты из лаборатории больших данных.
GoogLeNet — глубокая свёрточная нейросеть, разработанная командой исследователей из Google в 2014 году для классификации изображений. «Le» в её названии — это отсылка к нейросети LeNet 5, одной из первых свёрточных нейросетей, способствовавшей развитию идеи глубокого обучения с 1988 года.
Главным отличием архитектуры GoogLeNet от других свёрточных нейросетей (CNN) является использование дополнительного модуля начальной обработки данных — Inception. Он параллельно применяет свёртки с разными размерами ядра (1x1, 3x3, 5x5), а затем объединяет вектора признаков. Это позволяет эффективнее выделять локальные и глобальные признаки анализируемого изображения.
Несмотря на глубокую архитектуру сети, состоящую из 22 слоёв, количество используемых параметров GoogLeNet остаётся относительно небольшим. Это достигается благодаря использованию свёртки 1x1, которая по сути работает как линейный фильтр и уменьшает размерность следующего слоя. Поэтому GoogLeNet менее требовательна к объёму памяти видеокарты, чем AlexNet и другие архитектуры без модуля Inception.
За счёт своей сбалансированности GoogLeNet показывает высокую точность классификации на изображениях различного размера. В 2014-м году она победила в соревновании ImageNet. С тех пор на её основе разрабатываются более современные нейросети, также использующие глубокую свёрточную архитектуру и концепцию модуля Inception.
Instagram** тестирует ИИ-функцию, которая позволит пользователям создавать стикеры из своих фотографий и размещать их в роликах или историях.
Им будет достаточно выбрать объект на фотографии, а инструмент удалит фон и создаст стикер, который можно будет разместить поверх другого контента.
Глава компании Адам Моссери кратко продемонстрировал на видео, как это будет работать.
Он рассказал, что, помимо создания стикеров из сохранённых в смартфоне фотографий, пользователи смогут выбирать «подходящие изображения в Instagram». Моссери не поделился подробностями, но, вероятно, речь идёт не только о собственных фотографиях пользователей, но и других снимках.
Meta Platforms*, а также принадлежащие ей социальные сети Facebook** и Instagram**:
* — признана экстремистской организацией, её деятельность в России запрещена;
** — запрещены в России.
В октябре 2023 WikiBot стал продуктом недели #1 на ProductRadar
Как пришла идея
Сложно было не заметить бум ChatGPT и искуственного интеллекта в целом. Мы начали экспериментировать с языковыми моделями и возможностями, пытались понять что может и чего не может ИИ, преимущества и ограничения. Поняли, что сходу получается крайне неплохой результат и есть огромный задел по улучшению. Дальше начали продумывать конкретные продуктовые кейсы, так и пришли к решению для отдела поддержки.
Сколько времени заняло от идеи до первого клиента
Первой нашей целью было найти трех клиентов за первый месяц. Примерно так и получилось. Среди этой тройки оказался Skillbox. Нам очень повезло с ними. Мы начали свои продажи с рассылки предложения на почты потенциальным клиентам, и одним из адресатов был публичный ящик hello@skillbox.ru. К нашему удивлению, нам ответили! Было примерно так: - Мы делаем крутого чат-бота с ИИ, предлагаем вам попробовать. - Ок, давайте пробовать! Так мы и погрузились в «прод-прод» и реальные кейсы пользователей ? Так что не бойтесь таких простых путей, как прямые продажи!
Наш сайт https://wikibot.pro
Наши новости https://t.me/wikibot_news
Что такое YOLO?
Разбираемся вместе с нашими экспертами из лаборатории больших данных.
YOLO (you only look once) — это архитектура детектора по распознаванию объектов в реальном времени. YOLO состоит из двух частей: encoder (свёрточные слои) и head (классификационный слой).
Энкодер выполняет роль первичной обработки изображений и извлечения признаков объектов. Обычно для этого используется Darknet или другая предобученная CNN.
Затем head принимает от энкодера признаки объектов и выполняет классификацию, после чего применяет пороговую фильтрацию и оставляет на выходе наиболее вероятные результаты.
Благодаря своей способности анализировать объекты одновременно на всём изображении, YOLO обеспечивает высокую скорость и точность распознавания объектов.
Также YOLO отличается хорошей обобщающей способностью. Он уверенно работает в различных условиях освещения и с разными типами камер (хотя и требует для этого большого количества обучающих данных, покрывающих различные условия). Это делает его востребованным в алгоритмах машинного зрения для роботов, дронов и автономного транспорта.
В микроблогах предлагают угадать по списку референсов, кто написал научную работу.

Список состоит из работ Юргена Шмидхубера — одного из самых цитируемых исследователей ИИ. На Google Scholar у него более 200 тыс. цитирований, индекс Хирша — 116.
Шмидхубер не стесняется своего статуса. Он даже хвастает им у себя на странице на сайте Института исследований искусственного интеллекта Далле Молле. Страница называется «Все самые цитируемые нейросети построены на работе, выполненной в моих лабораториях». В микроблоге Шмидхубер ещё более скромен: он говорит «нашей работе», а не «моей».
Вообще, преувеличить роль Шмидхубера сложно. Он мог бы побороться с Яном Гудфеллоу за право называть себя изобретателем генеративно-состязательных сетей.
Трансформеры — тоже развитие идей Юргена. 26 марта 1991 года он представил технику neural fast weight programmers. Аналог из наших дней — трансформеры с механизмом внутреннего внимания. Разве что ключ и значение в 1991 году назывались FROM и TO, соответственно. Как известно, термин «трансформеры» закрепился из работы 2017 года «Attention Is All You Need» Ашиша Васвани и других.
Впрочем, Юрген признаёт: это лишь демонстрирует ограниченность и самозацикленность англоязычного мира. На деле глубинное обучение зародилось в 1965 году в «Кибернетических предсказывающих устройствах» Алексея Ивахненко и Валентина Лапы академии наук УССР, считает Юрген.
Что касается документа со скриншота, это работа «One Big Net For Everything» 2018 года. Написал её тоже Шмидхубер.
Что такое "пирамида признаков"?
Рассказываем в рубрике #нейрословарь вместе с нашими экспертами из лаборатории больших данных.
Пирамида признаков (FPN, Feature Pyramid Net) — это вычислительная архитектура, используемая в машинном зрении для обработки изображений без привязки к их разрешению. Она позволяет обнаруживать объекты на изображениях различных размеров, масштабировать их и автоматически подстраиваться под меняющиеся условия.
Для анализа изображения FPN объединяет информацию из разных слоёв нейронной сети, после чего создаёт «пирамиду» — иерархическую структуру признаков. Если на изображении есть сравнительно большой объект, то FPN обрабатывает его на более высоком уровне пирамиды, а мелкую деталь — на более низком.
FPN широко используется во всех сферах, применяющих машинное зрение. Например, пирамида признаков используется для автоматического диагностирования рака груди по маммограммам и в системах помощи водителю для распознавания участников дорожного движения.
Основные конкурирующие архитектуры для FPN — U-Net и SegNet. Они менее требовательны к ресурсам, но работают только с изображениями фиксированного разрешения и распознают объекты определённого размера. FPN лишена этих ограничений, поэтому в условиях меняющегося окружения показывает более стабильные результаты.
Голосовой помощник Alexa от Amazon уличили в некорректных ответах. Так, он заявил, что президентские выборы 2020 года в США сопровождались фальсификациями, а голоса избирателей украли. При этом помощник ссылался на стриминговый сервис Rumble, пользующийся популярностью у консерваторов.
При этом Amazon продвигает Alexa как надёжный источник новостей о выборах. Пресс-секретарь компании заявил, что конкретно эту ошибку в ответе уже исправили. Он также отметил, что Alexa работает с «достоверными источниками», такими как Reuters, Ballotpedia и RealClearPolitics.
Теперь на вопрос о выборах 2020 года помощник отвечает: «Извините, я не могу ответить на этот вопрос». Если спросить «Кто победил на выборах 2020 года?», то помощник правильно отвечает: «Демократ Джо Байден», ссылаясь на результаты выборов агентства Reuters. Но, если переформулировать его, то Alexa по-прежнему рассказывает о фальсификациях. Непоследовательные ответы Alexa могут отражать попытку разработчиков опираться на широкий спектр источников новостей по всему политическому спектру для решения проблем, связанных с предвзятостью, говорит Мередит Бруссард, доцент Нью-Йоркского университета.
В 2024 году ожидается, что более 75 млн жителей США будут использовать Alexa по крайней мере один раз в месяц.
«Во время выборов мы указываем источники и средства массовой информации, чтобы клиенты точно знали, откуда поступает информация», — заявила компания.
WikiBot участвует в конкурсе стартапов на ProductRadar
Огромная просьба поддержать нас и попросить это сделать своих друзей:
Зайдите на сайт productradar.ru
Войдите с помощью яндекс или google
Проголосуйте за WikiBot
С меня вкуснейший кофе у меня дома и разговор о саморазвитии (='.'=)