Как стать автором
Обновить
1080.09

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

Что такое "пирамида признаков"?

Рассказываем в рубрике #нейрословарь вместе с нашими экспертами из лаборатории больших данных.

Пирамида признаков (FPN, Feature Pyramid Net) — это вычислительная архитектура, используемая в машинном зрении для обработки изображений без привязки к их разрешению. Она позволяет обнаруживать объекты на изображениях различных размеров, масштабировать их и автоматически подстраиваться под меняющиеся условия.

Для анализа изображения FPN объединяет информацию из разных слоёв нейронной сети, после чего создаёт «пирамиду» — иерархическую структуру признаков. Если на изображении есть сравнительно большой объект, то FPN обрабатывает его на более высоком уровне пирамиды, а мелкую деталь — на более низком.

FPN широко используется во всех сферах, применяющих машинное зрение. Например, пирамида признаков используется для автоматического диагностирования рака груди по маммограммам и в системах помощи водителю для распознавания участников дорожного движения.

Основные конкурирующие архитектуры для FPN — U-Net и SegNet. Они менее требовательны к ресурсам, но работают только с изображениями фиксированного разрешения и распознают объекты определённого размера. FPN лишена этих ограничений, поэтому в условиях меняющегося окружения показывает более стабильные результаты.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Голосовой помощник Alexa от Amazon уличили в некорректных ответах. Так, он заявил, что президентские выборы 2020 года в США сопровождались фальсификациями, а голоса избирателей украли. При этом помощник ссылался на стриминговый сервис Rumble, пользующийся популярностью у консерваторов.

При этом Amazon продвигает Alexa как надёжный источник новостей о выборах. Пресс-секретарь компании заявил, что конкретно эту ошибку в ответе уже исправили. Он также отметил, что Alexa работает с «достоверными источниками», такими как Reuters, Ballotpedia и RealClearPolitics.

Теперь на вопрос о выборах 2020 года помощник отвечает: «Извините, я не могу ответить на этот вопрос». Если спросить «Кто победил на выборах 2020 года?», то помощник правильно отвечает: «Демократ Джо Байден», ссылаясь на результаты выборов агентства Reuters. Но, если переформулировать его, то Alexa по-прежнему рассказывает о фальсификациях. Непоследовательные ответы Alexa могут отражать попытку разработчиков опираться на широкий спектр источников новостей по всему политическому спектру для решения проблем, связанных с предвзятостью, говорит Мередит Бруссард, доцент Нью-Йоркского университета.

В 2024 году ожидается, что более 75 млн жителей США будут использовать Alexa по крайней мере один раз в месяц.

«Во время выборов мы указываем источники и средства массовой информации, чтобы клиенты точно знали, откуда поступает информация», — заявила компания.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

WikiBot участвует в конкурсе стартапов на ProductRadar

Огромная просьба поддержать нас и попросить это сделать своих друзей:

  1. Зайдите на сайт productradar.ru

  2. Войдите с помощью яндекс или google

  3. Проголосуйте за WikiBot

С меня вкуснейший кофе у меня дома и разговор о саморазвитии (='.'=)

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Джарет Баркетт [Jarett Burkett] представил LoRA для Stable Diffusion XL, которая помогает генерировать картинки в стиле инструкций «ИКЕА».

К многим предметам нидерландской компании приложены инструкции по сборке, выполненные в характерном стиле. Для простоты локализации товаров транснациональной сети магазинов слова на буклете (кроме названия) отсутствуют, что только усиливает запоминаемость образов. Поэтому икеевские инструкции любят пародировать за простоту и узнаваемость графического языка.

Простой промпт balalaika без уточнений
Простой промпт balalaika без уточнений

К файлам проекта Ikea Instructions Баркетт приложил примеры работ. С этой LoRA он сгенерировал как людей, персонажей или предметы (хиппи, Барби с Кеном, гамбургер), так и процессы (сон).

Забавно, что модель с удовольствием вставляет в инструкцию шестигранник даже там, где он вряд ли нужен. В примерах он появляется в гардеробе Кена.

huggingface.co/ostris/ikea-instructions-lora-sdxl

Страница на Civitai

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии2

Bing Chat AI заблокировала генерацию картинок с Дрейком. Если упомянуть Drake в запросе на картинку, фильтр по стоп-слову выдаст предупреждение о невозможности генерации.

Встроенный в чат генератор картинок DALL-E 3 от OpenAI хорошо приспособлен выдавать любые образы по запросу пользователя. Этим незамедлительно воспользовались сетевые шутники. Канадский рэпер в их воображении ржёт как конь над детьми в снежных шарах, пилотирует Евангелион или просто (видимо, фантазия кончилась) руководит Третьим рейхом.

Дрейк дразнит девочку за узкие глаза
Дрейк дразнит девочку за узкие глаза

Вообще, у Microsoft хватает проблем с новым инструментом. Bing Chat AI с трудом пытается отфильтровать башни-близнецы Всемирного торгового центра в Нью-Йорке, на которые повадились запускать самолёты с Марио и Спанч Бобом за штурвалом.

Комбо, где атаки 11 сентября проводит Дрейк, тоже есть.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

BBC присоединилась к СМИ, которые заблокировали для OpenAI сбор данных для обучения ИИ. Компания изложила принципы, которым она планирует следовать при оценке использования генеративного искусственного интеллекта.

Директор BBC по нациям Родри Талфан Дэвис заявил, что телекомпания оценивает технологию как способную принести «большую пользу аудитории и обществу».

Три руководящих принципа компании заключаются в том, что она всегда будет действовать в интересах общественности, отдавать приоритет таланту и творчеству, уважая права художников, а также будет открытой и прозрачной в отношении продукции, созданной искусственным интеллектом. BBC заявила, что будет работать с технологическими компаниями, другими СМИ и регуляторами, чтобы безопасно развивать генеративный ИИ и поддерживать доверие к новостной индустрии.

«В ближайшие несколько месяцев мы начнем ряд проектов, изучающих использование искусственного интеллекта как в том, что мы делаем, так и в том, как мы работаем, чтобы лучше понять как возможности, так и риски», — сказал Дэвис. Так, BBC изучит, как генеративный ИИ может повлиять на журналистские исследования и производство контента, обнаружение и архивирование публикаций, а также обеспечение персонализированного опыта.

Ранее CNN, The New York Times, Reuters и другие новостные организации уже запретили поисковым ботам получать доступ к их материалам, защищённым авторским правом. 

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии0

Китайцы научились создавать и использовать в торговле очень реалистичных аватаров. Причём это аватары реальных людей - инфлюенсеров - умеющих активно двигать продажи. Вот статья об этом в MIT Technology Review: Deepfakes of Chinese influencers are livestreaming 24/7 | MIT Technology Review

1. Во-первых, очевидно, что Китай живёт в каком-то своём мире. Причём очень прогрессивном мире. У нас товары в интернете покупают на Озоне или в Яндекс Маркете, или на каком-то аналогичном маркетплейсе, который, по сути - это виртуальная полка с товарами. А у китайцев какие-то стриминговые платформы, которые заселены аватарами, круглосуточно втюхивающими ненужное барахло населению

2. Реклама и раньше-то была вещью в себе, а теперь и подавно... Крупнейшие компании мира (Гугл, Фэйсбук) зарабатывают деньги именно на рекламе. Реклама - это триллионы долларов. И это триллионы, которые всё равно, в итоге, платит потребитель. Реклама - это один из самых продаваемых "товаров в мире". И так как некоторые из крупнейших технологических компаний зарабатывают именно на рекламе, то и новые технологии во многом вертятся вокруг рекламы, а не вокруг того, чтобы полететь на другую планету, например. Вот и дип фейки прижились именно в рекламе

3. Раньше монополия на то, чтобы говорить, как человек, и выглядеть, как человек, была у человека. Сейчас это уже не так. Немного непривычно..

4. В статье есть пример того, как аватар вертит рекламируемый продукт перед "камерой". Интересно, как аватаров научили это делать...

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии1

Если проанализировать историю технического прогресса, то очень часто там можно встретить такой паттерн: одни люди пытаются повторить достижения природы (например сделать крылья и махать ими как птицы) а другие находят какой-то альтернативный механизм, который природа почему-то не использует и с его помощью решают ту же задачу успешнее. Примеры тому - винт, позволяющий людям летать и плавать быстрее всех живых существ, радиоволны для передачи информации, элетрический ток для передачи энергии и т.д. 

При решении интеллектуальных задач происходит, на мой взгляд, нечто подобное. При создании шахматных программ Ботвинник долго пытался создавать их, опираясь на своё понимание устройства мышления шахматиста, а Амосов пытался создавать ИИ на основе своего понимания строения мозга человека. Но в ИИ "выстрелили" совсем иные механизмы. 

Трансформеры, найденные на "обочине" "столбового пути" ИИ (в понимании нулевых годов) тоже "выстрелили" и скорее всего займут (как мне кажется) в ИИ роль винта в воздухоплавании. 

В этом смысле их стоит изучать. Мне попалась очень хорошая лекция на этот счёт, которую я рекомендую посмотреть новичкам (как я) в этой жутко интересной области.

Теги:
Всего голосов 4: ↑4 и ↓0+4
Комментарии7

Секта водохлёбов добралась до искусственного интеллекта. Любители посчитать расход аш-два-о до этого с удовольствием приводили статистику, сколько ценного вещества нужно для выращивания, к примеру, говядины. Получается страшное: на килограмм стейка нужно более 15 тонн влаги — куда больше, чем для выращивания бобов сои или пшеницы. Предполагается, что затем такими числами нужно стыдить наглых любителей вкусить чужой плоти.

На деле речь идёт про осадки. Дождь и снег всё равно выпадут на лужайку, будет на ней пастись корова или нет. А вот выпас скота качество почвы лишь улучшит. (Про негативный эффект от засева огромных полей монокультурой говорить не принято вовсе.) Также внутри бурёнки не встроен портал в параллельное измерение, куда вода исчезает — всё потреблённое она рано или поздно отдаст обратно.

Некий микроблогер приводит график, согласно которому на обучение GPT-4 ушло в разы больше воды, чем потребляет в неделю аквапарк. Вывод простой: эдак скоро пить нечего будет.

Впрочем, к твиту приделали успокоительную пометку сообщества. Огромная корпорация Microsoft, которая хостит вычислительные мощности OpenAI, тратит на охлаждение своих многочисленных вычислительных центров лишь одну стотысячную процента потребления пресной воды США.

С само́й статистикой мало кто спорит: на обучение предыдущей версии GPT, GPT-3, ушло 700 тонн воды.

Как обычно, речь идёт про расход. Вода при этом уходит в почву или атмосферу, но не исчезает с планеты. Очевидно, что из цикла обмена воду не изымают.

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии1

Однажды наши эксперты из лаборатории больших данных вдруг заговорили о трансформерах (transformers). Оказалось, что это не только роботы, но и прогрессивное семейство архитектур нейросетей от Google. Оно появилось в 2017 году и совершило настоящую революцию во многих областях машинного обучения, особенно в обработке естественной речи (NLP).

Ключевые элементы трансформеров — это энкодер и декодер. Первый выполняет преобразование входных данных в векторы, а второй генерирует ответ после ряда операций с векторами.

Это может быть текстовый ответ чат-бота, или озвученный с помощью синтеза речи ответ голосового ассистента. Если ответ формируется на другом языке, то мы получаем систему машинного перевода, вроде Google Translate.

За исключением вычисления средневзвешенного значения, все операции в трансформерах выполняются над отдельными векторами входной последовательности. Поэтому трансформеры можно эффективнее распараллелить и быстрее обучить, чем используемые до их появления рекуррентные нейронные сети (RNN).

Напишите, какие ещё термины из сферы машинного обучения вам хотелось бы разобрать в нашей рубрике #нейрословарь.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Всего через несколько часов начнется митап для Data‑специалистов — RSHB Data Integration Meetup. Приглашаем всех желающих послушать доклады, принять участие в обсуждениях и розыгрыше призов.

В программе:

  • Вячеслав Жуков, Aero — «Концепция Data Governance для систематизации работы с данными»

  • Антон Агеев, РСХБ‑Интех — «Управление данными как шаг к применению искусственного интеллекта»

  • Павел Филонов, независимый консультант — «Как оценить влияние DS‑метрик на итоговые бизнес‑результаты проекта»

Начало — 19:00 МСК
Бесплатная регистрация на онлайн‑трансляцию проходит на сайте РСХБ в цифре.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Инженер стартапа Airchat Сигил Уэн портировал GPT-2 на Apple Watch Ultra 2. Большая языковая модель запускается локально, прямо на запястье, на всех 4 ядрах нейроускорителя Neural Engine системы в корпусе Apple S9.

Здесь тяжело отыскать практическую ценность. Нейросеть пытается продолжать промпт. Для видеоролика выбор пал на фразу «The meaning of life is», которую GPT-2 развивает в связный текст с законченной мыслью. Генерация идёт медленно: заметно, что на токен уходит больше секунды. По достижении отметки в 30 токенов приложение падает.

Как предполагает Уэн, кончается память — у Ultra 2 всего 1 ГиБ ОЗУ. Автор проекта считает, что такая демонстрация на умных часах доказывает, что в дальнейшем часть вычислений искусственного интеллекта станет граничными (on edge), то есть будет выполняться в пределах конечных устройств.

Разработчик поделился произведённым на своём аккаунте GitHub.

github.com/Sigil-Wen/WatchGPT2

Теги:
Всего голосов 5: ↑5 и ↓0+5
Комментарии1

Что такое многослойный перцептрон (MLP)? Рассказывают эксперты из лаборатории больших данных компании "Криптонит".

Многослойный перцептрон (MLP) — это одна из элементарных архитектур, с которой часто начинают освоение нейронных сетей и принципов их обучения. Обычно его сравнивают с такими типами моделей машинного обучения, как опорно-векторная машина и сети Кохонена. По сравнению с ними, MLP предоставляет более точные результаты, особенно в задачах классификации.

Для обучения MLP используется принцип обратного распространения ошибки. Одно из преимуществ MLP — способность обучаться на наборах данных любого размера.

В чистом виде MLP уже не используется для решения практических задач в области ML, но применяется в составе более сложных нейросетей.

Исторически MLP применялся для анализа самых разных типов данных — медицинских, финансовых, технических и других, позволяя прогнозировать состояние сложных систем. Кроме того, MLP даже использовали в ранних версиях таких приложений ИИ, как виртуальные помощники, сервисы распознавания рукописного текста и транскрибации речи.

Сейчас для каждого из этих направлений разработаны более продвинутые архитектуры, о которых мы расскажем в следующих выпусках нашей рубрики #нейрословарь.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Ближайшие события

Релиз Wunjo AI 1.5.5. Что нового?

  • Добавлено клонирование голоса на русский язык.

  • Оптимизация анимации лица, сокрытие не нужных элементов, исправление ошибок работы с gif.

  • Улучшено отображение логов в консоли.

  • Индикатор занимаемого места на диске для результатов синтеза речи и дипфейков.

Дата выхода: 23.09.23.

Видео всех возможностей проекта с открытым исходным кодом для создания дипфейков, синтеза и клонирования речи.

Теги:
Рейтинг0
Комментарии0

28 сентября в офисе РСХБ-Интех на Теплом Стане пройдет митап для Data-специалистов — RSHB Data Integration Meetup. Приглашаем всех желающих послушать доклады, принять участие в обсуждениях и розыгрыше призов. Можно прийти на митап лично или зарегистрироваться на онлайн-трансляцию.

В программе:

  • Вячеслав Жуков, Aero — «Концепция Data Governance для систематизации работы с данными»

  • Антон Агеев, РСХБ-Интех — «Управление данными как шаг к применению искусственного интеллекта»

  • Павел Филонов, независимый консультант — «Как оценить влияние DS-метрик на итоговые бизнес-результаты проекта»

Участие в митапе бесплатное. Количество мест для офлайн-участия ограничено.

Регистрация и подробности о мероприятии на сайте РСХБ в цифре.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Применение Искусственных Нейронных Сетей.
Компьютерное зрение (Computer Vision)

Искусственные Нейронные Сети являются мощными инструментами для решения многих задач и широко применяются различными организациями.

Данное видео посвящено примерам из группы задач "Компьютерное зрение (Computer Vision)"

Видео подготовлено на основе предыдущей статьи
Варианты применения Искусственных Нейронных Сетей. Компьютерное зрение (Computer Vision)

Теги:
Рейтинг0
Комментарии0

Amazon обновит Alexa инструментами генеративного искусственного интеллекта. Помощник теперь способен распознавать разговорные фразы и более эффективно интерпретировать контекст, а также выполнять несколько запросов с помощью одной команды.

Помощник теперь сможет реагировать на фразу вроде «Alexa, мне холодно», чтобы увеличить температуру на подключённом термостате. При добавлении нового устройства можно будет сказать: «Alexa, включи новый свет». В LLM внедрили более 200 API-интерфейсов для умного дома. Также помощник будет реагировать на команды вроде «Alexa, включи разбрызгиватели, открой дверь моего гаража и выключи внешнее освещение».

Amazon также выпустила два инструмента, которые позволяют Alexa контролировать некоторые уникальные функции продуктов сторонних производителей, которые необязательно входят в набор инструментов экосистемы умного дома самой компании. Это функции динамического контроллера и контроллера действий. Первая позволит более естественно отображать такие функции, как предварительно созданные сцены для управления освещением. Вторая позволит разработчикам добавлять простые действия, на которые будет реагировать Alexa. 

Amazon уже работает над этими функциями с GE Cync, Philips, GE Appliances, iRobot, Roborock и Xiaomi и открывает программу для большего числа разработчиков. 

Пока компания будет внедрять новые функции постепенно и только в США для пользователей Echo. Новую версию Alexa решили сделать платной.

Теги:
Рейтинг0
Комментарии0

Что вас ждет на Selectel Tech Day?

Через два дня пройдет масштабная конференция Selectel Tech Day 2023, посвященная IT-инфраструктуре для бизнеса. Ожидаете мероприятие так же, как и мы? Тогда самое время познакомиться со спикерами и темами их докладов. 

Присоединиться →

Железо и оборудование

Тренды рынка IT-инфраструктуры и секретная презентация новых продуктов Selectel

  • Константин Ансимов, директор по продуктам Selectel

HW в 2023 году в условиях санкций: что нам доступно и что там в части performance 

  • Кирилл Малеванов, технический директор Selectel

  • Денис Божок, технический директор Ostrovok.ru

Облачные технологии

Любое 1С приложение в облаке — реальность или миф?

  • Александр Тугов, директор по развитию услуг Selectel

ZeroTrust в Kubernetes: не пустые слова

  • Дмитрий Евдокимов, Founder&CTO компании Luntry

Информационная безопасность 

Как отбиваться от атак: актуальные угрозы и способы защиты

  • Антон Ведерников, руководитель отдела разработки и сопровождения сервисов ИБ Selectel

Security&Compliance как фича продукта, или как зарабатывать больше

  • Андрей Давид, руководитель отдела продуктов клиентской безопасности Selectel.

Machine learning

Как ускорить выполнение ML-экспериментов в несколько раз?

  • Ефим Головин, MLOps-инженер Selectel

Почему сложно сделать собственный ChatGPT?

  • Антон Чунаев, менеджер ML-продуктов Selectel

Подробнее ознакомиться с программой и спикерами вы можете на сайте.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Магия самообучения или Self-Supervised Learning

#нейрословарь

В своих разработках «Криптонит» активно использует искусственные нейронные сети. Поэтому мы решили расшифровать связанные с этой сферой термины и их практический смысл. Все материалы из рубрики "Нейрословарь" подготовлены при помощи наших экспертов из лаборатории больших данных.

Self-Supervised Learning или магия самообучения. Способность нейросетей к самообучению выглядит фантастически, но на самом деле это всего лишь метод ML, основанный на избыточности данных. В отличие от классического подхода «обучение с учителем», здесь не требуются аннотированные человеком примеры (размеченные изображения, проверенные фрагменты текста и т.д.).

В парадигме self-supervised learning нейросеть учится на «сырых» (немаркированных) данных. Она сама расставляет метки при первом прогоне обучающей выборки, а затем использует их на следующих этапах обучения. Обычно для достижения сравнимого результата при самообучении требуется в разы больше данных, поэтому метод неприменим для автоматической классификации редких событий. Зато он удобен в тех случаях, когда можно дать ИИ массу однотипных примеров.

Иногда словосочетание self-supervised learning сокращается до SSL, но из контекста обычно понятно, когда речь идёт о самообучении, а когда о Secure Sockets Layer. Впрочем, ИИ уже применяют для анализа трафика, поэтому фраза «SSL для SSL» тоже не лишена смысла.

PS: Какие еще термины из сферы ИИ нам еще раскрыть? Пишите в комментариях!

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии0

Что изменилось на рынке IT-инфраструктуры в 2023 году? 

Уже в следующий четверг, 21 сентября, мы соберемся на Selectel Tech Day 2023 — масштабной конференции про IT-инфраструктуру для бизнеса. Расскажем о новинках серверного рынка, поделимся опытом коллег из Ostrovok.ru, X5 Group, ПИК и Luntry. А также эксклюзивно анонсируем обновления в наших продуктах. 

Кому не нужен Kubernetes? Как подобрать инфраструктуру под ML-проекты? Какое аппаратное оборудование доступно на рынке и насколько оно вам подойдет? Выбирайте из 17 докладов на актуальные темы и подключайтесь к онлайн-трансляции.

Зарегистрироваться →

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0