Как стать автором
Обновить
597.08

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга
Уровень сложности

GPT-5 — чего ожидать от новой модели от Open AI? Возможности и потенциал искусственного интеллекта

Время на прочтение4 мин
Количество просмотров10K

Уже сейчас ChatGPT и «коллеги» оказывают огромное влияние на различные отрасли бизнеса, науку и обычную жизнь интернет-пользователя. При этом модели постоянно совершенствуются, становясь всё более умелыми — они получают новые возможности, функции, осваивают недоступные ранее для ИИ отрасли. Чего ожидать от следующей версии ChatGPT, GPT-5? Подробности — под катом.

Читать далее
Всего голосов 17: ↑16 и ↓1+15
Комментарии8

Американские издания судятся с OpenAI за кражу их контента

Время на прочтение5 мин
Количество просмотров2.5K

Используя тексты, произведённые трудом реальных людей (необязательно защищённый авторскими правами контент, но и user generated‑контент, творчество людей в соцсетях и по всему интернету) без указания источников и вознаграждения авторов, ИИ‑компании сами обедняют плодородную почву, на которой расцветает их продукт: если люди будут идти за информацией, которая требует журналистской, редакторской, авторской, расследовательской работы к чат‑ботам вместо соответствущих профильных изданий, то, когда подобные издания существенно сократят масштабы своей репортёрской и расследовательской деятельности или просто вымурт из‑за нехватки средств к существованию, то и ИИ будет больше нечем отвечать, кроме переваривания уже устаревшей информации и собственных галлюцинаций.

Читать далее
Всего голосов 20: ↑18 и ↓2+16
Комментарии7

Как устроено пространство, в котором думают языковые модели?

Уровень сложностиСложный
Время на прочтение5 мин
Количество просмотров16K

С момента выхода первой статьи «Attention is All You Need» я с жадностью и любопытством, присущими любому исследователю, пытаюсь углубиться во все особенности и свойства моделей на базе архитектуры трансформер. Но, если честно, я до сих пор не понимаю, как они работают и почему так хорошо обучаются. Очень хочу разобраться, в чём же причина такой эффективности этих моделей, и есть ли предел их возможностей?

Такому изучению трансформеров «под микроскопом» и посвящена наша научная работа, только что представленная на конференции EACL 2024, которая проходила на Мальте — «The Shape of Learning: Anisotropy and Intrinsic Dimensions in Transformer-Based Models». В этой работе мы сфокусировались на наблюдении за пространством эмбеддингов (активаций) на промежуточных слоях по мере обучения больших и маленьких языковых моделей (LM).

Читать далее
Всего голосов 52: ↑53.5 и ↓-1.5+55
Комментарии18

ИИ (AI) в WFM-системах

Уровень сложностиПростой
Время на прочтение7 мин
Количество просмотров567

Сложность планирования рабочих смен в ресторанах, фастфудах, кафе, отелях и колл-центрах часто связана с нерегулярными графиками, разнообразием рабочих ролей и требованием к специфическим навыкам сотрудников. Эффективное распределение смен напрямую влияет на качество обслуживания и финансовые показатели бизнеса.

Решение этой задачи подразумевает минимизацию рисков нехватки или избытка персонала и, как следствие, оптимизацию прибыли. В ответ на эти вызовы разрабатываются системы WFM, которые используют аналитику и автоматизацию для управления рабочим временем сотрудников, популярные во всем мире..

Читать далее
Всего голосов 3: ↑2 и ↓1+1
Комментарии0

Истории

Максимизируем продуктивность: Создание ИИ-секретаря с Whisper и ChatGPT

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров4.3K

Приветствую! Меня зовут Григорий, и я главный по спецпроектам в команде AllSee. В современном мире искусственный интеллект стал незаменимым помощником в различных сферах нашей жизни. Однако, я верю, что всегда нужно стремиться к большему, автоматизируя все процессы, которые возможно. В этой статье я поделюсь опытом использования Whisper и ChatGPT для создания ИИ‑секретаря, способного оптимизировать хранение и обработку корпоративных созвонов.

Читать далее
Всего голосов 10: ↑10 и ↓0+10
Комментарии8

Насколько близко мы подошли к созданию терминатора?

Уровень сложностиПростой
Время на прочтение11 мин
Количество просмотров4.4K

Хладнокровная машина, не знающая печали и жалости. Неумолимо и прямолинейно выполняющая поставленную ей задачу до конца. Таким запомнился зрителю терминатор из одноимённого фильма. Согласно его сценарию, бездушная машина прибыла к нам из будущего. И вот, именно сейчас мы подходим к тому времени, когда в мире из фильма машины берут верх над людьми.

Если обратить свое внимание на техническую сторону этого робота, то то, что удивляло в 1984 году, сейчас кажется чем-то знакомым, и уже маячит на горизонте. На каких же технологиях эти роботы построены там, глубоко внутри своего стального черепа?

Давайте всего на один день предположим, что Джеймс Кэмерон уже в 1984 году что-то знал и снял не фантастический фильм, а попытался послать нам предупреждение. Что если режиссёр фильма попробовал нас оградить от того, к чему может привести злоупотребление новыми технологиями и насколько мы смогли с их помощью приблизиться к созданию таких машин? Предлагаю сегодня, 1 Апреля 2024 года, провести глубокий и вдумчивый анализ механизмов работы терминатора и вместе найти ответ на этот животрепещущий вопрос.

Читать далее
Всего голосов 20: ↑17 и ↓3+14
Комментарии37

Стань серьезным  Web-программистом за 1 час. С ноля и бесплатно

Уровень сложностиПростой
Время на прочтение1 мин
Количество просмотров15K

В последнее время наблюдаются серьезные волнения, сколько еще программисты будут нужны и в каком качестве. Я решил свою лепту в нагнетании паники, но с долей оптимизма.

Для понимания и усвоения материала нужны только базовые знания питон (синтаксис и базовые понятия).

Не нужны знание и понимание html, css, xml, javascript(typescript), REST, Websockets,  и всех фреймворков для фронт и бэк Web-программирования.

Ну давай стану
Всего голосов 37: ↑19 и ↓18+1
Комментарии6

Лучшие бесплатные курсы и ресурсы для изучения машинного обучения

Уровень сложностиПростой
Время на прочтение21 мин
Количество просмотров16K

В этой статье я собрал огромную коллекцию курсов, книг, и ресурсов для всех, кто любит и изучает машинное обучение. Сохраняйте себе эту подборку, чтобы не потерять, по мере выхода новых курсов, подборка будет обновляться.

Благодаря этим бесплатным курсам, вы сможете расширить свои знания и навыки в области машинного обучения, data science и искусственного интеллекта, повысить свою конкурентоспособность на рынке труда и открыть для себя новые возможности в карьере. Независимо от вашего уровня подготовки и опыта, вам обязательно найдется курс, который поможет вам достичь ваших целей.

Платные курсы могут оказаться достаточно затратными, особенно для новичков в области машинного обучения. При наличии достаточной мотивации и желания можно успешно освоить эту область без необходимости тратить деньги на платные курсы.

Читать
Всего голосов 25: ↑19 и ↓6+13
Комментарии7

Китайская компания Intellifusion представила 14-нм ИИ-процессор. Что это за чип и для чего он нужен?

Время на прочтение4 мин
Количество просмотров4.6K

В КНР, как известно, сейчас есть сложности с закупкой ИИ-чипов Nvidia и AMD. Поэтому китайским организациям, которым нужны GPU для работы с искусственным интеллектом, приходится решать проблемы собственными силами. Есть разные способы, один из них на днях представила компания Intellifusion, которая разработала специализированные процессоры. Причем стоимость таких компонентов очень невысокая. Подробности под катом!
Читать дальше →
Всего голосов 41: ↑39 и ↓2+37
Комментарии4

Линейная регрессия. Основная идея, модификации и реализация с нуля на Python

Уровень сложностиСложный
Время на прочтение16 мин
Количество просмотров11K

В машинном и глубоком обучении линейная регрессия занимает особое место, являясь не просто статистическим инструментом, но а также фундаментальным компонентом для многих более сложных концепций. В данной статье рассмотрен не только принцип работы линейной регрессии с реализацией с нуля на Python, но а также описаны её модификации и проведён небольшой сравнительный анализ основных методов регуляризации. Помимо этого, в конце указаны дополнительные источники для более глубокого ознакомления.

Читать далее
Всего голосов 18: ↑17 и ↓1+16
Комментарии11

Attention is Not All You Need: как менялась архитектура трансформера

Уровень сложностиСложный
Время на прочтение4 мин
Количество просмотров4.4K

С момента выхода оригинальной статьи про трансформер прошло уже больше 7 лет, и эта архитектура перевернула весь DL: начав с NLP архитектура теперь применяется везде, включая генерацию картинок. Но та ли это архитектура или уже нет? В этой статье я хотел сделать краткий обзор основных изменений, которые используются в текущих версиях моделей Mistral, Llama и им подобным.

Читать далее
Всего голосов 21: ↑21 и ↓0+21
Комментарии4

Оптимизация нейронки в Tensorflow?

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров3K

В отличие от Pytorch, где структура данных выстраивается налету после начала обучения нейронки – в TensorFlow граф статичен. В этой статье мы кратко расскажем про некоторые способы ускорения обучения путем изменения графа вычислений: XLA, GraphTransform Tool, квантизация, заморозка графа и сохранение легкого чекпоинта.  

Читать далее
Всего голосов 7: ↑6 и ↓1+5
Комментарии0

Автоматизируем поиск ценной информации в групповых чатах Telegram с помощью LLM

Уровень сложностиСредний
Время на прочтение17 мин
Количество просмотров10K

Устали мониторить бесконечные групповые чаты в Telegram в поисках важной информации? Решение есть! Пишем компактное приложение на Python, которое будет делать это за нас с использованием LLM.

Читать далее
Всего голосов 20: ↑18 и ↓2+16
Комментарии16

Ближайшие события

Магия управления игрой через GigaChat (или любой другой моделью)

Уровень сложностиПростой
Время на прочтение2 мин
Количество просмотров1.7K

Гифка отображает пример использования, а из ограничений - только ваше воображение и кошелек :)

Пример с промптом, кодом и вообще полным проектом - внутри.

И как это работает?
Всего голосов 5: ↑4 и ↓1+3
Комментарии8

Рекуррентные сети против трансформеров

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров5K

Или история о том, как научная статья "Вам нужно только внимание..." немного перевернула игру и индустрию ИИ. 

Трансформеры становятся сотами или попросту попадают в самые последние решения сферы NLP. Кстати, заслужили свою популярность они вообще недавно — только в 2017 году, когда курс доллара был 60 рублей, а для ТГ-каналов с новыми ИИ не исчислялись тысячами.

Читать далее
Всего голосов 9: ↑8 и ↓1+7
Комментарии10

Уязвимые гиганты: что общего между зулусским языком и LLM

Уровень сложностиПростой
Время на прочтение10 мин
Количество просмотров2.9K

Сейчас, когда каждый чих в интернете может привести к новому стартапу или технологическому прорыву, большие языковые модели (LLM) занимают своё законное место на передовой научно-технического прогресса. Они умнее, быстрее и эффективнее человека в ряде задач: написание кода, создание контента, перевод текстов и многое другое. Однако, такая высокая степень умения ставит нас перед новым набором проблем – их безопасностью и устойчивостью.

Кто бы подумал, что искусственный интеллект кусается? На деле, конечно, дело не в физическом нападении, а в уязвимостях, которые могут быть использованы злоумышленниками. Большие языковые модели действительно могут попасть под угрозу, и влияние таких событий может оказаться далеко не виртуальным.

Меня зовут Дарья Лютова, я data scientist в ЦАД ВАВТ, также я учусь в магистратуре AI Talent Hub ИТМО и интересуюсь вопросами обучения и безопасности языковых моделей. В этом посте, вместе с вами, хочу пойти дальше простого обсуждения существования уязвимостей в LLM и предлагаю вникнуть в тему проблем безопасности, касающуюся больших языковых моделей, выявить слабые места и прийти к пониманию методов их укрепления. Очень надеюсь, что эта информация поможет тем, кто преследует цель не только достичь новых высот в области AI, но и удостовериться, что их достижения надежны и устойчивы к киберугрозам.

Поехали!
Всего голосов 13: ↑12 и ↓1+11
Комментарии8

Варим кашу из нечеткой логики и вариационных автоэнкодеров

Уровень сложностиСложный
Время на прочтение13 мин
Количество просмотров2.1K

Пока весь мир затаив дыхание следит за большими языковыми моделями и одни грезят о том, как подсадят всех на свои сервисы LLM, а другие прикидывают как заменить бездушными симулякрами если не зажравшихся айтишников, то хотя бы штукатуров и бухгалтеров, обычным ML‑инженерам, по щиколотку в коричневой жиже машинного обучения, приходится решать приземлемые задачи чем бог послал.

В этой статье мы хотим представить вашему вниманию инструмент из нашего арсенала, который позволяет упростить и ускорить разметку, искать аномалии и контролировать генерацию синтетических датасетов с помощью нейросетевых моделей CVAE и нечеткой логики.

Читать далее
Всего голосов 15: ↑15 и ↓0+15
Комментарии8

Обработка текста. Модель Sequence-to-sequence

Уровень сложностиСложный
Время на прочтение9 мин
Количество просмотров722

Модель Sequence to sequence

Рассмотрим принцип работы модели seq2seq, модификации, как верно подготовить данные для модели.

Читать далее
Всего голосов 3: ↑3 и ↓0+3
Комментарии1

Эффект бабочки и рынки (ч.1)

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров2.6K

Люди часто не понимают “Эффект бабочки”, в котором микроскопическое изменение в начале может потом привести к весьма непредсказуемым последствиям. Понимание того, как устроен данный эффект, может дать другой взгляд на инвестиции и трейдинг, бизнес, маркетинг, политику и многое другое.

Читать далее
Всего голосов 13: ↑9 и ↓4+5
Комментарии7

GPT-2030 и катастрофические стремления — четыре зарисовки

Уровень сложностиСредний
Время на прочтение16 мин
Количество просмотров2.3K

Это перевод статьи Якоба Стейнхардта, базирующейся на двух предыдущих, уже переведённых статьях: "Какой будет GPT-2030?" и "Внутренние стремления и внешние злоупотребления — переплетённые риски ИИ".

Я уже писал о способностях, которых можно ожидать от будущих ИИ-систем, на примере GPT2030 – гипотетического наследника GPT-4, обученного в 2030 году. GPT2030 обладала бы весьма продвинутыми способностями, включая сверхчеловеческие навыки программирования, взлома и убеждения, способность думать быстрее людей и быстро обучаться, разделяя информацию между параллельными копиями, и, возможно, другие сверхчеловеческие навыки вроде проектирования белков. Давайте называть “GPT2030++” систему, которая обладает этими способностями и, в дополнение к ним, умеет планировать, принимать решения и моделировать мир не хуже людей. Я использую допущение, что во всём этом мы в какой-то момент достигнем как минимум человеческого уровня.

Ещё я писал о том, как несогласованность, злоупотребления и их комбинация усложняют контроль ИИ-систем. Это относится и к GPT2030. Это тревожит, ведь, получается, нам придётся столкнуться с очень мощными системами, которые будут очень плохо поддаваться контролю.

Меня тревожат суперинтеллектуальные агенты с несогласованными целями и без надёжного метода контроля за ними. Для этого даже не обязательны конкретные сценарии того, что может пойти не так. Но я всё же думаю, что примеры были бы полезны. Поэтому я опишу четыре достаточно конкретных сценария того, как GPT2030++ могла бы привести к катастрофе. Они охватят как несогласованность, так и злоупотребления, и проиллюстрируют некоторые риски экономической конкуренции ИИ-систем. Я буду конкретно обосновывать правдоподобность “катастрофических” исходов – масштаба вымирания, перманентного обессиливания человечества и потери ключевой социальной инфраструктуры.

Читать далее
Всего голосов 7: ↑4 и ↓3+1
Комментарии1

Вклад авторов