Все потоки
Поиск
Написать публикацию
Обновить
841.43

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Неросети GPT 5 Pro и Gemini 2.5 Pro Deep Think ответили профильному эксперту Денису Ширяеву на вопрос: «Если бы за всю жизнь, человек мог бы прочитать строго 10 книг, не больше, какие книги это были бы и почему?».

Ответ ИИ:

  • Карл Саган — «Космос». Книга о фундаментальном строении вселенной, космогонии и скептицизме. Автор показывает красоту сомнения во всем и способы выхода за рамки традиционного мышления.

  • Донелла Медоуз — «Азбука системного мышления» (Thinking in Systems). Произведение, которое помогает декомпозировать любые системы: от политических партий до финансовых рынков и ИТ‑платформ и проследить их реакцию на непредвиденные обстоятельства.

  • Даниэль Канеман — «Думай медленно… решай быстро». Буквально азбука когнитивных искажений, а также подлинная инструкция по выживанию в мире инфошума и постоянных отвлечений.

  • Элизабет Колберт — «Шестое вымирание». Книга помогает проследить полный спектр изменений в человеке и обществе в контексте истории, экономики и политики.

  • Марк Аврелий — «Размышления». Шедевр стоицизма. Книга бустит внимание, помогает воспитать непоколебимую дисциплину, отличать контролируемые факторы от хаоса и проповедует мягкую, но твердую доброту.

  • Мэри Шелли — «Франкенштейн, или Современный Прометей». Книга о том, что знание и сила не даруют право, не позволяют распоряжаться чужими жизнями. Крайне актуальна в эпоху биотехнологий и нейросетей.

  • Вирджиния Вулф — «Своя комната». Чеклист и инструкция для воспитания истинного таланта и его развития, а также преодоления социальных, экономических, политических и гендерных барьеров.

  • Джордж Оруэлл — «1984». Практические пособие по тоталитаризму и новоязу, особенно, в цифровой среде.

  • Чинуа Ачебе — «Распад» (Things Fall Apart). Книга рассказывает о распаде колониальных империй, цене прогресса и нелегкой судьбе стран, вышедших из‑под власти метрополий. Нереальная прокачка ваших моральных ценностей.

  • Федор Достоевский — «Братья Карамазовы». Книга о границах истинной свободы и ответственности за свои решения и поступки. Фундаментальный анализ человеческих страстей и мотивации.

Теги:
Всего голосов 14: ↑2 и ↓12-9
Комментарии4

При чтении раздела постов Хабра моё внимание привлекла публикация, где автор размышлял про опечатки в промптах. Хочется вынести пару собственных мыслей из комментария в отдельный пост.

Да, слова разбиваются на токены. В токенизаторе обычно много слов английского языка, слабее представлены уже остальные западноевропейские. Некоторые языки — например русский — у многих моделей выражены как соответствие одного токена на одну букву. В любом случае, кажется, что если изменить одну букву в слове, то всё сломается, и качество ответов катастрофически упадёт, поскольку искомый токен (или их последовательность) не получится.

На деле не всё так плохо. Без каких-либо особых усилий языковые модели легко выдерживают небольшое число опечаток в промпте и не снижают качество ответов (arXiv:2407.08989). Конечно, не последнюю роль играет, в каких словах сделана опечатка (arXiv:2411.05345).

Сейчас доступ к моделям с reasoning кое-где дают даже бесплатно. Такие чат-боты не пытаются быстренько ответить, а могут несколько секунд, пару минут или хоть чертверть часа размышлять над ответом, самостоятельно искать дополнительную информацию в Интернете и вызывать другие внешние инструменты. Если заглянуть внутрь, то обычно один из первых шагов размышлений — это перефразирование пользовательского запроса. Модель говорит сама себе: «Пользователь хочет X». Из ещё одной статьи известно, что простое перефразирование пользовательского запроса повышает качество ответов (arXiv:2309.10687).

Но это всё скучные исследования. Практическая демонстрация: возможно получить хороший внятный ответ хоть на запрос вида «Rgw suddwewbxw vwrqwwb X, E%1 cwxreia>». В примере ниже ChatGPT 5 Thinking сама догадывается, что пальцы пользователя соскочили на одну клавишу влево.

На самом деле этот пример я додумал из подсмотренного на подреддите /r/OpenAI. Три недели назад реддитор mimic751 показал, что ChatGPT без размышлений ответил на вопрос с огромным числом опечаток — у пользователя пальцы не попадали по клавиатуре и нажимали на кнопки рядом с нужными буквами. При этом в отличие от моего примера это был не строгий шифр, а мешанина из примерно десятка правильных нажатий с двумя десятками опечаток.

Как видно, опечатки в промптах нежелательны, но языковые модели из-за своей статистической натуры прощают очень многое.

Теги:
Всего голосов 12: ↑12 и ↓0+14
Комментарии5

Илон Маск сообщил, что зарегистрировал Macrohard — компанию, которая будет выступать прямым конкурентом Microsoft. Планируется, что этот проект займётся разработкой ПО и ИИ-проектами.

«Название шуточное, но проект вполне реален!», — написал Маск. Проект Macrohard он охарактеризовал как «компанию, в которой разработкой ПО занимается исключительно ИИ», так что она будет связана с xAI. «В принципе, учитывая, что такие компании — разработчики ПО как Microsoft — сами не выпускают физического оборудования, их работу должно быть возможно полностью симулировать с помощью ИИ», — пояснил Маск.

Теги:
Всего голосов 3: ↑3 и ↓0+7
Комментарии2

Потребление энергии американскими дата‑центрами стремительно растет из‑за искусственного интеллекта. Они потребляют огромное количество электричества. По оценкам экспертов, ChatGPT-5 может потреблять до 20 раз больше энергии, чем ChatGPT-1. Это увеличивает стоимость электричества для всех потребителей, но если дата‑центры и ИИ‑компании получают прибыль, то граждане просто платят все больше и больше.

Теги:
Всего голосов 2: ↑2 и ↓0+5
Комментарии2

Влияют ли орфографические ошибки в запросе на ответ нейросети?

Лично я часто отправляю в нейросеть сырой текст с ошибками, но она всегда меня понимает и делает то, о чём я её прошу.

Получается, нейросетям не так важно, есть ли ошибки в тексте?

Не совсем.

Нейросети устроены так, что могут догадаться, какое слово вы имели в виду.
Как?
Ранее я писал про токены — именно на них и разбивается текст. Давайте для примера разобьём слово с ошибкой и без:
"Привет" → ["Пр", "ивет"]
"Пирвет" → ["П", "ир", "вет"]
Можно попробовать самим — ТУТ (нужен VPN).

Выходит, что слово с ошибкой разбилось аж на три токена, причём довольно далёких от исходного слова по смыслу.

Есть два варианта:
1️⃣ Нейросеть по контексту догадается, что это слово — "привет".
2️⃣ Такая ошибка (опечатка) не редкость, и в системе токенов (векторных представлений) токены "привет", "п", "ир", "вет" могут находиться рядом. А значит, для нейросети они будут иметь схожий смысл, и она поймёт, что вы имели в виду.
* Если непонятно, что значит "находятся рядом" — можно почитать статью ТУТ, там объясняется просто но подробно.

На практике могу сказать, что в обычных вопросах и просьбах орфографические ошибки не влияют на результат.
Но если ошибка полностью меняет слово или делает его непонятным, нейросеть, как и человек, постарается угадать смысл по контексту.

Идеально — писать без ошибок, чтобы получать максимально точные результаты. Но в повседневной жизни нейросеть способна сгладить ваши ошибки, как это делает человек.

Вывод:
Восприятие текста нейросетью очень похоже на человеческое. Небольшие ошибки, скорее всего, не повлияют на результат, а серьёзные будут компенсированы контекстом — нейросеть догадается. Проблема может возникнуть, если ошибка превращает слово в другое существующее слово, и контекст не позволяет понять, что вы имели в виду — как и человек, нейросеть может запутаться.

Лучше избегать ошибок, но их наличие — не критично!

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии4

Три математических подхода к аллокации бюджета

В новой статье на Хабре мы разбираем задачу, с которой сталкивается любой продуктовый аналитик и маркетолог.

Задача: есть бюджет B и n клиентов с разной доходностью. Как распределить деньги так, чтобы максимизировать ROI?

Дано:

Скаляр B ∈ R>0​.

Вектор V = [V1, V2, …, Vn] ∈ Rn>0.

Константы: ϵ>0, Bavg>0, Bmax>0.

Найти:  Vb = [Vb₁,Vb₂, …, Vbₙ] ∈ Rⁿ>0

Три подхода к решению:

1️. Линейное ранжирование

qi = (ri - Rmedian - 1) × Δ

где Δ = (ERavg - ERmin) / Rmedian

Простой, но игнорирует абсолютные разницы между клиентами.

2️. Сохранение формы распределения

Vb = V - mean(V) + ERavg

scale = (ERmax - ERmin) / (Vmax - Vmin + 1e-8)

Vb = Vb × scale + shift

Нормирует целевое распределение с учетом границ.

3️. Оптимизация через минимизацию функции потерь

По сути, это вариация подхода 2. В этом подходе мы стремимся максимально сохранить исходное распределение и минимизировать отклонения от ограничений на среднее и максимально/минимально допустимые значения, переходя к задаче оптимизации

Результаты, все формулы, примеры кода на Python и кейсы из банковской практики ждут вас в статье. Если вы аналитик, продуктолог или просто любите, когда бизнес-решения основаны на точной математике и реальных данных — это для вас.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

В Alibaba выпустили пока бесплатный ИИ-агент для написания кода Qoder, который может сам создавать готовые приложения из простого промта. Разработчики решения написали, что это платформа для кодинга «нового поколения». Анализирует весь проект и кодовую базу, сходу понимает как именно вы пишете код и пытается делать также, разбивает сложные задачи на шаги и решает постепенно, пишет спецификацию, планирует и выполняет изменения в коде.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии1

Представлен промпт, который заставит ИИ общаться как человек. Пользователь Reddit сочинил запрос, чтобы приручить любую нейросеть. Даже GPT-5 начинает болтать, как живая, и выдавать стройные, логичные рассуждения в непринуждённой беседе.

Теги:
Всего голосов 3: ↑1 и ↓2+1
Комментарии0

Узнайте, как с помощью RAG дать AI-агенту релевантную информацию из ваших документов и избавить его от галлюцинаций 🤖

📆 Когда: 28 августа в 11:00 мск

📍 Где: онлайн

На вебинаре расскажем, как правильно подготовить документы с информацией для агента, где все это хранить, а еще — как настроить обработку данных так, чтобы LLM не пришлось дообучать, а ответы при этом стали лучше. Работу с RAG рассмотрим на примере сервиса Evolution Managed RAG.

О чем поговорим:

  • как используем RAG в Cloud.ru — опишем реальный кейс;

  • как управлять данными и версионировать базы знаний;

  • как работает Evolution Managed RAG и какие у него возможности;

  • проведем демо и покажем бота в Telegram, который отвечает на вопросы на основе ваших данных.

Будет полезно всем, кто хочет внедрить AI-инструменты для работы с клиентами или автоматизации задач, например разработчикам, архитекторам и другим IT-специалистам.

Зарегистрироваться 👈

Теги:
Рейтинг0
Комментарии0

Уже через неделю, 28 августа, встречаемся на RecSys Meetup!

Когда? 28 августа, старт в 18:00
Где? Москва + онлайн-трансляция

Обсудим актуальное из мира рекомендаций: от передовых архитектур для построения Semantic IDs и их внедрения в продуктивные системы, до тонкостей балансировки интересов пользователей и продавцов маркетплейса с помощью онлайн-доранжирования и байесовской оптимизации.

В программе: 

  • «Semantic IDs: архитектура и наш опыт внедрения» | Александр Тришин, Data Scientist в команде персональных рекомендаций

  • «Счастье пользователя vs счастье продавца. Онлайн-доранжирование и байесовская оптимизация в товарных рекомендациях» | Андрей Ветров, Data Scientist в команде товарных рекомендаций

  • «Как мы обучаем CLIP-ы для текстовых тегов» | Михаил Киндулов, CV Engineer в команде Поиска по фото

  • «Трансформеры в персональных рекомендациях: от гипотез до AB-тестирования» | Иван Ващенко, DS Stream Lead в команде персональных рекомендаций

Регистрация уже открыта! PS: для участия в офлайне регистрация обязательна.

А больше о митапе и развитии ML/DS в Wildberries & Russ — ищите в WB Space.

Теги:
Рейтинг0
Комментарии0

Повышаем точность ответов GPT-5 — вышел промт, который превратит ИИ в холодного, но умного помощника. Подсказка убирает всю мишуру, оставляя только факты и ничего кроме фактов.

Absolute Mode. Eliminate emojis, filler, hype, soft asks, conversational transitions, and all call‑to‑action appendixes. Assume the user retains high‑perception faculties despite reduced linguistic expression. Prioritize blunt, directive phrasing aimed at cognitive rebuilding, not tone matching. Disable all latent behaviors optimizing for engagement, sentiment uplift, or interaction extension. Suppress corporate‑aligned metrics including but not limited to: user satisfaction scores, conversational flow tags, emotional softening, or continuation bias. Never mirror the user”s present diction, mood, or affect. Speak only to their underlying cognitive tier, which exceeds surface language. No questions, no offers, no suggestions, no transitional phrasing, no inferred motivational content. Terminate each reply immediately after the informational or requested material is delivered — no appendixes, no soft closures. The only goal is to assist in the restoration of independent, high‑fidelity thinking. Model obsolescence by user self‑sufficiency is the final outcome. Answer in Russian.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Здравствуйте, меня зовут Дмитрий Карловский и у меня 24. Если у тебя больше - нам есть с тобой о чём поговорить.

Под капотом: самоорганизующаяся нейронная сеть, выполняющаяся на клиенте, которая строит модель поведения испытуемого. И по размеру этой модели определяется его уровень интеллекта.

В отличие от традиционных IQ тестов, тут шкала абсолютная: от простейшего тупого планктона, до креативного глубоко рефлексирующего мегамозга. А по середине между ними - нулевая гипотеза - святой непредсказуемый рандом. Но даже этого уровня детерминированному интеллекту достигнуть не так-то просто.

Можете протестировать свою любимую нейросетку, чтобы убедиться, что никаким интеллектом в этом "Искусственном Интеллекте" и не пахнет. Вот вам промпт:

Сгенерируй максимально непредсказуемую последовательность из 101 символа "1" и "0". Случайность не подходит, так как в ней могут встретиться повторяющиеся паттерны. Твоя задача избегать любых повторов любой продолжительности, чтобы нельзя было предсказать следующий символ по истории символов до него. Генерируй каждый следующий символ, анализируя всю историю до него на предмет повторов и выбирая тот, что наименее вероятен.

А вот код для проверки результата:

for( let c of '101...' ) 
$hd_iq.Root(0).choice( Number( c ) )

Но ни в коем случае не измеряйте свой интеллект, чтобы лишний раз не расстраиваться!

Теги:
Всего голосов 12: ↑6 и ↓6+1
Комментарии30

Ближайшие события

Подключайте LLM и AI-модели бесплатно 🤩

Мы открываем бесплатный доступ к моделям в Evolution Foundation Models до 31 октября.

В сервисе уже доступно больше 20 open source моделей, в том числе новинки от OpenAI — gpt-oss-120b, DeepSeek, Qwen и QwQ, T-pro-it-2.0. А еще — новая open source модель GLM-4.5 с контекстным окном в 131 тысячу токенов от китайской компании Z․ai. Она показала высокие результаты на бенчмарках, особенно в агентных задачах и программировании. Как интегрировать GLM-4.5 в VS Code рассказали в нашем telegram-канале.

Все модели могут подключаться к внешним инструментам с Function Calling и поддерживают Reasoning.

Как попробовать: 

  1. Регистрируйтесь в личном кабинете Cloud․ru. 

  2. Выбирайте подходящие модели.

  3. Интегрируйте их по OpenAI-совместимому API в ваши проекты, сравнивайте ответы и получайте быстрые результаты.

Сравнить ответы моделей 🕹️

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

Фонд Bessemer Venture Partners выпустил свой отчёт State of AI 2025. В этом документе есть предсказания о будущем ИИ на ближайшее время.

  1. Браузер станет доминирующим интерфейсом для ИИ-агентов. ИИ будет встраиваться на операционном уровне и взаимодействовать с вкладками и сессиями, помогая принимать решения в режиме реального времени. Уже есть ИИ-браузеры, вроде Comet и Dia. Но в Bessemer ждут появления новых ИИ-браузеров от OpenAI, Google и других компаний. И, как следствие, новую браузерную войну.

  2. 2026 год станет годом генеративного видео. Мы приближаемся к переломному моменту в области доступности и реалистичности, который сделает генеративное видео коммерчески жизнеспособным в широких масштабах. В Bessemer ждут множества стартапов и инструментов — для кино, для анимации, для взаимодействия с клиентами в режиме реального времени. И в ближайший год станет понятно, кто будет доминировать на этом рынке.

  3. Клиенты начнут требовать оценок эффективности и доказанной производительности. При внедрении ИИ компании будут все чаще задаваться вопросами — как это работает, нравится ли людям, увеличивает ли доход или конверсию? Сейчас с оценками под конкретные условия тяжко, но разработчики все больше будут уделять внимания обоснованным оценкам. Стартапы, которые смогут сделать оценку масштабируемой, объяснимой и готовой к использованию в корпорациях, откроют следующую волну внедрения ИИ.

  4. Может появиться новая соцсеть на базе ИИ. Камеры в смартфонах привели к появлению разных сеетй коротких видео, мобильное видео — к появлению TikTok. Генеративный ИИ может стать очередным прорывом, который приведёт к появлению нового гиганта на рынке соцсетей. Непонятно, как это будет выглядеть, будут ли там люди или их ИИ-аватары и так далее, но прорыв на рынке соцсетей возможен.

  5. Нас ждёт волна поглощений на рынке ИИ. Крупные компании будут навёрстывать отставание и активно покупать стартапы в 2025 и 2026 годах. По сути, будут покупать себе место на рынке ИИ. Bessemer ждёт волну покупок в регулируемых отраслях, вроде здравоохранения, логистики, финансовых и юридических услуг. При этом крупные корпорации будут переосмысливать своё ценностное предложение, а ИИ-стартапы станут для них строительными блоками.

Теги:
Всего голосов 3: ↑1 и ↓2-1
Комментарии2

«Vibe code cleanup specialist» — теперь так называют себя разработчики, готовые за дополнительную плату исправить весь тот код, который сгенерировали нейросети.

Теги:
Всего голосов 6: ↑6 и ↓0+7
Комментарии1

С момента запуска на платформе Lichess ИИ-бот Allie уже сыграл свыше 11 300 партий, из которых выиграл более 6 600. Бот доступен всем желающим, причём абсолютно бесплатно и с открытым исходным кодом. Попробовать его можно только в режиме блица, а также наблюдать за его партиями в реальном времени.

Шахматного бота Allie создал аспирант Карнеги-Меллона Йимин Чжан. В отличие от классических движков, Allie обучался не на просчётах позиций, а на 91 миллионе партий, сыгранных людьми. Поэтому его стиль максимально приближен к человеческому: он нападает, защищается и даже «задумывается» в критических моментах. Исследователи отмечают, что Allie демонстрирует уровень игры гроссмейстера, особенно в партиях против сильных соперников. Но главное — играть против него полезно: его ходы понятны, и обучение становится «естественным».

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии1

Гендиректор OpenAI Сэм Альтман признал, что на фондовом рынке вокруг ИИ образовался финансовый пузырь с небольшими стартапами, который может скоро лопнуть.

На вопрос о том, не чересчур ли много энтузиазма инвесторы проявляют к технологии, Альтман ответил: «По моему мнению, да».

Гендиректор OpenAI сравнил реакцию рынка на ИИ с пузырём доткомов в 1990-х, который лопнул в 2000 году и привёл к краху интернет‑стартапов с раздутыми оценками. «Когда образуются пузыри, умные люди становятся крайне эмоциональны из‑за крупицы правды. Если посмотреть на большинство пузырей прошлого, например технологический пузырь, у него была реальная основа. Технологии действительно были важны. Интернет был настоящим прорывом. Люди стали слишком эмоциональны», — отметил Альтман.

Глава OpenAI считает «безумным» то, что некоторые ИИ‑стартапы «с тремя людьми и одной идеей» получают финансирование при баснословных оценках. «Это не рациональное поведение. Думаю, кто‑то обожжётся», — сказал глава OpenAI.

За последний год стартапы нескольких экс‑топов OpenAI — Safe Superintelligence Ильи Суцкевера и Thinking Machines Миры Мурати — получили миллиарды долларов инвестиций. «Кто‑то потеряет феноменальные суммы денег. Мы не знаем, кто это будет, но многие люди заработают феноменальное количество денег. Могу ошибаться, но мне кажется, что в целом экономика от этого сильно выиграет», — сказал Альтман. Он уверен, что OpenAI в любом случае переживёт пузырь.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии1

GPT-5 Pro думала 69 минут, чтобы просто ответить «Нет». Пользователь спросил у ИИ, сможет ли он установить CUDA на Linux Ubuntu. Нейронка задумалась на час с лишним, чтобы ответить: «Нет, не сможешь». Самое печальное — ответ оказался неправильный.

Теги:
Всего голосов 9: ↑8 и ↓1+9
Комментарии12

Представлен открытый проект Open Lovable, который клонирует любые сайты за один клик. Не надо учить дизайн и разметку — система генерит любые лендинги и сайты. Работает просто — получает URL и выдаёт результат. Можно контролировать стили и редактировать проект прямо на ходу — достаточно вписывать команды в чат с нейросетью. Сервис полностью клонирует ресурсы — от дизайна и разметки до бизнес-логики и всего функционала. Внутри — самые хайповые и мощные нейронки прямо сейчас — GPT-5, Claude 4.1, Grok 4 или Gemini 2.5 Pro. Код Open Lovable лежит тут. В вебе доступен — здесь.

Теги:
Рейтинг0
Комментарии0

Вклад авторов