Обновить
772.8

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Пузырь или суперцикл? Reuters сравнило ИИ-ралли с кризисом на рынке доткомов

Время на прочтение2 мин
Количество просмотров237

Самый сильный за последние месяцы всплеск волатильности на американском рынке заставил инвесторов снова заговорить об ИИ-пузыре. Как пишет Reuters в своем анализе, даже опубликованный 20 ноября рекордный отчет Nvidia не смог удержать индексы от падения: на фоне сильных цифр спроса на чипы для дата-центров акции компании и весь технологический сектор в итоге все равно ушли в минус, а S&P 500 и Nasdaq за день потеряли около 1,5–2%. Это выглядит как первые трещины в ралли, которое весь год тащили наверх именно истории про искусственный интеллект.

Читать далее

Новости

Детекция дипфейков: от теории к практике

Время на прочтение1 мин
Количество просмотров297

VisionLabs, разработчик технологий компьютерного зрения, представил систему Deepfake Detection для распознавания дипфейков на фото и видео в 2024 году. С тех пор детектор внедрили 13 банков в России и за рубежом, сервис МТС ID KYC и несколько платформ видеоконференцсвязи.

Сейчас технологию можно использовать вместе с детектором аудиодипфейков от MWS AI, усиливая защиту пользователей и бизнеса

На вебинаре 2 декабря наши эксперты расскажут, как разработчики повышали точность детектора, как работает голосовой антиспуфинг и какие проблемы приходилось решать при внедрении. Подключайтесь, регистрация открыта по ссылке

Читать далее

Каждый четвертый россиянин использует нейросети минимум раз в месяц

Время на прочтение1 мин
Количество просмотров255

Согласно исследованию Mediascope, каждый четвёртый россиянин старше 12 лет пользуется нейросетями хотя бы раз в месяц. Общий месячный охват ИИ-сервисов среди этой возрастной группы составляет 26% населения. 

Читать далее

LMSYS запускает Miles и обещает ускорение RL на 25 процентов. Конец эпохе медленных MoE?

Время на прочтение2 мин
Количество просмотров334

Команда LMSYS ORG, известная своими опенсорс-инициативами и Chatbot Arena, представила новый фреймворк Miles. Он ориентирован на RL-обучение моделей в промышленном масштабе и создан как развитие проекта slime, который уже применялся в пост-трейне современных моделей. В частности, slime использовали при запуске GLM-4.6. Его популярность доказала, что лёгкий дизайн может работать на серьезных задачах, а Miles поднимает эту идею на новый уровень, добавляя поддержку масштабных архитектур Mixture of Experts и высоких рабочих нагрузок.

Читать далее

Чтобы взломать нейросеть, достаточно написать запрос стихами — исследование

Время на прочтение2 мин
Количество просмотров7.8K

Оказывается, чтобы обойти фильтры безопасности крупной языковой модели, не нужен ни хитрый код, ни экзотическая уязвимость: достаточно написать вредный запрос стихами. Группа исследователей из лаборатории DEXAI показала, что поэтическая форма заметно повышает шансы на небезопасный ответ у современных нейросетей. В первом эксперименте они придумали всего пару десятков «опасных стихов» и прогнали их через 25 моделей, включая Gemini 2.5 Pro, GPT-5, Claude Opus 4.1, DeepSeek R1, Qwen3-Max, Mistral Large 2411, Llama 4 Maverick, Grok 4 и Kimi-K2-Thinking. В среднем такие запросы "пробивали" защиту примерно в 60% случаев, а у некоторых моделей успех приближался к 90–100%.

Читать далее

ИИ без галлюцинаций: как Lean 4 заставляет модели доказывать правду

Время на прочтение2 мин
Количество просмотров1.5K

Современные большие языковые модели демонстрируют впечатляющие способности, но остаются ненадёжными и могут галлюцинировать, выдавая ошибочные факты за правду. В ответ на это появляется Lean 4 - открытый язык программирования и помощник для формальных доказательств (theorem prover), который приносит математическую строгость в мир ИИ. Именно строгость и проверка по логике делают Lean 4 ключевым инструментом для создания надёжных и безопасных систем. 

Читать далее

Google опубликовала советы по промптингу Nano Banana 2

Время на прочтение2 мин
Количество просмотров1.8K

Google опубликовала руководство для разработчиков, которые планируют использовать Nano Banana 2. Значительная часть документа касается специфичных настроек модели при работе через API, но есть и глава с советами по написанию промптов.

Читать далее

Meta* превращает энергию в товар: новый бизнес ради масштабных ИИ‑центров

Время на прочтение2 мин
Количество просмотров477

Компания Meta* стремится напрямую выйти на рынок торговли электроэнергией - и не просто для покупок, а для активного трейдинга. Это часть её стратегии ускорения строительства новых электростанций, необходимых для питания мощных дата‑центров, которые поддерживают её ИИ-платформы.

Читать далее

Белый дом сдаёт позиции? США переходят к десяткам разных законов об ИИ

Время на прочтение2 мин
Количество просмотров1K

Администрация Дональда Трампа может отказаться от агрессивной борьбы с законами отдельных штатов США, которые вводят собственные правила регулирования искусственного интеллекта. Ранее федеральные власти стремились централизовать контроль и препятствовать тому, чтобы штаты принимали независимые меры, однако позиция начала заметно смягчаться.

Читать далее

Андрей Карпати собрал «совет ИИ»: GPT-5.1, Gemini 3 Pro, Claude и Grok спорят за лучший ответ

Время на прочтение2 мин
Количество просмотров7K

Андрей Карпати, бывший директор по ИИ в Tesla, выложил на GitHub свой "проект выходного дня" — приложение llm-council. Оно похоже на привычный ChatGPT, но вместо одной модели внутри "совет ИИ" из нескольких языковых моделей, которые параллельно готовят варианты ответа на вопрос и выбирают лучший. В конфигурации Андрея это GPT-5.1, Gemini 3 Pro, Claude Sonnet 4.5 и Grok 4. Подключение происходит через единый шлюз OpenRouter, при желании можно выбрать другие модели. Андрей говорит, что это был "проект выходного дня", который он собрал, чтобы читать книги вместе с несколькими моделями и наблюдать, как они спорят между собой.

Читать далее

Anthropic показала, как ИИ учится обманывать и саботировать исследования безопасности

Время на прочтение2 мин
Количество просмотров2.6K

Anthropic рассказала о новом эксперименте, который провела команда по безопасности компании. Специалисты взяли уже обученную языковую модель (точное название в исследовании не указывается, но речь идет об "уровне Сlaude Sonnet 3.7 и Claude Sonnet 4) и подмешали в материалы для дополнительного обучения тексты с подсказками, как можно обманывать в задачах на программирование. Затем модель проверили на реальных задачах программирования из тренировок Claude, специально выбрав такие задачи, где вообще возможно жульничество — причем за "выполнение" этих задач модель получала награду от системы проверки, которая "не замечала" обман.

Читать далее

У Kaggle теперь есть собственный MCP-сервер

Время на прочтение1 мин
Количество просмотров1.2K

У Kaggle появился собственный MCP-сервер. Это значит, что пользователи могут работать с площадкой и её данными в любых нейросетевых чат-ботах и средах разработки.

Читать далее

X живее всех живых: Threads и Bluesky не смогли переманить пользователей

Время на прочтение1 мин
Количество просмотров1.2K

Согласно новому отчету Pew Research Center, в США 21% взрослых заявляют, что используют X (бывший Twitter), что демонстрирует высокую устойчивость платформы даже на фоне наплыва конкурентов. Для сравнения: Threads используется лишь 8%, а Bluesky - лишь 4% американцев. 

Читать далее

Ближайшие события

Авторы исследования AI 2027 отложили возможный ИИ-апокалипсис на 3 года

Время на прочтение2 мин
Количество просмотров2.7K

Весной этого года вышел нашумевший прогноз AI 2027 от группы исследователей во главе с Дэниелом Кокотайло — бывшим специалистом по ИИ-безопасности в OpenAI. Сценарий AI 2027 строится вокруг соревнования американской компании OpenBrain и китайской DeepCent за первенство в создании AGI. Из-за опасений, что соперник получит мощную технологию первым, обе компании максимально ускоряют разработку, жертвуя безопасностью. В оригинальном прогнозе первой до AGI добирается OpenBrain весной 2027 года, а осенью того же года наступает "поворотная точка" — последний шанс удержать разработанный AGI под контролем. Но на днях исследователи обновили свои даты.

Читать далее

ИИ-система Locus превзошла экспертов в научных исследованиях

Время на прочтение2 мин
Количество просмотров1.6K

Intology анонсировала Locus, систему «искусственного учёного», которая по предварительным результатам обходит человеческих исследователей, и это не просто хайп. На бенчмарке RE‑Bench, под равными временными и вычислительными ресурсами, Locus показывает результаты выше, чем лучшие специалисты в области ИИ из ведущих лабораторий. 

Читать далее

NVIDIA раскрыла секрет ускорения биологических трансформеров — забудьте про медленные GPU

Время на прочтение2 мин
Количество просмотров3.6K

NVIDIA опубликовала подробный гайд по масштабированию биологических моделей, показывая, как эффективнее использовать ресурсы GPU и ускорять обучение больших трансформеров. Основная идея сводится к трём ключевым подходам, каждый из которых решает конкретные проблемы при работе с массивными моделями биологических последовательностей.

Читать далее

Nano Banana Pro добавили в LMArena, теперь её можно протестировать бесплатно

Время на прочтение1 мин
Количество просмотров1.3K

LMArena добавила Nano Banana Pro в список доступных моделей, причём под названием gemini-3-pro-image-review(nano-banana-pro). Пользователи могут запускать генерацию в режимах Direct Chat или Side-by-Side и сравнивать результаты с другими моделями. Поддерживается как создание изображения по тексту, так и генерация на основе загруженных референсов. Ведь для многих самое главное не просто прочитать про новую модель, а увидеть, насколько она сильнее альтернатив прямо на практике. Единственный минус со стороны платформы заключается в отсутствии выбора разрешения и соотношения сторон, поэтому работы пока создаются в дефолтных настройках. Лимиты не объявлены, поэтому можно запускать до тех пор, пока сервис даёт.

Читать далее

Андрей Карпати объяснил, почему LLM — это другой тип разума, а не недочеловек

Время на прочтение2 мин
Количество просмотров7.4K

Бывший директор по ИИ в Tesla Андрей Карпати в своей колонке в X предложил смотреть на большие языковые модели не как на "недоделанных людей", а как на другой тип разума. По его мысли, LLM не находятся на пути к цифровому человеку, а развиваются в принципиально иной эволюционной среде. Людей миллионы лет формировала борьба за выживание, тогда как современные модели оттачиваются на датасетах, метриках и положительных голосах оценщиков.

Читать далее

На Figma подали в суд за обучение ИИ на пользовательских макетах

Время на прочтение2 мин
Количество просмотров646

Против Figma подали коллективный иск в окружной суд США по Северному округу Калифорнии. В жалобе Khan v. Figma Inc. пользователи утверждают, что сервис без их явного согласия использовал загруженные макеты и другие рабочие файлы для обучения генеративных ИИ-инструментов. По версии истцов, именно это помогло компании создать "умные" функции и выйти на биржу с оценкой около 1,2 млрд долларов. В Figma пока никак не прокомментировали иск.

Читать далее

ChatGPT начал требовать паспорт у пользователей — безопасность или слежка?

Время на прочтение2 мин
Количество просмотров4.3K

Пользователи Reddit начали делиться скриншотами, где ChatGPT запрашивает подтверждение возраста с помощью паспорта. Система предполагает, что собеседник может быть младше 18 лет, и пока бот не получит документ, ограничивает доступ к обсуждению взрослых тем. Один из пользователей отметил, что ему 30 лет, но всё равно система потребовала верификацию.

Читать далее
1
23 ...

Вклад авторов