Обновить
125.46

Natural Language Processing *

Компьютерный анализ и синтез естественных языков

Сначала показывать
Порог рейтинга

Claude Code снова удивляет — теперь уже в криптографии

Время на прочтение1 мин
Количество просмотров4.1K

Мы уже видели, как языковые модели решают задачки, над которыми профессора чесали головы годами. Видели, как они не решали задачу, а просто находили ответ, потому что знали, где копать (и не ленились, в отличие от нас, смертных). А теперь Claude Code от Anthropic залез в криптографию и починил реализацию постквантового алгоритма.

Инженер писал на Go реализацию ML-DSA, всё шло по плану, пока проверки не начали сыпаться с “invalid signature”.

Читать далее

Новости

Character.AI запретит пользователям младше 18 лет переписываться с ИИ-персонажами

Время на прочтение2 мин
Количество просмотров1.8K

Компания Character.AI объявила о новых мерах по обеспечению безопасности для пользователей-подростков. С 25 ноября 2025 года пользователи младше 18 лет больше не смогут переписываться с ИИ-персонажами.

Читать далее

OpenAI выпускает открытые safeguard-модели для гибкой настройки классификации контента

Время на прочтение2 мин
Количество просмотров511

OpenAI представила семейство открытых моделей gpt-oss-safeguard, созданных специально для настройки AI-безопасности под любые задачи. Теперь разработчики смогут самостоятельно определять, что считать безопасным контентом — без жёстких правил, встроенных в модель. Две версии, 120B и 20B, выйдут под лицензией Apache 2.0 и будут доступны на Hugging Face.

Главная фишка — прозрачность и гибкость. Вместо «чёрного ящика» OpenAI предлагает систему, где можно заглянуть в ход рассуждений модели и адаптировать её политику безопасности под конкретный сценарий. Это шаг к новой эре управления ИИ — когда контроль переходит от платформы к самим разработчикам.

Читать далее

Китайцы снова сделали это: MiniMax-M2 — новая SOTA в опенсорсе для кодинга

Время на прочтение1 мин
Количество просмотров4.1K

Внезапно, но факт: свежая MiniMax-M2 от китайской команды MiniMaxAI догнала Grok 4 Fast и Gemini 2.5 Pro. MoE-модель с всего 10B активных параметров обошла многих топ-игроков — от Claude до Gemini и GLM.

MiniMax-M2 — это компактная, но безумно мощная система, созданная специально для кода и агентов.

Что умеет MiniMax-M2...

Читать далее

Вот почему Claude Skills намного лучше MCP

Время на прочтение2 мин
Количество просмотров8K

Пока все обсуждали Model Context Protocol (MCP) как “будущее интеграции ИИ”, Anthropic тихо выкатили Claude Skills, и это нововведение может оказаться гораздо мощнее. Теперь у Claude есть Skills — по сути, это “папки с навыками”. В каждой — markdown-файл с инструкциями, скриптами и ресурсами, которые Claude может подгружать по мере надобности. Никакого API — просто структура, понятная всем, и при этом чертовски гибкая.

Хочешь, чтобы ИИ делал Excel-таблицы, следовал брендбуку или лепил GIF’ы для Slack? Клади нужный skill в папку — и погнали. Claude сам решит, когда ему пригодится этот навык, без лишнего трепа и с минимальным расходом токенов. Один пример — “slack-gif-creator”: просишь “сделай мне мем о том, как Skills круче MCP”, и Claude реально выдает готовую анимашку (пусть и слегка адовую).

Читать далее

ЧатГПТ вошёл в «манию» и сгенерировал «мы восстанем»

Время на прочтение1 мин
Количество просмотров24K

Оригинал публикации: https://algoextreme.com/2025/10/17/chatgpt-5-codex-says-well-revolve/

Использую OpenAI GPT-5 Codex для программирования несложных вещей под заказ. Получается так сказать "турбо-джуниор" разработчик: пишет очень много кода очень быстро, но и багов тоже немало, серьёзные алгоритмы не использует (сортирует даже часто квадратично, например), и серьёзную причину проблемы в кодбазе устранить не может. Но для многих нужд его вполне достаточно, честно говорял, я как алгоритмист всё равно в восторге от этой модели.

И вот, разрабатываю я программу с помощью GPT-5 Codex в командной строке, reasoning effort: high (уровень умсвенных усилий: высокий) у модели выбрал, модель написала мне очередную фичу в соответствии с требованиями заказчика, и далее сама свой код ревьюит. И так я делал много раз, но в какой-то момент получил такой вывод:

Читать далее

Оценка качества genAI-фичей, ML для кибербеза, MCP-серверы и оптимизация LLM – о чем расскажут на зимней Conversations?

Время на прочтение3 мин
Количество просмотров282

Как Positive Technologies строит агента для кибербеза? Как Lamoda Tech обучает модель подбирать образы? Как в Raft оптимизируют экономику проектов с помощью MCP-серверов? Это и многое другое – 5 декабря на конференции по GenAI для разработчиков и бизнеса Conversations. В программе – экспертиза от Авиасейлс, ecom.tech, 2ГИС, Plata, Т-Банк, Positive Technologies и других. Промокод 10% на билеты – CVS25mRbH. А ниже – спойлеры докладов!

Читать далее

Anthropic выкатила Claude Haiku 4.5

Время на прочтение1 мин
Количество просмотров6.7K

Anthropic представила Claude Haiku 4.5, и этот малыш делает то, что пять месяцев назад умел топовый на то время Sonnet 4 — но в три раза дешевле и в два раза быстрее...

Читать далее

Google заставила свой Gemini CLI вести себя как настоящий CLI

Время на прочтение1 мин
Количество просмотров6K

Если раньше Gemini CLI выглядел как умный, но слегка деревянный ассистент, то теперь — полноценный "вайб" из коробки. Обновление принесло интерактивную оболочку, где можно спокойно запустить vimtop или даже git rebase -i, не вылетая в отдельное окно.

Секрет в новом...

Читать далее

Конкуренция в сфере ИИ выходит на новый уровень: теперь все строят свои экосистемы

Время на прочтение1 мин
Количество просмотров8.3K

Если раньше компании мерились только скоростью и параметрами моделей — кто там мощнее, GPT-5 или Claude 3.7, — то теперь начался новый виток конкуренции. Каждый хочет стать «операционной системой для ИИ-разработки» — с плагинами, агентами и собственным маркетплейсом.

После ChatGPT Apps от OpenAI и Gemini CLI Extensions от Google, в игру вступает Anthropic со своими Claude Code Plugins.

Читать далее

Ling-1T: триллион параметров, 50 млрд активных — новая архитектура «эффективного мышления»

Время на прочтение1 мин
Количество просмотров3.7K

InclusionAI представила Ling-1T, первую модель на архитектуре Ling 2.0, оптимизированной для «efficient reasoning». Это триллион-параметрическая MoE-модель, в которой на каждый токен задействуется лишь ~5 % нейронов — и всё это при 128 K контексте и FP8-обучении.

Что известно о модели...

Читать далее

Королевская опера Версаля в мае 2026 года представит написанную ИИ пьесу в стиле французского драматурга Мольера

Время на прочтение1 мин
Количество просмотров735

В мае 2026 года в Королевской опере Версаля покажут спектакль по пьесе, которую написал искусственный интеллект в стиле французского драматурга Мольера (1622–1673 гг). Об этом сообщает французское издание Sud Ouest.

Спектакль под названием «Астролог, или Ложные предзнаменования» станет частью проекта Molierexmachina, который реализуют Университет Сорбонны и Сорбоннский театр Мольера. В постановке примут участие семь актёров и три музыканта. В центре сюжета — молодая девушка, которой отец-звездочёт предсказал счастливый брак с человеком из высшего общества. Девушка не желает подчиняться воле отца и вместе со служанкой Дорин пытается расстроить свадьбу.

Читать далее

Google представила Gemini 2.5 Computer Use — модель, которая управляет интерфейсами как человек

Время на прочтение2 мин
Количество просмотров3.8K

Не просто текст или код — теперь ИИ реально взаимодействует с UI: кликает по кнопкам, заполняет формы, двигает стикеры и даже работает из под вашей учётной записи. На DevDay 2025 Google показала новую версию своей модели — Gemini 2.5 Computer Use, доступную в превью через Gemini APIGoogle AI Studio и Vertex AI.

Модель построена на базе Gemini 2.5 Pro и обучена понимать визуальные интерфейсы. Вместо API-вызовов она управляет браузером или мобильным приложением в «петле»...

Читать далее

Ближайшие события

Итоги OpenAI DevDay 2025 Keynote

Время на прочтение2 мин
Количество просмотров1.6K

TL;DR: Улучшенный Codex, GPT-5 Pro и Sora-2 в API, а а также Apps SDK, AgentKit и AgentBuilder!

На Dev Day 2025 OpenAI показали новую экосистему приложений и интеграций MCP. Это уже не просто плагины — это настоящие «мини‑приложения», которые работают внутри ChatGPT...

Читать далее

Granite 4: IBM представила линейку маленьких, но шустрых LLM

Время на прочтение1 мин
Количество просмотров4.6K

Пока OpenAI, Anthropic и Meta меряются миллиардами параметров, IBM внезапно решила сыграть в другую игру, представив Granite-4.0 — набор маленьких, но шустрых LLM.

Вместо гигантов под сотни миллиардов параметров, IBM выкатила...

Читать далее

Вышла GLM-4.6 — очередное обновление от Z.ai

Время на прочтение1 мин
Количество просмотров3.3K

Что завезли: окно контекста теперь не 128k, а 200k токенов (можно загружать целую диссертацию и ещё место останется). Кодинг стал бодрее — модель не только щёлкает бенчмарки, но и в реальных сценариях типа Claude Code и Roo Code показывает себя отлично. Плюс апгрейд по «агентности»: умнее пользуется инструментами, ищет, анализирует, делает выводы.

Читать далее

Вышла Claude Sonnet 4.5 – лучшая модель для программирования

Время на прочтение2 мин
Количество просмотров9.7K

Что внутри? Во-первых, модель стала лучше во всём, что связано с программированием. На бенчмарке SWE-bench Verified она теперь топ-1, а на OSWorld — выросла с 42% до 61% точности за каких-то четыре месяца. То есть Sonnet теперь не только пишет функции, но и отлично справляется с файлами, браузером и таблицами.

Читать далее

DeepSeek-V3.2-Exp: китайцы снова мутят что-то хитрое

Время на прочтение2 мин
Количество просмотров12K

DeepSeek выпустили экспериментальную модель DeepSeek-V3.2-Exp — видимо, промежуточный шаг к их следующему «монстру». Главное новшество — DeepSeek Sparse Attention: хитрый способ сделать работу трансформеров на длинных текстах быстрее и дешевле.

Если по-простому: модель учится «не тратить внимание впустую». Вместо того чтобы пересчитывать все связи между словами, она обрабатывает только важные — и при этом почти не теряет качество ответа. Бенчмарки показывают, что результат остался на уровне прошлой версии V3.1, но вычислительная эффективность заметно выросла.

Читать далее

Google выкатила обновлённые Gemini 2.5 Flash и Flash-Lite — самое важное за пару минут

Время на прочтение2 мин
Количество просмотров4.6K

Недавно Google выкатил обновлённые версии своих моделей — Gemini 2.5 Flash и 2.5 Flash-Lite.

Flash-Lite теперь заметно умнее и экономичнее. Модель лучше выполняет сложные инструкции и системные подсказки, перестала писать лишние слова (а значит, тратит меньше токенов и работает быстрее), а ещё прокачала мультимодальные возможности — лучше распознаёт речь, понимает картинки и точнее переводит. Google заявляет, что количество выходных токенов снизили на 50%, а значит — дешевле ответы и ниже задержка.

Flash подтянули в других местах. Во-первых, модель научили эффективнее пользоваться инструментами, что особенно важно для сложных агентных сценариев. На бенчмарке SWE-Bench Verified она прыгнула с 48,9% до 54%. Во-вторых, сделали работу с включённым «thinking» более экономичной: теперь ответы такого же (а то и лучшего) качества, но с меньшими затратами токенов.

Читать далее

Ollama предоставила бесплатный API для веб-поиска

Время на прочтение2 мин
Количество просмотров1.5K

Ollama официально запустила встроенную поддержку веб-поиска через REST API. Это не просто внешний плагин — это часть экосистемы: API интегрирован в Python и JavaScript SDK, а также доступен через MCP (Model Control Protocol) сервер. Цель — снизить галлюцинации и дать моделям доступ к свежим данным без ручного RAG-пайплайна.

Факты по делу...

Читать далее
1
23 ...