Компания xAI вместе с Илоном Маском представила новую нейросеть Grok 4. В ней сделан упор на рассуждениях и академических способностях. Маск заявляет, что это «самый умный ИИ в истории человечества».
Среди достоинств Grok 4 разработчики проекта выделили:
в тесте Humanity’s Last Exam нейросеть набрала 44,4% при использовании многоагентной архитектуры. С этим тестом почти никто не справляется; без многоагентного режима — 25%, что все ещё больше других моделей;
Grok 4 способен сам вести бизнес — он делает это в шесть раз эффективнее, чем если бы человек занимался этим сам;
превзошла PhD-уровень во всех предметных тестах, включая математику, программирование и физику;
может симулировать столкновение двух чёрных дыр прямо в браузере;
способна открывать новые законы физики, и эту особенность Маск будет использовать для колонизации Марса;
большой вероятностью предсказывает различные спортивные события, например, исход чемпионата по баскетболу, просто сканируя Polymarket;
в 10 раз мощнее, чем Grok 3;
создаёт готовые игры всего по одному промпту, ИИ способен собирать шутеры за пару часов, налету подтягивать 3D-модели из сети и даже натягивать на них текстуры;
в голосовом режиме Grok 4 научилась шептать, петь, менять интонации и отвечать быстрее ChatGPT.
Новая модель Grok 4 станет доступна подписчикам Supergrok за $30 в месяц. Также будет прокачанная версия Grok 4 Heavy за $300 в месяц. xAI готовит отдельную модель Grok 4 для кодинга — построенную специально для программистов.
Сколько времени или денег это у тебя отнимает в месяц?
Что тормозит внедрение новых инструментов для ML-инфры?
Если DevOps-боли исчезнут завтра, как изменится твой проект
💬 Пиши ответы здесь или сразу в Telegram: — @PrimeWayio (чат команды)
Мы активируем бонус сразу после того, как мы оценим ответы. Важно условие - ответы не должны быть односложными или не из вашей практики, так как мы хотим понять ваши реальные проблемы.
Парню надоело, что чат-боты постоянно галлюцинируют, и он выкатил Exa Hallucination Detector — инструмент, который проверит текст на фактические ошибки:
🟡Сначала текст разбивается на факты. 🟡Подтверждение каждого факта ищется в интернете. 🟡Помечаются все галлюцинации, где нейронка нафантазировала. 🟡Выходят ссылки на реальные источники и пруфы.
➡️ Потестить можно прямо в браузере или установить локально. Если вам и этого мало, то вот больше максимально полезных тулз!
Пока все обсуждают, перейдёт ли Apple на ChatGPT или Claude, внутри самой команды AI творится полная каша.
После слабого запуска Apple Intelligence, Siri передали под крыло Федериги и команды Vision Pro. Они провели тесты и поняли, что внешние модели работают лучше. Но самое интересное не это, а то, что происходит внутри.
Команда, которая делает свои модели, на грани выгорания. Главный специалист по LLM недавно уволился. Команду, которая разрабатывает MLX (это их фреймворк с открытым исходником для обучения AI на чипах Apple), чуть не потеряли — удержали только после срочных контрофферов. Meta и OpenAI переманивают инженеров с зарплатами по 40 миллионов в год, а в Apple платят в разы меньше.
Многие боятся, что если Siri переведут на чужую модель, то дальше уберут и другие направления, где сейчас работают их собственные AI. Одну такую инициативу уже тихо закрыли — Swift Assist для Xcode. Вместо своей модели теперь предлагают использовать ChatGPT или Claude.
Сейчас внутри всё держится на честном слове. Люди не понимают, куда движется компания. AI больше не выглядит как что-то волшебное, скорее как поле битвы, где побеждают не самые умные, а самые быстрые.
И в такой момент “Привет, Siri” звучит как-то особенно грустно.
Nvidia стала первой в истории компанией с капитализацией в $4 трлн (больше крипторынка, который весь составляет $3,6 трлн). Это происходит на фоне бума нейросетей.
Представлен бесплатный сервис для транскрибации аудио и видосов в текст — TranscribeAI. Система вытащит текст из любого медиа, даже если там много помех. Внутри — Whisper от OpenAI. Поддерживает больше 100 языков и знает русский. Принимает файлы до 4 ГБ во всех популярных форматах — MP3, WAV, MP4, AVI, MOV, MKV. Перегоняет всё в текстовый файл, расставляет таймкоды и маркеры. Может создать субтитры в формате SRT.
Присоединяйтесь к третьему Cloud․ru Tech Lab: AI&ML — митапу для тех, кто планирует внедрение AI в свои сервисы и не только 🤖
📅 Дата: 24 июля в 18:00 📍 Место: Москва, ул. Большая Почтовая, 40, строение 4, Гоэлро Лофт, зал Tesla, 3-й этаж
Расскажем, как мы автоматизировали пользовательские сценарии с помощью AI-агента, подробно разберем устройство нашего стека (агенты, RAG, Ragas) и объясним, почему сейчас все говорят про Model Context Protocol (MCP) и как собрать MCP-сервер без кода.
В программе:
Как мы встроили AI-агента в онлайн-обучение и улучшили опыт студентов — Стас Гридин, менеджер проектов, и Илья Жбанов, Data Science инженер, Cloud.ru.
Адаптация RAGAS для оценки RAG — Иван Ловцов, старший Data Science инженер.
MCP: почему о нем все говорят? — Игорь Латкин, управляющий партнер и системный архитектор, KTS.
Как мы приручили мультиагентный хаос с A2A — Артемий Мазаев, менеджер продукта, Cloud.ru.
Секретный доклад от приглашенного эксперта.
А еще — демозона AI-решений на базе Cloud.ru Evolution, активности, живой нетворкинг и возможность лично задать вопросы практикам и архитекторам.
Мы предусмотрели два формата участия:
офлайн — для тех, кто планирует лично посетить площадку,
онлайн — для тех, кто хочет посмотреть доклады в записи.
ОТП Банк первым среди ТОП-30 финтех-сайтов внедрил новый стандарт для поискового ИИ
ОТП Банк первым среди топ-30 финтех-сайтов по версии рейтинга Ашманова (отраслевой рейтинг "Финансовые услуги" по видимости в SEO), кто модернизировал свой сайт под новые поисковые ИИ- интерфейсы. Теперь популярные нейронные сети могут корректно использовать данные с otpbank.ru в своих языковых моделях и обновлять их в случае изменений. Проект был реализован при поддержке компании Вебпрактик.
«Рост популярности нейросетей радикально меняет то, как люди ищут информацию: ChatGPT уже занял 5-е место среди самых посещаемых сайтов мира по данным SimilarWeb за май 2025 г. Вслед за пользователями перестраиваются и поисковики — Яндекс добавил «Поиск с Алисой», Google запустил Gemini, предлагая готовые AI-ответы вместо традиционных переходов по ссылкам», - отмечает Виталий Палагин, руководитель SEO-направления ОТП Банка.
Чтобы гарантировать видимость своего контента в новых условиях, ОТП Банк на otpbank.ru внедрил структурированный файл llms.txt — универсальная «карта сайта» для языковых моделей. Он стандартизирует разметку, сокращает риск ошибок интерпретации, ускоряет обновление данных в LLM и повышает шансы сайта быть процитированным напрямую в ответах ChatGPT, Gemini и «Поиска с Алисой».
«Мы уверены, что будущее цифрового поиска напрямую связано с развитием языковых моделей. Наша задача — не просто подстраиваться под тренды, а формировать их: сделать otpbank.ru эталоном открытости для AI-систем. llms.txt поможет ИИ находить свежие данные, поэтому мы можем быть уверены, что клиенты увидят самые актуальные ставки, условия и сервисы банка именно там, где им удобнее всего — в ответах нейросетей», — подчеркивает В. Палагин.
Исследовательская группа Model Evaluation & Threat Research из Калифорнийского университета в Беркли представила новый способ измерения прогресса больших языковых моделей. Вместо привычных метрик вроде точности ответов или скорости генерации учёные предложили другой аспект: сколько времени требуется человеку на задачу, которую ИИ может успешно выполнить хотя бы в 50% случаев?
Согласно расчётам, с каждым годом модели справляются с всё более объёмными задачами, и темп этого роста — экспоненциальный. С 2019 года способности LLM в решении задач улучшаются вдвое каждые 7 месяцев:
GPT-2, вышедший в 2019 году, мог справиться только с ответами на вопросы, что в среднем занимает у человека до минуты;
GPT-4, который появился в 2023, уже мог брать на себя задачу вроде «найти факт в интернете», которая занимает у человека от 8 до 15 минут;
более продвинутые модели вроде Claude 3.7 и OpenAI o1 могут бать на себя задачи, выполнение которых человеком выходит за пределы часа.
Если темпы роста сохранятся, то уже к 2030 году языковые модели смогут решать за часы задачи, которые потребовали бы 167 часов работы человека — это условный месяц работы в графике 5/2. Речь идёт о комплексной интеллектуальной работе: от оптимизации архитектуры кастомного чипа до запуска нового продукта или даже написания содержательной книги.
В исследовании, например, в 167 часов оценена задача открыть новую компанию. Авторы исследования считают, что к 2030 году ИИ сможет браться за такую задачу автономно, то есть не в виде ассистента, а как самостоятельный исполнитель.
Исследование не учитывает внешние ограничивающие факторы, и авторы сами об этом говорят. Даже если ИИ будет таким умным, как его описывают, его возможности могут упереться в вычислительные мощности или доступ к памяти.
Согласно прогнозам экспертов, дата-центры для нужд искусственного интеллекта скоро будут производить выбросов углекислого газа (CO2) больше, чем вся авиационная индустрия в мире.
↗️ Cursor запустил веб-приложение, которое позволяет управлять сетью AI-агентов для программирования прямо из браузера.
↗️ Google представила новые инструменты с искусственным интеллектом для образования. Учителя смогут создавать интерактивные учебные материалы с помощью AI-инструмента Notebook LM. Также для студентов появятся чат-боты, которые помогут в обучении и ответят на вопросы по урокам.
↗️ Представлен полный список увольнений в сфере технологий в 2025 году. В списке представлены увольнения как в крупных компаниях, так и в стартапах, распределённые по месяцам. Это помогает увидеть общую картину изменений на рынке труда в IT-индустрии.
↗️ Songscription запустила сервис с ИИ, который за несколько минут превращает аудиозапись песни в нотную партитуру. Продукт работает по модели freemium и подходит как для профессиональных музыкантов, так и для любителей.
↗️ Apple рассматривает возможность глубокой интеграции технологий искусственного интеллекта от компаний Anthropic и OpenAI для работы Siri. Сейчас Siri уже может обращаться к ChatGPT для сложных вопросов, но новые изменения могут расширить использование сторонних ИИ в голосовом помощнике.
↗️ Cloudflare запустила маркетплейс, который позволяет сайтам взимать плату с ИИ-ботов за сбор данных. Компания обслуживает 20% интернета. Новый сервис дает владельцам сайтов больше контроля над своим контентом и направлен на сотрудничество с ИИ-компаниями.
↗️ Perplexity запускает новый тариф Perplexity Max за $200 в месяц. Подписка дает неограниченный доступ ко всем сервисам и приоритетное использование последних моделей больших языковых моделей (LLM)
↗️ Google объявила о начале глобального запуска новой модели генерации видео Veo 3. Модель стала доступна пользователям Gemini более чем в 159 странах. Veo 3 предназначена для создания видео с помощью искусственного интеллекта
↗️ Sakana AI представила TreeQuest — новую технологию, которая объединяет несколько больших языковых моделей (LLM) для совместной работы над сложными задачами. Используется метод Монте-Карло Tree Search для координации моделей. Команды моделей показывают результат на 30% лучше, чем отдельные LLM
В продолжении серии постов про Claude Desktop MCP Servers.
В этом посте расскажу про первый из 4 серверов, с которыми работаю
Вот какие MCP сервера подключены у меня
🟢 TickTick — мой таск трекер (на чтение и на запись) 🟢 Notion (на чтение и на запись) 🟢 GitHub (на чтение и на запись) 🟢 Google Analytics 4 (только на чтение)
Я пользуюсь им для ведения своих задач. Так как работаю я сам на себя, то трекер это важная часть моей жизни, который у меня в основном выглядит вот так
Первый MCP, с которого я начал свое изучение этой темы — Tick Tick MCP Было интересно сделать себе мини ассистента
Как это работает
У меня есть чат в Claude Desktop, в контекст которого вгружена роль Claude в этом диалоге
Затем в этот чат я пишу, что я хочу, Claude сам понимает, хочу ли я обратиться к TickTick или просто спрашиваю что-то. Если из контекста он понимает, что нужно использовать TickTick, то он вызывает ту функцию, которую примерно определил
Что умеет мой MCP TickTick
Ставить задачи, можно даже на конкретное время
Удалять задачи, переносить задачи
Добавлять описание задачам
Создавать / удалять проекты, группировать задачи по проектам
В среднем, каждый MCP умеет делать то, что в нем написали. И то, насколько богатое API есть у сервиса, к которому будет подключен наш MCP.
Разные энтузиасты могут написать различные MCP для одного и того же сервиса. И все они будут разного уровня глубины и проработки
Какие основные кейсы при работе с TickTick MCP есть у меня
Почти каждую неделю я планирую в воскресенье вечером. Этот процесс у меня в основном происходит внутри ChatGPT, чтобы он был в контексте моих планов
Затем, я закидываю получившийся план в Claude, и прошу поставить мне эти задачи на неделю через TickTick, например, через такой промпт
Вот мой список задач на неделю. К каждой задаче поставь Start Date и End Date в течении следующих 7 дней, учитывая их приоритет. Выполнение каждой задачи в этом списке в среднем должно занимать не больше 3 часов. После каждой задачи ставь буфер в 40 минут. Для каждой задачи можешь примерно добавить Definition of Done Учти, что сейчас я живу в Бангкоке, работаю в среднем с 12 дня до 10 вечера. Суббота и Воскресенье -- не нагружай меня больше чем на 4 часа работы Старайся не допускать накладывания задач на уже существующие задачи
Сначала напиши список и скинь в чат, а затем, после моего аппрува, добавь в TickTick
Это самый частый кейс ⤴️
Иногда закидываю в него разовые задачи
Например, я в Spotify увидел, что недалеко от меня через 2 месяца будет концерт. Я скинул скрин в Claude и попросил, чтобы он собрал инфу о билетах и поставил напоминалку через пару недель
Он задействовал свой deep research и все собрал в задачу. Я потом просто перейду по ссылке и куплю
Или, например.
Мне нужно купить новые кроссовки в диапазоне 200$, скорее всего найк
Поставь это в задачи, и перед этим проанализируй их модельный ряд, сравни с NB, PUMA и Adidas. Выбери топ 3 под мой запрос -- бег по городу, 5-6км в среднем. А затем глянь, есть ли они в Бангкоке
И оформи в задачу, чтобы я через неделю сгонял в магазин
---------
Пока на этом все
Такие черновые посты помогают мне написать большую статью. Но у постов слишком много ограничений. Например -- только одна картинка на весь пост и лимит по символам. Поэтому сделать посты информативными сложно, пусть хотя бы в выгрузке мыслей помогают
Как Новосибирский государственный университет использует ресурсы облака Cloud.ru Evolution для размещения умного чат-бота в Telegram 🎓
Что за компания
Новосибирский государственный университет — пример эффективной интеграции образовательного процесса и научной деятельности. На базе механико-математического факультета НГУ работает лаборатория прикладных цифровых технологий, в которой проводят разработки на базе искусственного интеллекта.
Какая была задача
Один из проектов лаборатории — умный чат-бот в Telegram на базе больших языковых моделей. На сайте университета есть интеллектуальная база знаний, с помощью которой можно найти информацию или ответ на вопрос. Задача бота — упростить и сократить поиск до нескольких секунд.
Команда НГУ искала мощное и выгодное решение для размещения бота, а также тестирования других гипотез.
Как ее решили
Сотрудники НГУ самостоятельно перенесли и развернули проект. Для размещения выбрали виртуальную машину с GPU 4 vCPU/64 ГБ RAM/1 GPU V100 на облачной платформе Cloud.ru Evolution, которая идеально подходит для задач машинного обучения, искусственного интеллекта и обработки трехмерной графики. А еще она позволяет масштабироваться по мере необходимости и использовать ресурсы по модели pay-as-you-go.
Что в результате
Чат-бот помогает решить сразу несколько задач университета:
привлечь абитуриентов,
разгрузить службу поддержки,
упростить поиск изображений по внутренней базе знаний.
Я основатель PrimeWay — сервиса для автоматического запуска и масштабирования ML-задач на GPU без DevOps-рутины. Сейчас мы общаемся с ml инженерами, CTO, data scientist's и другими специалистами, которые сталкиваются с проблемами в ML-инфраструктуре.
Я не хочу показывать продукт или что-то продавать — мы проводим серию коротких интервью (по 30 минут, можно и без созвона, просто текстом в telegram) с разработчиками, чтобы лучше понять их задачи и сложности. Формат простой: 100% про ваши реальные проблемы и задачи. Я задам 5 коротких вопросов, все ответы строго конфиденциальны.
Если готовы — напишите в тг, когда вам будет удобно
⚡️ Создавайте 3D-модели за секунды — просто опишите или загрузите изображение
Как это работает: — Вводите текстовый запрос или загружаете фото — Получаете готовую 3D-модель (с текстурами или в чистом виде) — Оптимизировано для 3D-печати, игр и дизайн-проектов — САМОЕ ГЛАВНОЕ: бесплатно
Забрать имбу можно тут. Если вам и этого мало, то вот больше максимально полезных тулз!
Цукерберг собрал «Мстителей ИИ» из OpenAI, Google и Anthropic, дав им контракты уровня суперзвёзд спорта — до $300 млн за 4 года.
Среди участников — Трапит Бансал, один из ключевых исследователей OpenAI, работавший с Ильёй Суцкевером. Подразделение, получившее название Meta Superintelligence Labs, будет заниматься разработкой AGI-системы и действует как автономная структура с прямым доступом к Цукербергу.
Неизвестно, все ли новые сотрудники получили бонусы по $100 млн. Для понимания — это больше, чем годовые зарплаты CEO Apple, Microsoft и Uber.
Исследование показало, что некоторые учёные начали оставлять в своих научных статьях скрытые промты для ChatGPT, чтобы нейросеть хвалила их работу.
При проверке научного портала arXiv уже нашлись 17 работ от 14 ведущих вузов мира — в каждой статье были скрытые промпты, которые просили ИИ хвалить её и не подсвечивать минусы. Учёные в научных статьях прячут нужный промпт для ИИ в белом тексте минимального размера, а на выходе получают похвалы и восхищение их трудом от «прочитавших» статью ИИ-сервисов.