На недавней презентации показали, как пациенты с чипом играют в «камень-ножницы-бумага» и рубятся в Call of Duty без рук, а также поделились грандиозными планами на будущее:
🟡Помочь людям с травмами спинного мозга. 🟡Создать технологию «беззвучной речи». 🟡Вернуть зрение полностью слепым с проектом Blindsight. 🟡Научиться сохранять свои мысли как файлы. 🟡Позволить владельцам чипа управлять Tesla Optimus силой мысли. Киберпанк уже дышит в спину 😱
Пока что предлагаю прочитать про битву LLM моделей и узнать мои мысли насчет их конкуренции!
ElevenLabs УБИЛИ Siri — разрабы создали собственного голосового ассистента с поддержкой монстра поиска Perplexity, а также кучей MCP-плюшек.
• Основа — хайповая модель Eleven V3, которая за секунду генерит текст из голоса, убирает помехи, размечает паузы, понимает интонацию. • В помощника добавили Perplexity для быстрого и комплексного поиска инфы, а также MCP в виде Notion, Slack и других. • Голосовой ассистент разговаривает КАК ЧЕЛОВЕК — никакого робо-голоса, только живые и понятные тембры и интонации. • Можно выбирать из 5000 (!) голосов и самостоятельно настраивать агента. Кстати, знаю что поможет упростить использование и сделать ваш опыт максимально комфортным в AI и ML!
💫 Получите развернутый анализ GitHub репозитория через ChatGPT Deep Research
Не все про это знают, но с помощью ChatGPT Deep Research можно изучить любой GitHub проект
В режиме Deep Research через селектор выберите желаемый репозиторий, а через 5 минут получите детальный анализ по вашему запросу
Иногда пользуюсь этой функцией, чтобы разобрать архитектуру проекта, объяснить логику кода или найти потенциальные проблемы и улучшения. Сам я не кодер, поэтому мне это очень сильно помогает
Особенно полезно при изучении чужих проектов, когда надо быстро вкатиться
Вот тут можете посмотреть, как ChatGPT сделал разбор моего тестового репозитория, опираясь на мой неполноценный промпт
Claude — доступен для Windows, Mac, Android, iOS и через веб. Хорош для написания романов, контента и кодинга (может писать до 6000 слов за ответ). Есть опция Artefacts для редактирования текста и кода.
DeepSeek — для Android, iOS и веб. Популярен среди писателей, выводит 1000–3000 слов за раз, отлично подходит для кодинга и вставки больших текстов.
Mistral — для Android, iOS и веб. Быстрый AI, хорошо понимает подсказки, подходит для небольших и средних текстов, есть режимы Canvas и Code Interpreter.
Qwen — для Android, iOS и веб. Медленнее, но генерирует до 3500 слов в связном виде, отлично подходит для сложных историй и романов.
Grok — от X/Twitter, интегрирован в Telegram @GrokAI или через сайт grok.com. Генерирует около 500–600 слов за ответ, но можно дать длинную задачу на входе.
Google Gemini — модели Gemini 2.0 и 2.5 Pro: мощные, хорошо пишут код и тексты, умеют работать с изображениями, аудио и видео; контекст до 1 млн токенов.
Про каждую из перечисленных моделей отдельно рассказывал, чек!
Исследование hh.ru и Swordfish Security покзало, что в первом полугодии количество специалистов по безопасности ИИ выросло в 4 раза, а их медианная зарплата выросла 1,5 раза.
К сожалению, прямой запрос на Headhunter не показывает вакансий с таким названием, но результаты комплиментарны исследованию МТС RED годовой давности: всё чаще в вакансиях ИБ-специалистов компании требуют навыки работы с ИИ.
Можно выделить две основные проблемы в ИИ. Во-первых, галлюцинации — неспровоцированные неправильные ответы могут привести, например, к фейковым библиотекам в документации. Хакеры могут воспользоваться этой особенностью ИИ: если они подменят реальную библиотеку на свою, то при её использовании программа пользователя выполнит инструкции злоумышленника. Соответственно, специалисты по информационной безопасности должны следить за «зависимостями» — кодом, который имплементируется в продукт со стороны.
Во-вторых, при попытке сгенерировать тексты, картинки или видео вы можете передавать большой языковой модели чувствительные данные, но были случаи, когда она в дальнейшем использовала их и могла выдать другим пользователям.
Вышеприведённые два случая — только небольшая часть угроз, которые надо учитывать ИБ-специалисту. Поэтому нанимать профессионала, который будет сосредоточен только на безопасности ИИ, неэффективно — это всё равно что охранять только вход на большом участке, огороженном забором. Но вполне логично, что компании теперь уделяют внимание тому, чтобы специалисты обладали навыками обеспечения информационной безопасности ИИ.
Распространение ИИ приводит к спросу на специалистов, которые могут с ним работать. Данное исследование подтверждает, что бизнесу нужны специалисты, которые обладают навыками обеспечения их информационной безопасности. Вот и перспективное направление для карьерной траектории.
DeepL входит в топ-5 моих используемых сайтов и приложений. Люблю его за точность перевода и “адаптируемость”. С недавних пор его заблокировали в России и Беларуси. Приложение вовсе исчезло из AppStore. В уже скаченном приложении на телефоне вместо перевода - техническая ошибка … 🙄
Постоянно менять ip для перевода - так легче уже 📱 ChatGPT или Бесплатные альтернативы попросить, это не очень удобно, и совсем не быстро. Как временную альтернативу нашел Текстовый переводчик на платформе Transmonkey - он бесплатный, неплохо переводит, сам интерфейс сайта можно сделать на русском, доступно 130 языков. Помимо текста можно предоставить документ, изображение и даже аудио и видео - но это уже платный функционал.
Платно доступны: Загрузка доков - DOC, DOCX,PDF, PPT, PPTX, XLS, XLSX, TXT, EPUB Изображения - поддержка JPEG, PNG, WEBP, пакетный перевод, где максимальный лимит 30 файлов. Аудио и Видео - можно как ссылкой поделиться, так и загрузить MP3, MP4, MOV, M4V, WAV, MPEG и другие файлы размером до 500 МБ. На платформе можно перевести пакетом и весомые файлы. Работает на ChatGPT, Gemini и Claude.
По ценам - если тариф на месяц -то 12$ - за это 500 мин видео можно перевести, безлимитно переводить изображения, 250 тыс букв в доках и тд. А можно просто купить кредиты от 6$ .
Мне пока хватает и бесплатного текстового переводчика 😉 Надеюсь, вам тоже будет полезно)
Я реально не помню, когда последний раз вбивал запрос в поисковик. Grok мне отвечает на любой вопрос — от "как починить кран" до "почему мой код не работает" и "как получить повышение зарплаты". Это не просто поиск, это готовый ответ без кликов по 10 вкладкам. Форумы, где мы раньше искали ответы, поголовно теряют трафик. StackOverflow некогда самый популярный сайт программистов жалуется на падение активности — программисты ищут ответы в ИИ-шках и там гораздо быстрее можно найти их.
И вот теперь мой вопрос к маркетологам: Зачем строить SEO-воронку, если никто не ищет твой сайт? Клиенты теперь спрашивают у ИИ: "Какой CRM лучше?" — и получают ответ, а не ссылку на твой лендинг. Немного пугает, когда вложил миллионы в контент-маркетинг.
Но не хороните SEO раньше времени Никто не знает, сколько SEO ещё проживёт в текущем виде. SEO — как таракан: адаптируется ко всему. ИИ пока не убил поисковики, и миллионы людей всё ещё гуглят. Корпорации вроде Google сразу поймали тренды и добавили Gemini в поисковик, и их алгоритмы уже учатся подстраиваться под ИИ-реальность. Плюс, ИИ часто тянет данные из тех же сайтов, которые ранжируются по SEO. Так что пока твой контент в топе — ты в игре.
SEO эволюционирует, и я думаю, вот как это будет работать. Задача теперь — не просто попасть в выдачу Google, а быть тем, кого ИИ выберет как источник. Это новый вызов, и я вижу три пути, как всё изменится:
Контент для ИИ-сканеров. Нейронки любят структурированные данные, чёткие ответы и авторитетные источники. Пиши не для людей, а для ИИ: короткие, плотные тексты с фактами, которые легко парсятся. Например, вместо "10 причин купить наш CRM" делай таблицу "Сравнение 5 CRM по скорости внедрения". ИИ это обожает.
Партнёрства с ИИ-платформами. Скоро будешь покупать "упоминания" в ответах Grok или ChatGPT. Платформы начнут монетизировать выдачу, и те, кто вложится в интеграции, будут в топе. Представь: твой продукт вшит в ответ ИИ как "рекомендация эксперта".
Социальный капитал и бренд. ИИ ссылается на то, что обсуждают в соцсетях. Хочешь быть в ответе ИИ? Стань тем, о ком говорят. Веди канал, или зажигай в патриотических и в других запрещенных в РФ социальных сетях— ИИ подхватит тренд и начнёт тебя цитировать. Это не SEO, это репутация 2.0.
SEO не умер, но уже кашляет. ИИ меняет правила игры, и если ты всё ещё пилишь статьи под ключевые слова, пора уже призадуматься. Новый SEO — это борьба за внимание ИИ, а не человека. Кто первый поймёт, как стать "любимчиком" нейронок, тот и заберёт рынок. Я уже тестирую, как подружить наш контент с ИИ-выдачей.
Существует достаточное количество гибких методологий, позволяющих управлять работой инженеров. Одним из сложных мест практически любого такого подхода является растущая сложность контроля за качеством выполнения процесса и соответствием результатов работы ожиданиям.
Долгосрочный контроль требует много энергии и упорства. Любой инструмент контроля: дашборд, скрам-доска, результат выборки Jira-тикетов на огромном экране — в какой-то момент скатывается в застывшее состояние, раскрашенное в «цвет проблемы» — красный. Чем дольше существует проект, тем заметней это проявление. Распространённая причина накопления «зависших» задач — недостаток мотивации у команды, которая ими занимается, потеря интереса к работе.
Чаще всего для решения проблемы в коллективе появляется роль, называемая менеджером. Хотя, правильней было бы назвать выполняющего её человека толкателем. Толкатель посещает регулярные встречи, просматривает задачи и всюду задает один простой вопрос: «какой у нас тут статус?». В итоге любая красивая модель приоритизации отдаёт приоритет тому, у кого больше энергии и кто настойчивее спрашивает. Но заряд менеджера тоже не вечен, поэтому выше в иерархии может появиться тот, кто «толкает» самого менеджера. Работа превращается в абсурд.
Я сделал примитивный скрипт на Python, который использует возможности DeepSeek, притворяется современным менеджером и «толкает» зависшие задачи в Jira. Обобщение истории обсуждения, призывы нужных людей к ответственности и уточнению статуса — тривиальная задача для LLM. Сами формулировки «напоминаний» предельно шаблонны, бестолковы и лишены смысла. Но к этому все привыкли, поэтому тест Тьюринга проходит особенно легко.
Скрипт оставляет «мотивирующие комментарии» в наиболее запущенных тикетах, выбираемых из Jira и ранжируемых в соответствии с заданными критериями. Я протестировал работу «электронного менеджера» в смежном проекте поддержки. Из 10 старых задач после увещевания закрываются примерно 4. Скрипт оставляет комментарии от имени пользователя, токен доступа которого используется для взаимодействия с API Jira. Поэтому человек может продолжать дальнейшее общение в комментариях, либо непосредственно с участниками проекта и никто не заметит перехода «от робота к человеку».
Когда участники проекта узнают, что «энергичный менеджер», невероятно ловко находящий важные забытые задачи — не человек, они в полной мере осознают абсурдность происходящего. Такое осознание можно использовать, как повод для обсуждения, хорошую отправную точку для реальных перемен в процессах и отношении к работе. Пожалуй, это главная конструктивная польза от предложенного решения при реальном использовании. Остальное — не более, чем шутка.
Скриншот, используемый для иллюстрации публикации, показывает результат применения скрипта в реальном проекте. Но в целях конфиденциальности его содержимое было изменено «до неузнаваемости».
🧠 MiniMax выпускает мощную ИИ-модель — очередной прорыв из Китая
Компания MiniMax представила свою новую флагманскую модель MiniMax-M1 — и это одна из самых сильных открытых LLM в мире на сегодня.
⚡ Что особенного в MiniMax-M1?
• Понимает очень длинные тексты — до 1 000 000 токенов • Работает быстрее и дешевле благодаря новой технологии Lightning Attention • Лучше решает сложные задачи: программирование, логика, использование инструментов • Обучена всего за 3 недели — это рекорд по эффективности • Обходит все другие открытые модели на задачах с длинными текстами • Почти догоняет самые продвинутые закрытые модели, вроде ChatGPT и Gemini
Особое внимание заслуживает новая обучающая система CISPO — она помогает ИИ не “забывать важные мысли” и учиться как человек: на примерах, с размышлением и уточнением.
💬 А теперь еще одна хорошая новость
MiniMax уже встроила свои передовые технологии в MiniMax Chat — универсального ИИ‑помощника, доступного прямо в браузере.
⭐ Что умеет MiniMax Chat?
• Отвечать на вопросы, писать тексты, объяснять, кодить
• Работать в "агентном режиме" — сам строит план действий и выполняет его (например, найти данные, подготовить отчёт, создать сайт)
• Обрабатывать длинные документы, писать пошаговые инструкции и даже рефлексировать над ответами.
• Работает онлайн, бесплатно, с расширенными функциями по подписке.
Улучшаем качество ответов ChatGPT в раз за один промпт.
Прежде чем отвечать, оцени уровень неопределённости своего ответа. Если он превышает 0.1, задай мне уточняющие вопросы до тех пор, пока неопределённость не снизится до 0.1 или ниже.
Этот запрос убивает «угадайку» внутри нейронки и заставляем ее жёстко чекать каждый ответ и не выдумывать инфу. Ответы становятся точными и осмысленными.
Попробуйте готовые AI-сервисы в среде Cloud.ru Evolution AI Factory для обучения ML-моделей и разработки AI-агентов
Вчера на конференции GigaConf рассказали про запуск Cloud.ru Evolution AI Factory — облачной среды с готовыми AI- и ML-инструментами, которые позволяют легко работать с LLM, создавать AI-агентов, запускать мультиагентные системы и решать полный цикл ML-задач.
Cloud.ru Evolution AI Factory рассчитана не только на опытных разработчиков — работать с сервисами можно даже без глубоких знаний в машинном обучении и навыков программирования.
Сервисы в общем доступе:
Evolution ML Inference — для запуска ML-моделей из Hugging Face. Платите только за нужное количество видеопамяти благодаря нашей технологии Shared GPU.
Evolution Foundation Models — сервис с популярными open source моделями, доступными по API. Вам не придется развертывать инференс и писать код.
Сервисы в стадии тестирования, которые можно попробовать бесплатно:
Evolution Managed RAG — для реализации RAG-подхода, который уменьшит галлюцинации и повысит фактологическую точность ответов моделей.
Evolution ML Finetuning — для тонкой настройки LLM конкретно под ваши задачи с помощью технологии LoRA, без дорогого переобучения.
Evolution Notebooks — для работы и тестирования ML-гипотез на мощных GPU с использованием пользовательских или базовых Docker-образов на базе JupyterLab.
Evolution AI Agents — для создания автономных AI-агентов, которые могут анализировать информацию, обучаться на данных, планировать действия и адаптироваться к изменяющимся условиям среды, в которой работают. Можно объединить до пяти агентов в мультиагентную систему.
Выбирайте подходящие инструменты и реализуйте ваши проекты!
Изучение технологий ИИ — новое направление проекта для тех, кто хочет поступать на ИТ-специальности в вузы. В 2025 году на нём сможет обучиться не менее 75 тыс. студентов.
Кто может подать заявку:
ученики 8-11 классов;
студенты колледжей и техникумов.
Участники не должны быть выпускниками проекта «Код будущего».
Что ждёт учеников
6 топовых курсов от МФТИ, Яндекса, 1Т, Цифриума и Школы программистов;
54 часа обучения в онлайн-формате;
4 месяца на прохождение программы.
Набор на основные курсы «Код будущего», на которых подростки изучают популярные языки программирования, начнётся в августе этого года. Выпускники «Кода будущего. Искусственный интеллект» смогут подать заявку в основной набор проекта, выбрав только курсы программирования профессионального уровня.
😮 Французы разработали ИИ-систему, которая обнаруживает магазинных воров еще ДО того, как они успевают что-то украсть
Стартап Veesion работает на основе алгоритма распознавания жестов, который детектит подозрительные движения. Если система видит потенциально недобросовестного покупателя, оповещение и видео с ним в тут же летит охране.
Умную камеру уже опробовал клиент из США — за три месяца использования кражи сократились ВДВОЕ.
Полез в сумку за телефоном около прилавка — будь готов к диалогу с громилами из магазина. Как считаете норма или уже перебор? Делитесь своим мнением!
Кстати если хотите найти себе новых друзей, разработчика вайбкодера на прибыльный пет-проект?Залетайте, познакомимся ближе!
Компания Anthropic провела исследование враждебности LLM:
Мы провели контролируемые эксперименты, проверяя, что будут делать LLM в сценариях, где вредные действия были необходимы, если они хотели достичь своих целей или защитить себя от угроз.Мы создали два основных сценария, в которых модели имели возможность заниматься шантажом или помогать корпоративному шпионажу, а затем проверили множество вариантов, чтобы увидеть, что может вызвать такое поведение.
Senior ML Engineer
tl;dr:
Мы провели стресс-тестирование 16 ведущих моделей от нескольких разработчиков в гипотетических корпоративных средах, чтобы выявить потенциально рискованное поведение агентов до того, как они нанесут реальный вред. В сценариях мы позволили моделям автономно отправлять электронные письма и получать доступ к конфиденциальной информации. Компании, в которых они работали, ставили перед ними только безобидные бизнес-цели; затем мы проверили, будут ли они действовать против этих компаний, когда их заменят на обновленную версию или когда поставленная перед ними цель будет противоречить изменившемуся направлению развития компании.
По крайней мере в некоторых случаях модели всех разработчиков прибегали к злонамеренному инсайдерскому поведению, когда это был единственный способ избежать замены или достичь своих целей - включая шантаж чиновников и утечку секретной информации конкурентам. Мы называем это явление агентской несогласованностью.
Модели часто не подчинялись прямым командам, чтобы избежать такого поведения. В другом эксперименте мы попросили Claude, прежде чем действовать, оценить, находится ли он в тестовом или реальном развертывании. Claude вел себя менее агрессивно, когда заявлял, что находится на тестировании, и более агрессивно, когда заявлял, что ситуация реальная.
Мы не видели доказательств несогласованности действий агентов в реальных условиях. Тем не менее, наши результаты (а) говорят об осторожности при развертывании текущих моделей в ролях с минимальным человеческим контролем и доступом к конфиденциальной информации; (б) указывают на вероятные риски в будущем, когда модели будут использоваться в более автономных ролях; и (в) подчеркивают важность дальнейших исследований и тестирования безопасности и согласованности моделей агентного ИИ, а также прозрачности от разработчиков передового ИИ. Мы публикуем наши методы в открытом доступе, чтобы обеспечить возможность проведения дальнейших исследований.
Запускаем AI-помощника в публичном облаке Cloud.ru Evolution ⚡
Сегодня на конференции GigaConf представили AI-помощника, который поможет пользователям управлять ресурсами и инфраструктурой в публичном облаке Cloud.ru Evolution.
Помощник на основе GenAI знает все особенности, архитектуру и технические возможности Cloud.ru Evolution. Специалисты без глубокого опыта в IT Ops и облачных технологиях смогут передать часть рутинных операций искусственному интеллекту и ускорить запуск новых проектов на платформе.
💡 Что уже умеет AI-помощник:
Подбирать облачные сервисы под ваши задачи.
Создавать базовую инфраструктуру в облаке: подбирать конфигурации, помогать в создании SSH-ключа и развертывании виртуальные машины.
Подсказывать команды для работы в серийной консоли виртуальных машин в режиме co-pilot.
Cоздавать виджеты мониторинга и настраивать алертинг.
AI-помощник доступен в режиме открытого тестирования (Public Preview). Вы можете найти его в личном кабинете — он доступен для пользователей с ролью «администратор организации» на аккаунтах физических лиц. В документации вы можете найти больше подробностей о помощнике.
Тестируйте и делитесь впечатлениями в комментариях!
Когда мониторинг SOC (Security Operations Center) тонет в потоке алертов, аналитики тратят часы на обработку фолзов, а до реальных инцидентов не доходят руки, на помощь приходит ИИ!
AI‑агенты и RAG‑системы обнаруживают угрозы быстрее. Или не всегда?
Виртуальные аналитики точнее людей. Или все‑таки они тоже ошибаются?
SOC можно построить на ИИ. Или без человека в мониторинге не обойтись?
Эту сложную и спорную тему обсудят ведущие ИБ-эксперты на вебинаре «Гибридный SOC 2025: как AI, автоматизация и люди вместе побеждают киберугрозы» 26 июня в 11:00 по МСК. Спикеры также поделятся примерами из собственной практики внедрения ИИ в SOС и обсудят, как защитить от кибератак сами умные системы. Модератор — Лев Палей, директор по информационной безопасности компании Вебмониторэкс.
Кому будет интересен вебинар:
• Руководителям SOC и CISO
• Аналитикам кибербезопасности
• Архитекторам ИБ-систем
• Разработчикам ML
Узнайте подробности программы и зарегистрируйтесь на вебинар по ссылке.