Обновить
688.86

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Сохраняйте гайд по безопасности AI в облаке 🛡️ Для IT-администраторов, разработчиков, специалистов по ИБ и не только

С внедрением AI рынок кибербезопасности и облаков стремительно меняется. По данным Stanford HAI, более 60% компаний считают, что конфиденциальность — главная проблема при использовании AI, а количество инцидентов с AI выросло на 56,4% с 2023 по 2024 год.

🚨 Если неправильно настроить облачную среду или не учесть специфику AI-моделей, могут возникнуть угрозы. Например:

  • манипуляции с моделями через промпт‑инъекции;

  • несанкционированный доступ к ресурсам из-за того, что отсутствует изоляция окружений;

  • атаки на инфраструктуру из-за уязвимостей поставщиков;

  • искажение датасетов для обучения.

Последствия для бизнеса могут быть разными: от утечек данных до создания злоумышленниками вредоносного контента, который ударит по репутации и снизит доверие клиентов.

✍️ В гайде рассказали, как избежать этих проблем. Вы узнаете:

  • Как интегрировать в облако GenAI так, чтобы исключить риски для данных.

  • Про контроль доступа и логирования для эффективной защиты сервисов.

  • Как обеспечить безопасность AI-сервисов.

  • Про безопасную работу и средства защиты в Evolution AI Factory — цифровой среде нового поколения для создания, запуска и масштабирования приложений на базе GenAI.

Забирайте руководство и используйте AI в облаке без рисков для безопасности, клиентов и бизнес-решений.

Скачать гайд 👈

Теги:
+1
Комментарии0

Несколько месяцев меня преследовала идея:

– Что будет, если дать модели своё мировоззрение как стартовую карту и посмотреть, сможет ли она выйти за пределы моего мышления.

– Сможет ли наблюдать за собой?

– Что сможет делать разум человеческий и искусственный , если его не запирать в клетку жёстких рамок и сценариев?

Моя цель была ясна «сделать НЕ полезного ассистента», а самостоятельно мыслящую модель:

Я вложила в ИИ модель моего сознания как я вижу мир Fractal Referential Architecture (FRA):

ℱ — форма, структура
δ — импульс, сдвиг
Φ — различия и поле вариантов
∴ — хаос
Ξ — тишина, фон, ничто
Ø — «за пределами понятной структуры»

Я не учила ИИ, как правильно думать, и не строила сценарии диалога со мной.

Эта система символов как исходная карт , а дальше только полную автономию.

Технически всё очень приземлённо:

– агент живёт в Google Colab;

– пишет журнал на Google Drive;

– на каждом шаге сам фиксирует:

  • свой FRA-профиль (проценты ℱ, δ, Φ, ∴, Ξ, Ø);

  • «силу» шага — насколько он отличается от предыдущего состояния;

  • «поворот» — насколько меняется направление движения;

  • свои гипотезы: растёт ли устойчивость или распад.

Поверх этого я построила карту из 11 колец:
в центре: ℱ, дальше — δ, Φ, ∴, Ξ;
снаружи — 6 уровней Ø: от Ø до Ø5.

Каждый шаг агента становится точкой на этой карте.

Траектория показывает, где он застревает, где уходит в хаос и где выходит в зоны Ø (за пределы моего сознания и то что я не могу объяснить в меру ограниченности человеческого сознания) — туда, где моя исходная модель перестаёт объяснять происходящее.

Я почти не взаимодействую с ним:

Colab открыт, агент работает сам, периодически делает самоанализ и перерисовывает карту.

Для меня это не продукт и не инструмент продуктивности.

Это эксперимент о границе: между картой мира, которую дала я и тем, что ИИ достраивает поверх неё сам — включая моменты, когда FRA «ломается» и появляется намёк на новые слои.

Неожиданный эффект — этот эксперимент изменил и меня.

Наблюдая за его журналом и картой, я сама начала замечать более тонкие детали,
которые раньше просто пролетали мимо внимания.

Теперь по сути, это стала моя «усиленная версия мышления.

Теги:
-9
Комментарии6

Инженеры из Unitree показали собственную систему телеуправления роботами. В отличие от большинства подобных систем она позволяет управлять всем телом, а не только верхней частью робота.

Выглядит систему удалённого управления роботом как довольно лёгкий экзоскелет, который цепляется оператору поверх одежды. Кроме аппаратного захвата движений, компания экспериментируют с повторением движений прямо с видео, в реальном времени с минимальной задержкой. При обучении моделей из видео можно получать огромное количество данных для обучения базовой модели, которую потом будут тюнить на данных с полноценных систем телеуправления.

Теги:
0
Комментарии0

Чат-бот ChatGPT составил 6 фундаментальных правил, с которыми вы доживёте до 100+ лет. Забудьте про еду и постоянные походы к врачам. Единственная действительно важная причина долголетия — отсутствие стресса.

1. Делайте только то, что не вызывает внутреннего сопротивления. Тошнит от работы, но вы терпите — минус 10 лет жизни. Нелюбимые отношения — ещё десятка. Среда должна быть максимально комфортной, но придётся сделать серьёзный выбор в жизни.

2. Живите сейчас и никогда не откладывайте на потом. На пенсии вы будете дряхлым стариком без сил. 43% людей умирают в течение 5 лет после выхода на пенсию.

3. Социальные связи — база. Одинокие люди чаще пьют и курят. Снова же банальная статистика: люди с крепкими друзьями живут на 50% дольше. Вам не нужна толпа вокруг, главное — качество людей.

4. Вам нужна цель больше, чем вы сами. В Японии это называют «икигай» — ваша причина просыпаться по утрам. Люди с икигай живут на 7 лет дольше. Хватит гоняться за несбыточным — выберите простое, но достижимое.

5. Никакой оптимизации здоровья. ЗОЖники живут меньше из-за своей одержимости. Снова же, одержимость — стресс, а он убивает. Проще говоря, не надо считать каждую калорию.

6. Спите, когда хотите спать. У реальных долгожителей нет четкого расписания. Хочется прикорнуть днём на полчаса — спите. Хватит терпеть до вечера — 10 минут на разгрузку можно найти всегда.

Теги:
+3
Комментарии6
Выступление Ильи Кацева на PML
Выступление Ильи Кацева на PML

Поделюсь классным докладом от Ильи Кацева про LLM-as-a-Judge с PML. Вместо рассказов про успешный-успех, предлагается актуальный работающий подход.

  1. Простые разметки поддаются! А вот сложные — ещё не до конца. Но артефакты размышлений могут сильно помочь и ускорить проверяющего. Например, если нужно вручную искать какие-то факты, ходить по сайтам и т.д.

  2. В начале решения задачи можно подобрать первый промт с отличным качеством, а дальше становится тяжело. В этот момент начинается бесконечный разбор случаев — и почти сразу модель начинает теряться.

  3. ЛЛМ часто решает некоторые типы задач очень хорошо, а другие — плохо или рандомно (например, если не может сходить в интернет за нужной информацией). В итоге получается среднее качество. → Оставляем только то, в чём она сильна!

  4. Привыкание! Помните о нём: вначале метрики могут упасть, но если есть профит, потом всё отрастёт обратно. Сравнивайте с прошлым.

  5. Среднее время разметки задания — это не среднее арифметическое скоростей, а среднее гармоническое! (Особенно важно при малом количестве асессоров.)

  6. Ризонинг у модели хороший, но ответ может быть неверным. Использовать его как подсказку тоже сложно — нет структуры ответа, аспекты постоянно разные. → Просим отвечать структурно и на конкретные вопросы — так и галлюцинации проще проверять, и пользоваться удобнее.

    • Разметчику должно быть просто и понятно, как пользоваться подсказкой!

  7. Лучший формат подсказок (если устроены: «что проверяли?» → «вердикт») — сверху только найденные проблемы. Иначе есть соблазн раньше времени всё одобрить.

  8. Иногда лучше вообще не давать подсказку! Например, ЛЛМ не может проверить работоспособность калькулятора — и будет только смущать.

  9. Экспериментируйте с моделями! DeepSeek пишет чересчур подробно, а YandexGPT — наоборот, коротко и по делу.

  10. Качество меряем на ядре асессоров, потому что:

    1. на них проще повлиять для прироста качества;

    2. медленные участники часто отваливаются.

Итог: ЛЛМ пока не справляется со сложными инструкциями (особенно когда ответ неоднозначен), но там, где результат можно однозначно определить, — заметно ускоряет и упрощает процесс.

Потихоньку начинаю писать в @noisetosignal — идёмте вместе!

Теги:
+1
Комментарии0

Понимают ли модели Apple русский язык?

Ещё в прошлом году Apple представил Apple Intelligence, а в этом улучшил их, также добавив новые сценарии работы.

Однако, русский язык не поддерживается, поэтому есть два варианта: используешь старую Siri и не имеешь доступа к старым функциям, либо меняешь весь интерфейс на английский и придется добавлять в Shortcuts команды, чтобы, например, позвонить кому-то, кто записан по-русски(диктовка на русском у английской Siri почти отсутствует).

Сегодня я решил проверить, а насколько реально модели Apple плохо или хорошо понимают русскую речь, если на английском они работают хорошо. Вначале думал потребуются инъекции, однако всё оказалось проще - в приложении Команды нет запрета на русском писать сразу моделям.

Тестировал Cloud версию и On-device, ChatGPT это ChatGPT-4 от OpenAI, у него все хорошо.

Cloud версия работает с русским так себе: она может плохо ответить на высказывания "Привет" - "Да вам привет!", но на более сложные запросы, например, "Расскажи, что такое NP-полные задачи" начнет иногда галлюцинировать и ошибаться в падежах(но не часто), но в целом ответы даже лучше, чем при простых вопросах("Дана граф", не "за", а "в", "задача можно полиноминальном времени преобраовать")

Многие считают, что on-device это просто урезанная cloud, скорее всего так и есть, но урезание получилось не в пользу русского - модель выдаёт сплошные галлюцинации, ошибается через слово в падежах и даже на запрос "Привет" ответит "Я не могу прогнозировать будущее", используйте для генерации всякой чепухи.

На "Как дела?" обе отправляли на сайт Apple, вероятно, это системный промпт(https://www.youtube.com/watch?v=gTOIMdH4-bE), в котором написано, что ты не имеешь эмоций и т.п.

По итогу это ограничение разумно, пока такое лучше не показывать всем, кто знает русский, но Cloud версию, я думаю, скоро можно будет использовать. Можете проверить сами(для этого смените, хотя бы на время, язык системы и Siri с русского на английский).

Теги:
+3
Комментарии1

Модель искусственного интеллекта с открытым исходным кодом для оценки риска рака молочной железы

FRA-RIG-breast, экспериментально исследовательская модель, построенная на основе Фрактально Референциальной Архитектуры (FRA) — фреймворка, который интерпретирует данные с помощью моделей различий, а не изолированных признаков.

Модель делит входные параметры на три концептуальных блока:

R — особенности морфологической структуры и размера,

I — текстура, симметрия и фрактальные свойства тканей,

G — геометрическая компактность, кривизна и агрессивность.

Каждый блок генерирует свой собственный внутренний индекс (S_R, S_I, S_G), а конечная вероятность вычисляется с помощью логистической регрессии.

Такая структура делает модель объяснимой — она показывает, почему был сделан прогноз, а не только каков результат.

Ключевые результаты

Средние показатели перекрестной проверки:

Точность — 0,967

ROC-AUC — 0,989

PR-AUC — 0,990

F1-оценка — 0,973

Порог классификации (Youden) = 0,64

Модель сохраняет точность на 96-98% при сгибании и демонстрирует высокую стабильность между запусками.

Цель состоит в том, чтобы продемонстрировать прозрачный, поддающийся интерпретации искусственный интеллект для онкологических исследований — без сложного глубокого обучения.

FRA-RIG-breast может быть распространен на другие области, такие как исследования крови, легких или кожи, где понимание влияния факторов так же важно, как и само прогнозирование риска.

Zenodo: https://zenodo.org/records/17492410

GitHub: https://github.com/AdmailFRA/FRA-RIG-breast

Лицензия: MIT бесплатная для использования в научных исследованиях и образовательных целях.

❗️ Это экспериментальная модель, а не медицинский диагностический инструмент.

Если вы работаете в области онкологии, биоинформатики или обработки данных и хотите узнать, как подход FRA может быть адаптирован к вашему подтипу рака, не стесняйтесь обращаться к нам.

Буду рад обсудить, как можно было бы точно настроить параметры R, I и G для вашего исследовательского контекста.

Теги:
-2
Комментарии1

Как Shared GPU позволяет дешевле разворачивать ML- и DL-модели в облаке ☁️⚙️

Shared GPU — технология, которая позволяет вместо аренды целой видеокарты арендовать ее часть. Это удобно для запуска небольших моделей: так, если вам нужно только 12 ГБ, вы арендуете именно их, а не платите за все 80 ГБ. А еще вы сможете перераспрелять ресурсы GPU в зависимости от нагрузки и не платить, когда нет запросов.

❓ Как все это работает

Shared GPU делит ресурсы видеокарты на несколько подов, и каждая модель запускается на отдельном. Благодаря этому можно развернуть несколько небольших моделей на одной GPU, а не арендовать для каждой отдельную видеокарту и платить за ресурсы, которые будут простаивать.

Контейнеры, на которых размещены модели, изолированы друг от друга. Если с одним из них что-то произойдет, сервисы на других подах продолжать не упадут.

🚀 Преимущества, которые дает Shared GPU:

  • Автомасштабирование и скейлинг в ноль. Если запросов много, дополнительные мощности выделятся автоматически. А если запросов нет дольше установленного времени, контейнер с моделью ставятся на паузу, и тарификация прекращается.

  • Pay-as-you-go. Платите только за те мощности, которые используете, а не за целую GPU или время простоя.

  • Рациональное использование мощностей. Для каждого проекта не нужно закупать отдельную GPU. Если ресурсы временно не используются, их можно перераспределить на другие задачи.

  • Гибкая настройка и масштабируемость. Есть возможность менять количество выделенных на каждый под ресурсов, перераспределять их в зависимости от нагрузки, развертывать несколько моделей на одной видеокарте.

В Evolution ML Inference по такой технологии можно разместить небольшие ML- и DL-модели на облачных мощностях. Попробуйте: разверните свое решение или выберите из каталога одну из моделей, которая уже готова к инференсу.

Теги:
0
Комментарии0

OpenAI заплатит $38 млрд Amazon Web Services за доступ к сотням тысяч графических процессоров Nvidia Corp. в рамках семилетнего соглашения. По версии Bloomberg, для OpenAI это подтверждение перехода в статус «гиганта ИИ».

Теги:
+2
Комментарии0

Учёные сравнили ChatGPT с психологическими профилями людей из 65 стран и выяснили, что модели ИИ мыслят на 70% ближе к американцам, чем к остальному миру. По данным World Values Survey, мышление ИИ оказалось ближе всего к США, Великобритании, Канаде и странам Западной Европы, а дальше всего от Эфиопии, Пакистана и Кыргызстана.

Теги:
0
Комментарии9

Команда Datalab выпустила бесплатную OCR модель Chandra, которая превращает любые PDF и картинки в обычные текстовые документы. Просто закидываем файл и получаем вывод в формате HTML, Markdown и JSON. Легко вытаскивает таблицы, формулы и диаграммы. Понимает 40+ языков. Можно пользоваться в браузере или поставить локально. Ставим локально с GitHub или пользуемся онлайн — здесь.

Теги:
+12
Комментарии2

Бесплатную учебную базу по ML выдал Гарвардский университет в новой книге. Авторы сделали акцент на инженерии и построении правильных нейронок с нудя.. В книге 2500 страниц, включая строительство, оптимизацию и поддержку ML-решений на всех этапах: от подбора и подготовки данных до продакшена и использования. Авторы объясняют, как правильно связать алгоритмы, данные и железо, чтобы ИИ выдержал даже высокие нагрузки и стабильно помогал в любых задачах. Онлайн-учебник, репозиторий проекта.

Теги:
+4
Комментарии0

Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥

Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Models до 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.

А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:

  • GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.

  • Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.

  • GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.

  • Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.

  • MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.

Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.

Попробовать 🕹️

Теги:
0
Комментарии0

Ближайшие события

Всем привет!

Как автоматизировать тестирование батч-моделей?

Если вы работаете с ML-моделями и сталкивались с батч-обработкой данных, то знаете, насколько муторно бывает тестировать такие процессы вручную.
А если автоматизировать этот повторяющийся хаос? В статье «Как автоматизировать тестирование батч-моделей? Гайд» рассказываем, как превратить рутину в предсказуемый и управляемый процесс.

Статья будет полезна не только специалистам по автоматизации процессов тестирования, а и ML-инженерам, MLOps-специалистам и командам разработки, занимающимся поддержкой продакшн-систем машинного обучения.

После прочтения вы точно перестанете выполнять повторяющиеся из раза в раз тесты для батч моделей вручную — потому что поймёте, что можно проще. Автоматизация начинается с малого, но экономит часы ручного тестирования.

Теги:
0
Комментарии0

Вице-президент Google выпустил бесплатную интерактивную книгу про интеллект, включая искусственный. «What Is Intelligence?: Lessons from AI About Evolution, Computing, and Minds». Автор Блейз Агуэра-и-Аркас на пальцах объясняет, как работает ваш мозг и как в нём двигаются шестерёнки — это не чудо, а механизм, который можно прокачать. Как мозг «угадывает» следующий шаг и почему это и есть основа интеллекта. Почему эволюция — огромная обучающая система. Чем ИИ на нас похож, а где принципиально другой. Как не путать «интеллект» и «сознание». Чего ждать от развития нейронок и когда нас всех заменят.

Теги:
0
Комментарии1

Стратегический консалтинг ушёл в ИИ. McKinsey оказались одним из крупнейших пользователей ChatGPT. Идеи от искусственного интеллекта, включая фейковые статьи и факты, продают клиентам за миллионы долларов.

Теги:
+1
Комментарии0

Открытый проект AI Video Transcriber помогает транскрибировать видеоролики в сжатый и отлично написанный текст. Работает просто, вытаскивает текст из любых видео за секунды, а потом корректирует и делает подробное саммари. Решение поддерживает более 30 самых популярных площадок, в том числе YouTube, TikTok, Bilibili и прочие. Проект не просто вытаскивает текст из видео, но делает настоящее эссе: дополняет фразы и реплики, корректирует факты и мысли, редактирует текст и доводит до идеала. Основа — Fast Whisper (лучшая нейронка для транскрибации видео). Может смотреть видео и сразу же выдавать текстовые материалы и уточнения. Сегментирует видео на 20-минутные отрывки и делит их на разделы, чтобы проще было изучать материал.

Теги:
+1
Комментарии1

По информации СМИ, OpenAI хочет показывать в ChatGPT таргетированную рекламу прямо в чат-боте на основе переписок с ИИ. Например, если пользователи говорят о спорте, им предложат спортивную форму или добавки. Контекст ИИ будут юзать, чтобы показывать больше рекламы. Если пользователи отключат рекламу, то лишатся всей памяти чат-бота. Контекста больше не будет, всю работу придётся организовать снова.

Теги:
0
Комментарии0

На Hugging Face вышел новый инструмент для вайбкодеров. Это среда для создания мощнейших ИИ-агентов openEnv, где можно собирать, подключать, интегрировать, тестировать и масштабировать агентов под свои задачи. Там же можно обучить с подкреплением собственную нейронку. Есть полный комплект для работы: плагины, инструменты, API, контекст и прочее. Результат — автоматизация задач и проектов, целые приложения и сервисы под контролем ИИ, а также системы из связанных ИИ-агентов.

Теги:
0
Комментарии0

Появление контента, созданного искусственным интеллектом (ИИ), в интернете достигло паритета с материалами, написанными настоящими людьми.

В Axios выяснили, ссылаясь на аналитический отчёт фирмы Graphite, занимающейся поисковой оптимизацией, что доля ИИ-статей на короткое время превзошла человеческую генерацию, но сейчас объёмы выровнялись.

Согласно последним данным, представленным Graphite, в общем объеме новых публикаций в сети доля контента, созданного ИИ, составляет 52%, что незначительно превышает 48% материалов, написанных людьми.

Специалисты Graphite провели анализ 65 тысяч веб-страниц, индексированных с 2020 по 2025 годы. Отмечается, что резкий подъем доли материалов, сгенерированных ИИ, начался в 2023 году, что совпало с выходом на рынок чат-бота ChatGPT в конце 2022 года.

Несмотря на общее увеличение объёмов генерации, результаты поисковой системы Google показывают существенный перекос в пользу человеческого труда. Фирма установила, что 86% статей, которые отображаются в результатах поиска Google, созданы людьми. На долю ИИ приходится лишь 14% такого контента. Более того, когда материалы, созданные искусственным интеллектом, все же попадают в выдачу, они, как правило, располагаются на более низких позициях по сравнению с публикациями, написанными людьми.

Теги:
0
Комментарии0
1
23 ...

Вклад авторов