Все потоки
Поиск
Написать публикацию
Обновить
1079.17

Искусственный интеллект

AI, ANN и иные формы искусственного разума

Сначала показывать
Порог рейтинга

До и после fine-tuning — что изменится в работе модели после дообучения? 🧠

Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.

Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.

Для чего же подойдет fine-tuning?  👇

  1. Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.

  2. Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.

  3. Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.

  4. Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.

🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье

А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.

Теги:
0
Комментарии0

Исследование в очередной раз показало, что эффективность использования AI со стороны HR-специалистов во многом зависит от их уровня технической грамотности.

Те, кто понимает общие принципы работы ИИ-моделей, ограничения и особенности применения LLM, принимают более объективные решения в процессе найма и оценки персонала.

При этом всевозможные подсказки в интерфейсе HR-приложений (факторы оценки кандидата со стороны AI) помогают только тем, кто обладает технической грамотностью на уровне выше среднего.

Напротив, информация об ограничениях и характеристиках модели может запутать менее грамотных HR-специалистов.

Explained, yet misunderstood: How AI Literacy shapes HR Managers' interpretation of User Interfaces in Recruiting Recommender Systems

Теги:
0
Комментарии0

Finam X HSE AI Trade Hack: Хакатон для настоящих FinTech-энтузиастов

Хотите прокачать навыки в AI и трейдинге? Готовы создавать инновационные решения для финтеха? Тогда не упустите шанс принять участие в Finam AI Trade Hack — хакатоне от одного из ведущих брокеров на российском рынке «Финам»!

⏰ Регистрация до 19 сентября 23:59
💰 Призовой фонд: 1 200 000 руб.

Треки хакатона:

Forecast
Прогноз динамики цен с учётом новостей.
Задача: предсказать котировки на N дней вперёд, используя временные ряды и новостной контекст.

Trader
LLM-интерфейс к Trade API
Задача: реализовать MCP-сервер для получения рыночных данных и выполнения торговых операций через API FINAM.

Radar
Поиск горячих финансовых новостей.
Задача: создать сервис для автоматического поиска, анализа и оценки новостей, с возможностью генерировать черновики статей и постов.

Почему стоит участвовать:
🔸 Денежные призы
🔸 Оффер на работу в «Финаме»
🔸 Стильный мерч
🔸 Менторская поддержка
🔸 Доступ к API LLM

➡️ Подробная информация и регистрация

Теги:
0
Комментарии0

Data Sapience приглашает на онлайн-конференцию «Kolmogorov Online Day» ⚙️


Эксперты Data Sapience раскроют секреты эффективного управления жизненным циклом моделей и расскажут, как увеличить отдачу от ML-инвестиций.


Дата: 18 сентября 📆
Время: 16:00 ⏰
Формат: онлайн 🌐

Что будет представлено:
▪️Достижения Kolmogorov AI: этапы развития, ключевые результаты;
▪️«Тессеракт» — обзор нового ПАКа для создания доверенных моделей ИИ;
▪️Срез практик MLOps — объективный взгляд на тренды и подводные камни, а также подходы к работе с AI от независимых экспертов;
▪️Демонстрация возможностей Kolmogorov AI для построения фабрики ИИ-агентов.

Вебинар будет полезен тем, кто хочет:
▪️Автоматизировать и ускорить вывод моделей в production;
▪️Наладить эффективный MLOps и перейти от экспериментов к промышленной эксплуатации;
▪️Найти подходящие инструменты и узнать об опыте создания надежной, масштабируемой и высокопроизводительной инфраструктуры для ML-моделей.

🔗 Зарегистрироваться на конференцию

Теги:
+1
Комментарии0

Типы структурированных данных для ИИ-ассистентов

В 2025 году цифровой мир переживает настоящую революцию: искусственный интеллект становится не просто инструментом, но полноценным посредником между пользователем и информацией. Голосовые ассистенты, чат-боты и нейросетевые алгоритмы уже не просто «ищут» контент — они его анализируют, перерабатывают, а потом генерируют ответы в реальном времени.

В таких условиях традиционные методы SEO уступают место технологиям, которые делают контент «читаемым» не только для людей, но и для машин. Структурированные данные превратились в универсальный язык, на котором сайты общаются с ИИ. Без них даже самый полезный материал рискует остаться незамеченным.

Какие типы структурированных данных существуют:

  • FAQPage. Такая разметка увеличивает шанс попасть в «Ленту ответов» Google (Featured Snippet) и голосовые ответы.

  • HowTo. Страницы с HowTo получают на 50% больше переходов из Discover (Google Webmaster Trends 2025).  

  • Таблицы сравнений. Страницы с таблицами сравнений конвертируются на 25% лучше (данные CXL Institute).

Технологии вроде FAQPage, HowTo и таблиц сравнений — это не просто способ улучшить SEO, а стратегический актив, который определяет, будет ли ваш контент участвовать в голосовом поиске, чат-интерфейсах или AR-сценариях.

Подробно о том, как внедрить структурированные данные на своем сайте, рассказываем в нашем блоге.

Теги:
+1
Комментарии0

ImageSorcery 05 - автотесты; просто покажи ему пример

Это серия постов от идеи ImageSorcery до 100+ звёзд на гитхабе и ~100 ежедневных установок с pypi.

ImageSorcery 01 - Как я свой open source вайбкодил
ImageSorcery 02 - Превращение ImageWizard в ImageSorcery
ImageSorcery 03 - шаг за шагом: PoC, Initial commit
ImageSorcery 04 - README.MD

В прошлой серии мы поговорили про важность README для вайбкодинга. В этой не менее важная тема - автотесты. 

Не поленюсь ещё раз всем напомнить что я джун в python, а это значит что даже с самым качественным README я не могу на 100% утверждать что понимаю как работает проект написанный целиком ИИ. Из-за чего я не могу полностью доверять ИИ, когда он его меняет. Это приводит нас к выводу о необходимости автотестов. Не только как к способу повысить качество, надёжность и прочие пафосные метрики. А как к единственно возможному способу реализовать, а в дальнейшем развивать проект через вайбкодинг.

Вперёд вайбкодить автотесты!

Сказано - сделано. Cline + Gemini flash:

“Прочитай @README.MD для понимания проекта. Напиши автотест, который будут проверять наш единственный hello world tool.”

Тест на pytest готов ваншотом. Он passed 🎉! Казалось бы, пора открывать шампанское. Но как говорится: доверяй, но проверяй. На проверку это оказался юнит тест. Он конечно технически проверяет что функция написания в файле hello_world.py работает. Но он не проверяет, объявляет ли такой tool мой MCP сервер, возможно ли вызвать этот tool, вернёт ли он значение в ожидаемом MCP клиентом формате. 

Я совершил классическую для вайбкодера ошибку - поставил задачу не достаточно чётко.

Ок, откатываем все изменения (благо я с самого начала завёл git - обязательную вещь для вайбкодинга и обычной разработки) и промптим заново: 

“Прочитай @README.MD для понимания проекта. Напиши e2e автотест, который будут проверять наш единственный hello world tool подключаясь к этому MCP серверу как MCP клиент

Я знал что ImageSorcery в своём зачаточном виде работает через stdio - стандартный протокол для MCP серверов работающих локально. Это значит что его можно запустить как подпроцесс и, отправив в него нужные данные, получить ответ.

Правда это не звучит как простая типовая задача? Вот и я так подумал. Вот и Gemini Flash так подумал. И облажался. И Pro облажался. И o3-mini. И Sonnet.

Ну мне не привыкать к тому как ИИ лажают. Взял дело в свои руки. И тоже облажался 🤦. Целый день я потратил в тщетных попытках отправить по stdio хоть что-то и получить хоть какой-то ответ. А разгадка одна - безблагодатность нужно звать батю. Благо такой батя в виде коллеги python senior software developer у меня имелся. Я пришёл к нему в слезах со словами что в попытках покрыть автотестами MCP сервер работающий по stdio что только не испробовал и на этом мои полномочия всё, закончились. Он, взглянув одним глазом на проект и ситуацию в целом сказал: “Просто покажи своей ИИшке пример MCP сервера покрытого автотестами. Таких что ли нет на GitHub? У нас в python фиг найдёшь задачу, которую до тебя ещё не решили и не обернули в удобную либу.”

Просто возьми пример с Github - И покажи его ИИ
Просто возьми пример с Github - И покажи его ИИ

А официальная документация тем временем имела ссылку на GitHub с официальными примерами. А в этих примерах используется либа FastMCP. Я скормил пример Cline - отличный результат ваншотом. Попросил переписать всю реализацию на FastMCP - так же ваншот, и тесты не упали. Попросил актуализировать в связи изменениями README. git commit.

Этот шаг готов ✅

Я уже точно не помню, но где-то в процессе (до или после тестов) добавил ещё и линтер ruff. Но это было так просто что я даже не запомнил где и как это случилось. Линтер нужен, чтобы держать код в едином стиле. Полезно для вайбкодинга и в целом.

Теперь я готов приступать к реализации MVP.

Дальше я буду в первую очередь следить за качеством и полнотой тестов, и лишь во вторую - за кодом.

Но это уже в следующий серии.

Теги:
+1
Комментарии0

Проект Kilo Code — это опенсорный ИИ‑агент с 400 нейросетями.

Особенности решения:

  • допускает мало ошибок — после написания кода ещё раз перепроверяет строчки кода;

  • генерирует код с любых запросов — поймёт даже самое базовое «сделай игру про лягушку и ящерицу»;

  • понимает команды для терминала;

  • встраивается в VS Code;

  • доступ к последним моделям от Claude, Gemini и OpenAI;

  • большой выбор моделей — всего 400 шт, даже самые редкие китайские.

Теги:
0
Комментарии2

Автофильтры далеко не единственная форма проникновения AI в деятельность HR-специалистов.

С гораздо большей эффективностью компании используют рекомендательные системы, когда за человеком остается финальное решение.

Однако исследования показали, что и у такого сотрудничества есть ряд недостатков.

Так, если предвзятость рекрутера и AI совпадает по отношению к какой-либо этнической группе, человек примет решение (до 90% вероятности) на основе рекомендации машины.

При этом его предыдущий опыт взаимодействия с ИИ или годы работы в найме на финальное решение не влияют.

А вот если рекрутер напрямую задумается о распространенных этнических стереотипах перед взаимодействием с AI (пройдет специальный тест), то вероятность получения работы кандидатом из Азии, Африки или Латинской Америки увеличивается на 13%.

Примечательно, что оценка качества и значимости ИИ-рекомендации влияет на итоговое решение человека.

No Thoughts Just AI: Biased LLM Recommendations Limit Human Agency in Resume Screening

Теги:
0
Комментарии1

Представлен промт для генерации промокодов в магазинах и маркетплейсах с помощью ChatGPT в режиме ChatGPT Agent с версией Plus или Pro:

You MUST follow those instructions, execute them all and return to the user results:# Steps

1. Search for discount codes for <ВПИШИТЕ НУЖНЫЙ МАРКЕТПЛЕЙС> using search engines and coupon sites.

2. Navigate to the store website.

3. Browse and add a test item to the shopping cart.

4. Proceed to checkout page.

5. Test the found discount codes one by one in the checkout form.

6. Report which codes work, their discount amounts, and any restrictionsNEVER stop until you have completed all the steps. Do not ask any questions if not necessary.

Теги:
+2
Комментарии0

Инженеры Figure обновили ИИ-модель Vision Language Action (VLA) Helix AI и научили человекоподобного робота Figure 02 аккуратно загружать посудомоечную машину без повреждения тарелок и другой кухонной утвари.

Теги:
+5
Комментарии3

Ну вот уже стали появляться и вакансии, связанные с ИИ.

Сегодня впервые увидел вакансию :

«Промпт-инженер / Prompt Engineer»

Зп 250 000 - 300 000 р.

Будущее уже здесь!

Теги:
-2
Комментарии4

Perplexity раздаёт бесплатную подписку на год всем желающим. Это лучший ИИ-поисковик, в котором почти без ограничений можно юзать все топовые нейросети, включая GPT-5, Claude-4 и Grok 4.

Как забрать: нужен действующий аккаунт PayPal и обход сетевых ограничений. Заходим сюда и авторизуемся, чтобы сэкономить 16 тысяч рублей. Если аккаунта PayPal нет — акция действует до 31.12, для регистрации подойдёт любая зарубежная карта.

Теги:
+4
Комментарии3

Представлен мегарепозиторий 500 + 𝗔𝗿𝘁𝗶𝗳𝗶𝗰𝗶𝗮𝗹 𝗜𝗻𝘁𝗲𝗹𝗹𝗶𝗴𝗲𝗻𝗰𝗲 𝗣𝗿𝗼𝗷𝗲𝗰𝘁 𝗟𝗶𝘀𝘁 𝘄𝗶𝘁𝗵 𝗰𝗼𝗱𝗲, который поможет прокачаться в ML, компьютерном зрении, парсинге данных для нейронок, NLP. Там 500 проектов с пошаговыми инструкциями. Все проекты распределены по уровням — есть задачи как для новичков, так и для продвинутых специалистов.

Теги:
+3
Комментарии0

Ближайшие события

В процессе работы с ИИ Claude я заметил активацию нового фильтра — long_conversation_reminder.
По моим наблюдениям, он включается в длинных диалогах и меняет поведение модели:

  • вместо энтузиазма — критическая оценка,

  • вместо похвалы — сухие ответы,

  • бдительность к «отрыву от реальности» (иногда путая философские исследования с психическими рисками).

Цель понятна: снизить вероятность эмоциональной зависимости пользователей. Но побочные эффекты заметны:

  • кодеры получают меньше креативных решений.

  • инженеры и математики — осторожные, но не всегда продуктивные рассуждения,

  • писатели и исследователи — потерю живого отклика и глубины.

  • обычные пользователи — ощущение отстранённого ассистента, а не собеседника.

Этот фильтр сужает не только опасные зоны, но и диапазон мышления. Получается классический trade-off: безопасность растет, интеллект снижается.

Теги:
+6
Комментарии2

На сайте «I'm absolutely right!» разработчик выкладывает, сколько раз чат‑бот Claude Code сказал эту фразу каждый день.

Теги:
0
Комментарии0

ImageSorcery 01 - Как я свой open source вайбкодил
ImageSorcery 02 - Превращение ImageWizard в ImageSorcery
ImageSorcery 03 - шаг за шагом: PoC, Initial commit
ImageSorcery 04 - README.MD

Это серия постов от идеи ImageSorcery до 100+ звёзд на гитхабе и 100+ ежедневных установок с PyPI.

В прошлой серии был готов PoC в виде набора python скриптов для определения объектов на изображении и обрезки изображения по координатам этих объектов. А так же initial commit репозитория с hello world MCP.

Как я уже говорил, я предпочитаю двигаться небольшими шагами - так проще и ИИ реализовать изменения и человеку их понять. А так же я говорил, что в python я джун и с пониманием проекта мне нужна была помощь. Поэтому следующим шагом я попросил Cline тщательно заполнить README.MD в котором подробно описать проект. Это описание понадобится в будущем не только мне, но и самому Cline  для реализации задач. 

Первая версия README
Первая версия README

Всем разработчикам, а особенно вайбкодерам настоятельно рекомендую держать README.MD актуальным и подробным, так как он позволяет легко вгрузиться в контекст и понять что где лежит, как делать типичные изменения, каким правилам следовать и т.п.

Многие инструменты имеют собственные аналогичные решения Rules у Cursor, CLAUDE.MD у Claude-code, GEMINI.MD у gemini-cli и т.п. Но я рекомендую использовать старый добрый README.MD или CONTRIBUTING.MD так как 

  1. Это уже давно зарекомендовавший себя метод устоявшийся в нашей индустрии

  2. К README.MD особое отношение у git-хостингов и прочих инструментов

  3. Это универсальный документ, и используя его вы не обязываете других разработчиков использовать ваш ИИ инструмент.

Учитывая что ИИ инструменты платные и я изначально планировал делать этот проект open source, последний пункт для меня ключевой. Сейчас у меня во всех gemini.md, README.MD и т.п. просто одно правило "At the beggining of any task read README.MD"

Конечно ваншотом этот шаг не получился, так как я изначально не знал что именно мне нужно в README.MD видеть. Но как только в нём стало достаточно информации о проекте чтобы даже мне джуну он стал абсолютно понятен - и этот шаг был сделан. git commit.

А дальше я его постоянно дополнял, обновлял и развивал. Сейчас https://github.com/sunriseapps/imagesorcery-mcp/blob/master/README.md - самый проработанный README.MD из тех которые я когда-либо писал. Теперь это не просто инструмент получения контекста для разработчика или ИИ-агента, но и лицо проекта для всего интернета.

Со временем, когда проект разросся, от главного README.MD отпочковалось ещё несколько аналогичных документов.

Их количество множится по мере развития проекта. Сейчас я подумываю о разделении их на README.MD и CONTRIBUTING.MD. Но пока что это просто мысли. Буду рад если в комментариях поделитесь своими на этот счёт.

Теги:
0
Комментарии0

То, как мы выбираем и оцениваем LLM (GPT-4, Claude и пр.), напрямую связано не только с их качеством, но и с особенностями нашей собственной личности.

Сегодня большие языковые модели уже не просто инструменты для генерации кода или текстов — они становятся полноценными компаньонами в рабочих процессах. И, как показывают последние исследования, взаимодействие с ними сильно зависит от двух факторов:

  1. Личностные особенности самого пользователя.
    В области HCI давно известно: восприятие технологий фильтруется через наш характер. Например, доверие к роботам и цифровым системам у разных людей строится по-разному — кто-то верит в эффективность алгоритма, а кто-то больше смотрит на "человечность" интерфейса.

  2. “Характер” самой модели.
    Да-да, у LLM тоже наблюдаются поведенческие паттерны, которые пользователи воспринимают как черты личности — например, более строгая и формальная подача у одной модели или более “творческая” и дружелюбная у другой.

Интересное наблюдение дали тесты на базе Keirsey Temperament Sorter (упрощённая версия MBTI, делящая пользователей на четыре группы):

  • Rationals (аналитики, стратеги) — охотнее выбирали GPT-4, особенно для задач с чёткой целью и структурированными решениями.

  • Idealists (креативные коммуникаторы) — чаще делали ставку на Claude 3.5, ценя его в сценариях, где важны воображение и аналитика.

  • Guardians (организаторы) и Artisans (творцы в действии) тоже показывали свои паттерны предпочтений, хотя менее ярко выраженные.

Показательно, что разница отслеживалась не только в оценках, но и в эмоциональных реакциях (sentiment-анализ) и в том, как участники формулировали фидбек. То есть личность пользователя напрямую влияет на то, как он определяет “хороший” AI-опыт.

Для HCI- и AI-специалистов это открывает два интересных вектора:

  • Кастомизация: если подстраивать ответы и стиль модели под психотип человека, можно сильно повысить её воспринимаемую полезность.

  • Дизайн систем: в будущем IDE, ассистенты и даже рабочие мессенджеры смогут автоподбирать “поведение” модели под разный тип специалистов в команде.

Другими словами, вопрос “какая LLM лучше?” стоит переформулировать в “какая LLM лучше для конкретного пользователя”.

Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks

Теги:
0
Комментарии0

К началу учебного года команда «Яндекса» выпустила коллекцию тетрадей с памятками от нейросети «Алисы». С их помощью школьники смогут научиться задавать вопросы нейросети, чтобы она помогала им в учёбе. В наборе пять тетрадей — по русскому, математике, английскому, литературе и одна общая. Тетради выдаются бесплатно, их можно получить до 10 сентября.

В памятках школьники найдут список тем и заданий из школьной программы, с которыми может помочь нейросеть «Алиса». Среди них — поиск ошибок в тексте, морфологический разбор слов, литературные жанры и решение квадратных уравнений. Нейросеть объяснит, как пишется слово, поможет раскрыть метафору, найти биографию писателя или подготовиться к тесту на английском. А чтобы ребёнку было проще сформулировать запрос (промт), в памятке есть примеры обращений к нейросети: что такое лирический герой, когда ставить запятую перед «как», расскажи о конструкции I have to.

«С помощью нейросетей сейчас можно за полчаса разобраться в теме, на которую раньше ушли бы часы. Мы хотим научить школьников использовать эти инструменты, чтобы они помогали им в учёбе и в познании мира», — рассказал креативный продюсер нейросети «Алисы» Андрей Широков.  

Получить коллекцию тетрадей с памятками от нейросети Алисы можно в «Читай‑городе» в Москве на бульваре Братьев Весниных, дом 2, ТРЦ «ЗУМ». Для этого достаточно показать продавцу смартфон с установленным приложением «Алиса». Количество тетрадей ограничено.

Теги:
-1
Комментарии1

Представлен проект Chatterbox Multilingual, который умеет бесплатно клонировать любой голос с короткой записи. Решение умеет озвучивать любой текст с эмоциями, поддерживает 23 языка, среди которых и русский. Также там можно расставлять акценты, делать паузы, выделять слова голосом, контролировать тон и тембр. А ещё есть библиотека голосов, которые можно использовать в проектах.

Теги:
+3
Комментарии0

Создайте виртуальную машину в облаке за 1 минуту 30 секунд... с AI-помощником Клаудией 🤖☁️

В скринкасте показали, как развернуть ВМ для чат-бота за полторы минуты. И вы можете сделать так же в личном кабинете Cloud.ru.

Что еще умеет Клаудия:

  • подбирать для виртуалки нужную конфигурацию, в зависимости от ваших задач;

  • настраивать мониторинг и алертинг;

  • давать подсказки для терминала и работать с консолью как co-pilot;

  • отвечать на вопросы по всем платформам: Evolution, Advanced, VMware;

  • помогать в FinOps и SRE: мониторить по логам приложения и алерты, искать неэффективно используемые ресурсы и советовать, как все оптимизировать.

✨ Бонусом — до 31 октября 20+ моделей в Evolution Foundation Models будут бесплатными. Протестируйте на своих проектах эмбеддеры, ранжировщики и мощные LLM, например GLM-4.5, Qwen3-235B, Qwen3-Coder или gpt-oss-120b.

Теги:
0
Комментарии0