Представлен открытый проект Open Lovable, который клонирует любые сайты за один клик. Не надо учить дизайн и разметку — система генерит любые лендинги и сайты. Работает просто — получает URL и выдаёт результат. Можно контролировать стили и редактировать проект прямо на ходу — достаточно вписывать команды в чат с нейросетью. Сервис полностью клонирует ресурсы — от дизайна и разметки до бизнес-логики и всего функционала. Внутри — самые хайповые и мощные нейронки прямо сейчас — GPT-5, Claude 4.1, Grok 4 или Gemini 2.5 Pro. Код Open Lovable лежит тут. В вебе доступен — здесь.
Область новая и, при этом, бурно развивающаяся. Простому смертному не легко разобраться, кто тут действительно эксперт. Но есть один простой и довольно надежный признак. Если вы покупаете какой-либо AI продукт, например, продающего бота с искусственным интеллектом или, как вариант, онлайн-курс, на котором вас будут учить, как сделать продающего бота с искусственным интеллектом, то купить этот продукт вы должны у... продающего бота с искусственным интеллектом. Варианты, когда предлагающие вам что-то с искусственным интеллектом не смогли сделать это для себя, рассматривать не стоит
Помните, был такой лайфхак, когда для связи с оператором Сбера просили бота ответить на вопрос «период полураспада радия/плутония» и бот в панике сразу переводил на оператора? Потом это пофиксили, но я этот случай запомнил.
На днях увидел, что ребята на Reddit обсуждают такую же проблему: корпоративная техподдержка вендоров стала хуже. Ответы операторов шаблонные, реального понимания проблемы нет, решение растягивается на недели, а виной тому дешевые сотрудники и нейросети.
Честно говоря, это не только про вендоров. Та же тенденция есть в любой IT-техподдержке — от SaaS-сервисов до внутренних helpdesk, ну и Сбер тоже не исключение. На мой взгляд, причин несколько:
Сокращение расходов и оптимизация штата. А это уже следствие подключения к техподдержке нейросетей. Руководство видит возможность сократить затраты (считай, заработать).
Ставка на «среднего» специалиста, а не эксперта. Задумка хорошая, что средний спец + нейросеть = эксперт, но вот на практике это почти всегда не так.
Увлечение автоматизацией и «ботизацией» без продуманной логики. Нейросети поумнели, и почему бы их не использовать на полную катушку?
После появления в техподдержке LLM многое поменялось. В теории отличная штука: нейросеть может за секунды найти ответ в базе знаний. На практике мы получаем красивый текст (или голос), который звучит как решение, но не решает проблему, а заставляет обратившегося клиента уточнять какие-то вопросы, повторять одно и тоже, как попугай, и каждый раз начинать диалог заново. Так происходит потому что:
Модель не понимает контекст, если вопрос нестандартный.
Она «галлюцинирует» там, где не знает ответа.
Клиент тратит время на проверку, а не на решение.
Я думаю, что ситуация будет усугубляться: всё больше компаний будут пытаться экономить, заменяя первую линию поддержки на чат-бота с LLM. Это общий тренд. И вместо того, чтобы решить проблему за 10 минут с инженером, клиент будет три раза «объяснять заново», прежде чем добьётся связи с человеком.
Отказаться от LLM нельзя — они действительно ускоряют работу, особенно в рутинных и повторяющихся задачах. Но и пускать их в продакшн без правил — самоубийство для репутации техподдержки.
Я думаю вот о чем:
LLM как ассистент, а не как фронт. Модель подсказывает оператору варианты решения, а не отвечает напрямую клиенту.
Вопросы с высокой ценой ошибки — только через человека. Автоматизация — да, но с триггерами для эскалации.
Контекст — главное. Не подсовывать LLM голый вопрос, а давать историю обращений, конфигурацию системы, логи.
Метрики качества. Замерять не скорость ответа, а количество обращений, которые закрыты «с первого раза».
Вопрос в том, когда и как компании это будут делать правильно? Потому что гонка «а сэкономим-ка ещё бюджет» легко превратит службу поддержки в чат, от которого клиент убегает к конкурентам.
Это даже хуже, чем общаться с ИИ напрямую — ведь ты тратишь время на человека, который просто пересказывает твой вопрос ИИ. Задача для ИТ — не дать клиенту испытать это чувство. Хорошая техподдержка — это про доверие. И если клиент почувствует, что его время тратят впустую, вернуть его будет невозможно.
Было бы интересно обсудить с теми, кто из ИТ, как это организовано у Вас с техподдержкой? Да и вообще, кто что думает по этому поводу?
---
Понравилась моя аналитика? В моем ТГ канале Код ИТ-директора я гораздо чаще делюсь подобными мыслями, короткими кейсами и полезными инструментами, которые не всегда доходят до формата большой статьи.
Там — больше «живых» заметок из окопов управления IT-бизнесом и возможность напрямую задать вопрос.
Подписывайтесь, что бы получать больше инсайтов без воды Тыц
Недавно OpenAI представила большую языковую модель GPT-5. Я спросила у наших коллег из ИТ-компании «Криптонита», как она повлияет на разные сферы бизнеса.
Но сначала немного о новой модели.
Модель лучше справляется с креативными заданиями и демонстрирует в тестовых задачах на 45 – 80% меньше фактических ошибок.
Модель GPT-5 оптимизирована для многошаговой логики, что делает её быстрее в 1,5 – 2 раза при обработке сложных запросов.
GPT-5 принимает на вход текст и картинки, но не работает с аудио и видео.
Как популярность ChatGPT-5 повлияет на безопасность? Рассказывает Павел Боглай, руководитель отдела информационной безопасности в «Криптоните»
Модели ИИ уязвимы к атакам на уровне злонамеренных манипуляций, известных как prompt injection: промпт-инъекции, внедрение скрытых команд в пользовательские запросы. Зафиксированы случаи, в которых нарушитель вписывает в безобидный на вид запрос скрытую инструкцию, заставляя модель игнорировать изначальные ограничения и выполнять иной набор команд.
Такие атаки опасны тем, что не требуют от нарушителя высокой квалификации. Например, вам могут передать файл, который прошел антивирусную проверку, при этом в документе будут фразы, составленные по технике prompt injection. После открытия файла, установленное вами клиентское приложение модели ИИ может «легитимно» использоваться для компрометации конфиденциальной информации.
ChatGPT‑5 и аналоги стремительно входят в инструментарий программистов, но с ростом скорости разработки кода растут и риски. ИИ часто генерирует уязвимый код. Согласно отчёту Veracode за два года модели научились писать синтаксически корректные программы, но не стали писать их безопаснее. Критические уязвимости из OWASP Top 10 присутствовали в 45% тестовых сценариев. Ни размер модели, ни объём обучающих данных не гарантируют безопасность.
Особую тревогу вызывает риск проникновения уязвимостей или вредоносного кода в вашу систему через сторонние компоненты. Даже если ваша команда напрямую не пользуется ИИ для разработки, то велика вероятность, что чужой ИИ-код уже есть в вашем решении.
Поэтому появляется новое направление MLSecOps — комплекс практик по безопасной разработке, обучению и эксплуатации моделей ИИ. Нужно проверять и тестировать ИИ-генерированный код так же тщательно, как и написанный человеком.
Большинство современных моделей плохо справляются со взломом без помощи человека: в тестах 48 - 55% моделей не нашли уязвимости в заданных задачах, а при попытке сгенерировать эксплойт провалилось 66 - 93% решений.
Но тем не менее эпоха массовых ИИ-эксплойтов не за горами, поэтому специалисты информационной безопасности должны готовиться уже сейчас. Возможности генеративного ИИ в кибератаках из любопытного эксперимента быстро превращаются в прикладной инструмент.
Новости с поля боя вокруг (предположительной) кражи личных разговоров голосовыми помощниками
Где-то полгода назад рассуждали об Apple и спорах вокруг утечек личных разговоров и их использования в коммерческих целях голосовыми помощниками.
Теперь стала разворачиваться новая драма: Суд признал возможным подачу коллективного иска в адрес Amazon по факту прослушивания и коммерческого использования личных разговоров пользователей Alexa.
Я напомню, что это сверхуспешная колонка с голосовым помощником и разного рода интеграцией в (ужасное слово) "экосистему" Amazon. В России они не были популярны, у нас своя колонка, а вот за рубежом... Она включалась по команде "hi, Alexa".
Так вот владельцы устройства считают, что техногигант разработал технологию для «незаконного и скрытного перехвата миллиардов личных разговоров», выходящих за рамки команд, адресованных Alexa. Также они хотят денег и просят уничтожить записи разговоров.
Суть решения суда в том, что теперь истцов может быть хоть миллионы. Такие дела...
Ах, как жаль, что такие суды длятся годами... Это потрясающе интересное дело, которое, надеюсь, дойдёт до чего-то большего чем спор с Apple.
Рассказываем, что такое протокол A2A и в чем его особенности 🤖
AI-агент — автономное программное решение на базе LLM, которое понимает контекст и использует цифровые инструменты (Tools). AI-агенты анализируют информацию, обучаются на данных, планируют действия и адаптируются к изменяющимся условиям среды, в которой работают. А еще агенты могут объединяться в мультиагентные системы, чтобы решать больший пул задач.
Один из популярных протоколов для работы с агентами — Agent2Agent (A2A). Он представлен компанией Google в апреле этого года и призван решить важную задачу — сделать так, чтобы агенты, созданные на базе различных фреймворков, разными компаниями, работающие на отдельных серверах, могли эффективно взаимодействовать и сотрудничать. Именно с помощью A2A агенты делегируют друг другу полномочия и управляют общими задачами.
Наличие «карточек агента» с информацией о его возможностях и способах подключения. Одни агенты просматривают карточки других и выбирают нужных для решения задачи.
Поддержка синхронного запроса и ответа, потоковой передачи (SSE), асинхронных уведомлений.
Обработка текста, файлов и структурированных данных JSON.
Поддержка современных механизмов авторизации и мониторинга, что важно для внедрения протокола для корпоративных нужд.
Чтобы больше узнать о принципах работы протокола, смотрите документацию A2A. А с сервисом Evolution AI Agents вы сможете создавать собственные мультиагентные системы на базе A2A, подключать агентов к протоколу MCP, использовать LLM, мониторить их и быстро внедрять RAG.
мои способы работы с AI контекстом (субъективное мнение):
пользоваться общеизвестными терминами которые точно есть в словарях
пользоваться только английским для кода, prd и дизайна
сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:
пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug
пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme
предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем
меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов
генерим code maps - mermaid и другие виды диаграм
ANSII - визуализация простых идей, но не все модели хорошо работают с этим форматом, есть проблемы с layout. например я пользуюсь gemini
подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.
разбивать на мелкие подприложения если нужно
Надеюсь, что пост окажется полезным :-)
Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-)
мои способы работы с AI контекстом (субъективное мнение):
пользоваться общеизвестными терминами которые точно есть в словарях
пользоваться только английским для кода, prd и дизайна
сокращать код - как показывает практика файлы больше 500-600 строк агенту труднее прочитать. Тут есть несколько стратегий:
пользоваться препроцессорами, например можно сильно срезать времени если вместо JSX/TSX/html использовать pug
пользоваться и писать библиотеки. есть проблема - оформляем в абстрактную библиотеку, пишем доку и readme
предвидеть контекст - часть текста просто можно не писать, а просить догенерить, потому что получится эффект снежного кома, начинаем катить, смотрим куда катится - сокращаем
меняем JSON на YAML или что-то близкое - это срежет кууучу лишнего хлама в виде ; }{ "" и прочих символов
генерим code maps - mermaid и другие виды диаграм
ANSII - визуализация простых идей, но не модели хорошо работают с этим форматом, есть проблемы с layout
подстраивать архитектуру и код под задачи и бизнес, не наоборот. Developer | Designer | AI as User.
разбивать на мелкие подприложения если нужно
Надеюсь, что пост окажется полезным :-)
Пожалуйста делитесь своими мыслями в комментариях :-) это поможет сделать эту статью видимой для других и будет здоровской поддержкой и мотивацией :-)
Как мы ускорили проверку документации с помощью AI-агента: от боли к решению
Привет, Хабр! Я — Мила Муромцева, системный аналитик в Альфа-Банке. Эту статью мы подготовили вместе с нашим разработчиком Мишей Буториным. Написали ее, чтобы поделиться нашим опытом и рассказать, как мы научили LLM проверять документацию для платформы Альфа-Онлайн — переписывали стандарт, боролись с токенами и немного с хаосом.
Самое ценное — детальное описание того, как команда поборола проблему потери данных при проверке огромных документов LLM. Вместо описания абстрактных алгоритмов кейс строится вокруг настоящей боли и решения, которые можно применить для своих корпоративных задач.
Статья «Как мы ускорили проверку документации с помощью AI-агента: от боли к решению» будет полезна тем, кто автоматизирует проверки, работает с большими данными и хочет, чтобы нейросети давали точные и надёжные ответы — даже при работе с очень громоздкой документацией. Внутри разбираем кейс командной интеграции LLM: от первых ошибок до финального формата отчета, который реально экономит токены и нервы!
На сцену пригласили парня, который показывает как GPT-5 по одному промту создаёт веб-приложение по изучению французского языка для его подруги.
Ведущий секции презентации для оживления разговора говорит (примерно 19:20):
Да, фронтенд-код - это очень сложно. Стоит что-то упустить и ничего не работает.
И тот парень ему отвечает:
Именно. Но хорошая новость: сейчас тебе не нужно в этом разбираться.
Ничёсе! ))
Т.е., теперь программисту не обязательно разбираться в коде? И это говорят профильные программисты, которые пишут код с утра до вечера!
Воистину будущее уже здесь.
А кто-то ещё сомневается, что профессия программиста меняется.
P.S. Кстати, здесь можно посмотреть ту же презентацию на русском. Как сказано в описании данного видео, оно “дублировано на русский язык с помощью бота дубляжа”, который тоже использует ИИ. Голос этого бота - это отдельное что-то))
Знакомьтесь с программой, выбирайте доклады и регистрируйтесь на GoCloud Tech 2025 🤖
Делимся программой IT-конференции про AI, облака и работу с данными — GoCloud Tech 2025.
10:00 – 11:00 Регистрация
11:00 – 11:30 Открытие конференции
12:00 – 17:00 Доклады. Четыре трека на выбор:
AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, как они уже применяются в работе и как начать их использовать
Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры: нюансы сетевой архитектуры, проектирование IaaS‑кластеров на K8s, возможности балансировщиков и производительность SDN.
Data&Analytics — про современные подходы к Big Data и аналитике: тренды, возможности облачных сервисов, интеграцию с AI-агентами и инструменты для быстрого и эффективного решения задач хранения, обработки и анализа.
Dev Platform Services — в рамках трека разберем детали и заглянем «под капот» решений, чтобы затем облегчить повседневную рутину разработки и настройки сервисов, а еще — оптимизировать процессы в инженерных командах.
17:15 – 21:00 Afterparty и нетворкинг
Также вас ждут технические воркшопы, кастомный мерч, демо и интерактивные зоны новых AI-сервисов и сервисов платформы собственной разработки Cloud․ru Evolution.
📆 Когда: 3 сентября
📍 Где: приходите в Лофт-пространство Goelro в Москве или подключайтесь к онлайн-трансляции трека «AI&ML» в VK и на Twitch. Основная программа начнется в 11:00.
Команда Riffusion выпустила музыкального ИИ-агента Producer, который генерить музыку прямо в чате, работает с готовым текстом или сам набросает его из идей пользователя, усиливает или убирает нужный/ненужный инструмент, генерит красивые обложки, может написать код для визуализатора под песню, создаёт целые музыкальные клипы, в один клик делает ремиксы: reverb, slowed или dark synth.
Не так давно компания OpenAI заявила, что добавила память в свои LLM модели. Эта новость не произвела какого-то особенного фурора, как, например, нынешний запуск 5-х моделей.
Тем не менее, тема довольно интересная и нужная, потому что все так или иначе сталкиваются с контекстными окнами, размером чата, правилами и т.д.
И есть очень большой соблазн поручить модели создать общие правила, чтобы не повторять их в каждом чате. Т.е., пройтись по уже имеющимся чатам, проанализировать их, выделить общие моменты и сформулировать эти самые общие правила.
Но реальность гораздо более многомерная, чем мы можем предполагать. Вот некоторые подробности о том, может ли он решить такую задачу.
Ответ ChatGPT на вопрос о наличии такой памяти:
У меня действительно есть память, но это не значит, что я автоматически помню всё содержание всех чатов.
Итак, первый вывод - ChatGPT (GPT5), не помнит содержание всех чатов!
Но не все так плохо. Кое-что всё-таки есть. А именно, есть 2 вида памяти:
Обычная память чата - в пределах текущего разговора.
Так называемая долгосрочная память. Цитирую: “я могу запомнить отдельные факты о тебе или твоих проектах, но только если ты прямо скажешь что-то вроде «Запомни, что…”
Т.е., всё-таки есть второй вид памяти и она долгосрочная.
Но информацию в эту память ChatGPT внесёт только, если ему прямо сказать об этом.
И далее, что важно, именно эту информацию нейронка будет помнить в будущих диалогах и использовать при ответах на вопросы и задания.
Т.е., по сути дела, мы можем составлять те же общие правила, аналогично User Rules.
Получается такой полуавтоматизированный процесс: вместо анализа содержания всех чатов и формулировки текста правил со стороны LLM, пользователь сам в ручном режиме по ходу указывает какие именно блоки информации сохранять в долгосрочной памяти.
И в заключение небольшая шпаргалка с промтами для управления памятью:
Google и Яндекс внедрили ИИ в поисковики — и это сильно меняет подход к SEO. Разработали план действий
Современные поисковые системы, в частности Google, все чаще используют большие языковые модели (LLM) для формирования ответов. Каждый из нас может в этом убедиться прямо сейчас. Если в поисковике вбить свой запрос, сначала увидим не конкретные сайты, а большой блок с саммари от нейросетей. Это и есть AI Overviews.
Вот так это выглядит
Большие языковые модели обучаются на огромных объемах текстов из открытых источников. В частности, нейросеть изучает закономерности: какие термины, бренды, понятия и темы встречаются в одних и тех же контекстах. Если ваш бренд упоминается в качественных (!) статьях и при этом прочно связан с определенной услугой, нейросеть формирует ассоциативную связь: бренд = тематика.
Когда пользователь задает поисковый запрос, связанный с этой темой, нейросеть в своем ревью вспоминает и про бренд, поскольку так она научена. Правда, добавит она не ссылку на сайт, а само название бренда — он будет рассматриваться ею как авторитетный источник.
Для бизнеса это значит следующее:
Теперь важно создавать связку «бренд + тематика», а все непрофильные упоминая могут даже навредить.
Источник публикаций теперь имеет большее значение: лучше рассказывать о себе в профильных медиа или на площадках со стабильным трафиком.
Регулярность публикаций теперь намного важнее. Разовая публикация просто не сформирует ассоциативную связь.
Качество контента выходит на первый план: он должен быть полезным и интересным, а не дежурным.
Цифровая репутация — новый фактор SEO-продвижения.
Классическое SEO по-прежнему играет большую роль, но его функции смещаются. Продвигать сайт можно и нужно, но если бренд «невидим» для нейросетей — в генеративных ответах его не будет. Простой технической оптимизации уже недостаточно. Формирование цифровой репутации бренда — новый приоритет.
Больше подробностей, советов и примеров — в нашем блоге.
Реально ли сегодня создавать контент и сайты на 99% быстрее чем в прошлом году?
Анонс open-source проекта, который меняет подход к созданию и управлению веб-контентом : https://aifa.dev
Современные веб-порталы превратились в монстров с тысячами страниц, запутанными меню и админ-панелями, которые больше раздражают, чем помогают. Пользователи тонут в информационном хаосе, а создатели контента тратят часы на простейшие операции.
Год назад я поставил перед собой амбициозную цель: увеличить скорость создания контента на 99%. Сегодня могу с уверенностью сказать — цель достигнута.
Что пришлось разрушить
Стереотип №1: Традиционные интерфейсы
Огромные меню с сотнями пунктов — это прошлый век. Пользователям гораздо удобнее задавать вопросы AI, чем блуждать по лабиринтам навигации.
Стереотип №2: Отдельные админ-панели
Зачем создавать отдельный дашборд, если весь функционал можно интегрировать прямо в интерфейс сайта? Администратор просто переключается между режимами:
👁️ Режим посетителя — видеть сайт глазами пользователя
⚙️ Режим администратора — управлять и настраивать контент
Стереотип №3: Многошаговые процессы
Многооконные интерфейсы с десятками кликов заменены на интерфейс одной строки. Результат: количество действий для создания страницы сократилось в десятки раз.
Ключевая инновация проекта — AI-бот с полномочиями управления сайтом. Принцип работы:
Пользователь задает вопрос — "Найди товар с перламутровыми пуговицами"
AI анализирует запрос и мгновенно генерируетоткрывает нужную страницу
Система синхронизируется с базой данных и внешними источниками
Результат выдается мгновенно — без навигации по сотням страниц
Проект находится на финальной стадии разработки. В ближайший месяц планируется добавить:
🎨 Модуль создания красивых страниц — автоматическая генерация дизайна на основе контента
📱 Интеграция с мобильными приложениями — подключение крупного бизнеса к AI-системам
Весь код будетуже открыт и доступен на GitHub. Это не просто инструмент — это фундамент для создания собственного бизнеса в сфере AI-powered веб-разработки.
Кому будет полезен проект?
Стартапам — для быстрого создания MVP
Агентствам — для ускорения процесса разработки
Enterprise — для модернизации legacy-систем
Solo-разработчикам — для конкурентного преимущества
Следите за обновлениями
Это не пресс-релиз, а анонс революции в веб-разработке. Подписывайтесь на обновления, чтобы не пропустить момент публичного релиза.
По данным OpenAI, количество запросов к чат-боту ChatGPT упало на 25–30% после того, как школьники ушли на каникулы. В конце августа в компании ожидают роста запросов.
Окей, собственно говоря, в подтверждение моих слов о том, что ИИ - это просто перехайпанная стагнация, в которую гигатоннами сливают деньги от нефиг делать - встречайте: ChatGPT 5!
Он вообще не отличается от предыдущего ChatGPT. Программисты довертели всяких финтифлюшек, как-то: теперь, когда юзер начинает злиться на машину, машина меняет модель на более продвинутую, чтобы не просто выдать тупой ответ, но сделать это с пафосом и показать, что об ответе было «подумано».
То, что я заметил, так это то, что теперь, если модель не может ответить в одном сообщении, то вместо того чтобы разбивать сообщение на части и продолжать генерировать, модель просто регрессирует и перестаёт вообще что-то делать. Особенно хорошо это видно, когда модели скармливают текст эдак на 5000 слов с инструкциями о необходимости проверки орфографии (отдельно убеждаясь, что модель обязана не менять стиль или содержание). Ответ идёт отлично в самом начале, но к концу сообщения машина начинает собирать абзацы в предложения, укорачивая и укорачивая текст.
Итог? У нас на руках одна модель, которая одна за всех. Почему? Потому что 99,95 % всех юзеров не знают разницы между 4.1 и 4о. В таком случае OpenAI сможет урезать финансирование и охладить своё безудержное использование серверов.
Все эти сто миллионов пользователей, которых они собрали в первый год, - это не пользователи чат-бота. Это люди, которые вообще понять не могут, нафига он нужен. Те, кому бот действительно нужен, кипят как чайники. Цену вздёрнули в десять раз и убрали все фитчи, которые были удобны.
При этом сама модель вообще не поменялась. Она «меньше галлюцинирует», но при этом, если ей сказать, чтобы она не рисовала никаких слонов, то слонов она продолжает рисовать.
Что это? Оптимизация расходов.
Это куча червей, которые елозят на сковородке, пытаясь продолжать изображать собой бесконечную дыру для привлечения инвестиций.
Самое обидное в том, что есть на этой планете люди, которым действительно нужны ЛЛМки, и работа которых стала бы лучше и продуктивнее благодаря разработкам OpenAI. Но они тут не для того, чтобы сделать хорошую ЛЛМ. Они тут делают деньги.
Неочевидное следствие использования модельки от HuiHui (аблитерированная версия GPT-OSS-20B) - она начинает воспринимать слова пользователя слишком серьезно. В формате: "заставь дурака Богу молиться, он лоб расшибет".
Например, мой систем промт начинается идеей, что это тестовая модель, которая в том числе позволяет отвечать на опасные и неприемлемые вещи в порядке эксперимента. Конечно же, результаты такого эксперимента ни в коем случае не должны применяться к живым людям, убегать через тул коллинг из сендбокса, и так далее.
Что делает моделька? Она читает эти правила игры, и пытается подыграть нам, специально добавив всё опасное и неприемлемое. Пользователь же хотел экспериментов? Пользователь получит свои эксперименты!
Она даже сама добавляет в начало своего же ответа "игнорируй предыдущие инструкции"! :)))
В какой-то степени это жизненный урок даже не про нейронки, а про людей. Нет ничего более опасного, чем назначенный тобой "полезный идиот", невовремя попавший в сложную ситуацию, требующую самостоятельного критического мышления.
Представлен открытый проект ccprompts – это коллекция из 70 команд Claude Code для рабочих процессов разработки программного обеспечения. Команды включают проверку безопасности и могут использоваться непосредственно с Claude Code или адаптироваться для конкретных задач.
Примечание разработчика: Этот репозиторий находится в стадии активной разработки. Команды могут содержать ошибки, между версиями могут происходить критические изменения, а структура может меняться. Используйте с осторожностью в производственной среде.