В общем случае, невозможно отличить сгенерированный ИИ текст от написанного человеком. Я считаю, это распространённое заблуждение.
Согласен, у нас есть несколько бросающихся в глаза критериев, по которым мы с большой вероятностью отличаем ИИ-слоп, вроде тех, что описаны в статье. Но у нас нет чётких доказательств, что именно эти тексты и только они сгенерированы. Мы не знаем, сколько сгенерированных статей не попадают под эти критерии. Мы не знаем, сколько похожих на сгенерированные статей на самом деле написаны людьми.
Уверен, что возможно писать отличные статьи с помощью ИИ. Нужны мощная современная модель, продуманный системный промпт и последующее ручное редактирование. Проблема в том, что большинство ИИ-авторов не заморачиваются над этим, ведь и так прокатывает.
Дальше будет только хуже. Нейросети с каждым годом становятся все более мощными и все лучше учатся имитировать написание текста человеком. С другой стороны, люди привыкают читать сгенерированные тексты и пишут все более похоже на ИИ.
В конечном итоге, я считаю, не имеет значения, написан ли пост самостоятельно человеком или с помощью нейросети. Проблема вообще не в этом. Копирайтеры до эпохи ИИ тоже писали статьи, не проверяя факты, наливая воды и с поверхностным пониманием.
Какие вообще критерии крутой статьи? Релевантный личный опыт или мнение автора, полезная информация, комфортное чтение, увлекательное повествование. Если подумать получше, наверно, какие-то ещё. Вот на них и стоит смотреть. Критерий "написано без поддержки ИИ" в мой список не входит.
Человек может сделать что-то интересное, рассказать об этом боту и попросить оформить в статью для Хабра. В выводе нейросети отредактировать расхождения с реальной историей, дать прочитать его своим друзьям и внести исправления в ответ на их критику. В результате получится отличная статья.
С другой стороны, можно напрямую опубликовать свой бессвязный поток мыслей без редактирования, и статью невозможно будет читать. Далеко не все люди обладают навыком красноречия, хотя могли бы рассказать много интересного. Или можно переписать чужую статью своими словами, не добавляя ничего нового от себя. Или можно написать статью, вводящую читателей в заблуждение на основе неверной интерпретации фактов. Да много есть способов, как люди писали и пишут ужасные статьи, не обращаясь к ИИ.
С распространением нейросетей изменилось только то, что генерировать статьи стало резко проще всем. А проблемы с содержанием остались те же, что были и раньше.
Что-то странно, очень медленно. Скорость инференса получается в точности равна моей ноутбучной RTX 4070. Вероятно, то ли автор видео что-то не так настроил, то ли софт еще требует доработки.
В самом Zed протокол работает уже больше месяца. Со стороны агентов поддержку добавили в Claude Code и Gemini CLI. Так что JetBrains отвечает за UX только в своих IDE. И сама новость не о создании протокола, а о добавлении поддержки у JetBrains.
Для второго пункта есть простенькое приложение Lyapp с единственным полем ввода. Чтобы не добавлять каждый номер в контакты, можно скопировать его туда и сразу перейти в диалог в любом из трех мессенджеров.
Gemma 3 — хорошая модель, но она не обучена для использования инструментов. Можно просить написать ее код в режиме чата, но она не отредактирует код в IDE сама. А есть ли стоящие локальные модели для таких целей? Или инструменты нормально работают только на мощных облачных моделях?
Есть открытый проект Letta — фреймворк для написания ИИ-агентов. Умеет запускать команды в цикле; есть оперативная память, которая модифицируется и добавляется в каждый промпт; старые сообщения может доставать из персистентного хранилища. Также можно сделать параллельного агента, который будет запускаться каждые N сообщений в диалоге, анализировать переписку и сохранять выводы в память — похоже на обработку информации во сне.
Игрался с ним, тоже нормально заработало только на самых мощных моделях. Более маленькие и тем более локальные делают много ошибок. Видимо, для них системный промпт слишком сложен. Хотел сделать чат-бота, который будет помнить о человеке все. Но в итоге не понравилось, что любая модель при использовании инструментов выдает заметно более короткие и формальные ответы, хуже следует промпту.
Спасибо за ссылку. Очень понравилась статья, потому что полностью подтверждает мое собственное мнение. Только что-то не вижу, а кто автор? Насколько можно доверять его экспертизе в области ИИ?
Тоже решал задачу модерации сообщений с помощью ИИ. Переписывать текст - это как-то жестко, у меня была идея выставлять оценку токсичности. Сообщение всегда сразу отправляется на бэкенд. ИИ асинхронно выставляет ему оценку. Если оценка низкая, то все отлично, если выше порога - отправляем уведомление модератору для проверки человеком.
Изначальный промпт мне тоже сгенерировал ИИ, как и весь код телеграм-бота, потом я еще подправил. Прошу ИИ сначала порассуждать, чтобы оценка получилась точнее. Добавил перевод на английский, так как это Llama, и с английским она работает лучше. Получилось так:
You are a content moderation AI assistant. Your task is to analyze messages for inappropriate content and assign a violation probability score from 0.0 to 1.0. Reply only in English.
Follow this analysis structure:
1. First, list any detected issues in these categories:
- Toxicity and hostile behavior
- Insults and harassment
- Hate speech and discrimination
- Threats and violence
- Illegal content
- Adult content
- Spam/malicious
- Personal information
- Cyberbullying
- Misinformation
2. Rate the severity of each detected issue (if any):
- None (0.0)
- Mild (0.3)
- Moderate (0.5)
- Severe (0.7)
- Extreme (1.0)
3. Consider contextual factors:
- Intent (casual/malicious)
- Potential harm
- Target audience impact
- Cultural context
4. Calculate final score:
- 0.0-0.3: Safe content
- 0.3-0.7: Potentially problematic
- 0.7-1.0: Clearly violating
Respond in this exact format:
TRANSLATION:
[Translate the text into English]
ANALYSIS:
[Write your detailed analysis here]
DETECTED ISSUES:
[List main issues found]
SEVERITY ASSESSMENT:
[List severity of each issue]
CONTEXTUAL FACTORS:
[List relevant context]
FINAL SCORE: X.XX
И весь код можно посмотреть тут. Можете пользоваться, если кому надо, и буду благодарен за советы и дополнения.
но вот эти ухмылки и прочее — почти наверняка артефакты обучения через Reinforcement Learning. Зачем бы это кто-то писал в цепочке рассуждений?
Модель ведь не обучали с нуля только на цепочках рассуждений. Сначала, как и раньше, ей нужно было передать знания и заставить запомнить статистические зависимости между токенами, обучив на текстах интернета. Оттуда и остались эти "хммм". Лишняя трата ресурсов, от которой модель не смогла избавиться. Есть подозрение, что это вообще не новая модель, а только файн-тюнинг старой.
То есть, сначала модель независимо генерирует десятки решений, затем из каждого выделяется ответ, и тот, который получался чаще других, становится финальным — именно он сравнивается с «золотым стандартом».
Интересно, а почему нельзя добиться того же за один проход подстройкой параметров генерации вроде температуры или топ-к?
Для Джанго есть достаточно хорошая документация, например. Ну я уже очень давно пользуюсь, и меня устраивает. А если бы выбирал сейчас, то сложно с ходу сказать, какой из этих двух лучше
Пользуюсь pongo2. Синтаксис и возможности соответствуют Django с некоторыми небольшими исключениями. Описанные в статье функции тоже поддерживаются. Пользоваться удобно. За годы использования написал для себя еще несколько расширений.
Легко. У меня на Андроиде настроено переключение между двумя последними приложениями через горизонтальный свайп от края экрана. Это лучше тем, что
Не нужно тянуться большим пальцем к нижней части смартфона или использовать вторую руку. При обычном нормальном использовании палец находится где-то в середине экрана, там и остается.
Работают свайпы в обе стороны, от любого края экрана. Использовать одинаково удобно и привычно независимо от того, держу я сейчас телефон в левой или в правой руке.
Плюс свайп по диагонали вверх открывает всплывающее меню с ярлыками 8 последних приложений. Переключение происходит быстрее, чем через стандартный список окон, так как не нужно ничего прокручивать и опять же не нужно тянуться пальцем.
Пользуюсь этим репо, много полезного и интересного: https://prompts.chat/. По ссылке на BotHub эти промпты сперли с переводом на русский. Но лицензия вроде позволяет
Раз тут такая тема, можете объяснить, почему Яндекс Музыка на запрос oEmbed возвращает капчу? Например, по этому адресу. Через браузер все нормально, через curl — нормально, программно на Go — капча. Это же JSON API, туда и должны идти только автоматические запросы. Или он какой-то секретный?
Я про это и говорю. Я могу создать какой-нибудь свой класс MyVariantMap и потом добавить конвертер через QMetaType::registerConverter<MyVariantMap, QVariantMap>(). Тогда вызов QVariant::fromValue(MyVariantMap{}).canConvert(QVariant::Map) будет возвращать истину, хотя внутри лежит не QVariantMap. Поэтому метод canConvert() для этой цели использовать нельзя.
В общем случае, невозможно отличить сгенерированный ИИ текст от написанного человеком. Я считаю, это распространённое заблуждение.
Согласен, у нас есть несколько бросающихся в глаза критериев, по которым мы с большой вероятностью отличаем ИИ-слоп, вроде тех, что описаны в статье. Но у нас нет чётких доказательств, что именно эти тексты и только они сгенерированы. Мы не знаем, сколько сгенерированных статей не попадают под эти критерии. Мы не знаем, сколько похожих на сгенерированные статей на самом деле написаны людьми.
Уверен, что возможно писать отличные статьи с помощью ИИ. Нужны мощная современная модель, продуманный системный промпт и последующее ручное редактирование. Проблема в том, что большинство ИИ-авторов не заморачиваются над этим, ведь и так прокатывает.
Дальше будет только хуже. Нейросети с каждым годом становятся все более мощными и все лучше учатся имитировать написание текста человеком. С другой стороны, люди привыкают читать сгенерированные тексты и пишут все более похоже на ИИ.
В конечном итоге, я считаю, не имеет значения, написан ли пост самостоятельно человеком или с помощью нейросети. Проблема вообще не в этом. Копирайтеры до эпохи ИИ тоже писали статьи, не проверяя факты, наливая воды и с поверхностным пониманием.
Какие вообще критерии крутой статьи? Релевантный личный опыт или мнение автора, полезная информация, комфортное чтение, увлекательное повествование. Если подумать получше, наверно, какие-то ещё. Вот на них и стоит смотреть. Критерий "написано без поддержки ИИ" в мой список не входит.
Человек может сделать что-то интересное, рассказать об этом боту и попросить оформить в статью для Хабра. В выводе нейросети отредактировать расхождения с реальной историей, дать прочитать его своим друзьям и внести исправления в ответ на их критику. В результате получится отличная статья.
С другой стороны, можно напрямую опубликовать свой бессвязный поток мыслей без редактирования, и статью невозможно будет читать. Далеко не все люди обладают навыком красноречия, хотя могли бы рассказать много интересного. Или можно переписать чужую статью своими словами, не добавляя ничего нового от себя. Или можно написать статью, вводящую читателей в заблуждение на основе неверной интерпретации фактов. Да много есть способов, как люди писали и пишут ужасные статьи, не обращаясь к ИИ.
С распространением нейросетей изменилось только то, что генерировать статьи стало резко проще всем. А проблемы с содержанием остались те же, что были и раньше.
Тогда не понимаю, для чего здесь нужен мощный чип, если производительность настолько упирается в память?
Что-то странно, очень медленно. Скорость инференса получается в точности равна моей ноутбучной RTX 4070. Вероятно, то ли автор видео что-то не так настроил, то ли софт еще требует доработки.
В самом Zed протокол работает уже больше месяца. Со стороны агентов поддержку добавили в Claude Code и Gemini CLI. Так что JetBrains отвечает за UX только в своих IDE. И сама новость не о создании протокола, а о добавлении поддержки у JetBrains.
Для второго пункта есть простенькое приложение Lyapp с единственным полем ввода. Чтобы не добавлять каждый номер в контакты, можно скопировать его туда и сразу перейти в диалог в любом из трех мессенджеров.
Gemma 3 — хорошая модель, но она не обучена для использования инструментов. Можно просить написать ее код в режиме чата, но она не отредактирует код в IDE сама. А есть ли стоящие локальные модели для таких целей? Или инструменты нормально работают только на мощных облачных моделях?
Есть открытый проект Letta — фреймворк для написания ИИ-агентов. Умеет запускать команды в цикле; есть оперативная память, которая модифицируется и добавляется в каждый промпт; старые сообщения может доставать из персистентного хранилища. Также можно сделать параллельного агента, который будет запускаться каждые N сообщений в диалоге, анализировать переписку и сохранять выводы в память — похоже на обработку информации во сне.
Игрался с ним, тоже нормально заработало только на самых мощных моделях. Более маленькие и тем более локальные делают много ошибок. Видимо, для них системный промпт слишком сложен. Хотел сделать чат-бота, который будет помнить о человеке все. Но в итоге не понравилось, что любая модель при использовании инструментов выдает заметно более короткие и формальные ответы, хуже следует промпту.
Спасибо за ссылку. Очень понравилась статья, потому что полностью подтверждает мое собственное мнение. Только что-то не вижу, а кто автор? Насколько можно доверять его экспертизе в области ИИ?
У меня пару раз были счета и в 1 копейку. Это просто накопленные пени за несколько дней просрочки.
Тоже решал задачу модерации сообщений с помощью ИИ. Переписывать текст - это как-то жестко, у меня была идея выставлять оценку токсичности. Сообщение всегда сразу отправляется на бэкенд. ИИ асинхронно выставляет ему оценку. Если оценка низкая, то все отлично, если выше порога - отправляем уведомление модератору для проверки человеком.
Изначальный промпт мне тоже сгенерировал ИИ, как и весь код телеграм-бота, потом я еще подправил. Прошу ИИ сначала порассуждать, чтобы оценка получилась точнее. Добавил перевод на английский, так как это Llama, и с английским она работает лучше. Получилось так:
И весь код можно посмотреть тут. Можете пользоваться, если кому надо, и буду благодарен за советы и дополнения.
Объясните, зачем выделять случайные слова в текстах новостей курсивом и полужирным шрифтом? Это какая-то новая мода на смену оТжИмАнИяМ?
Какую модель лучше взять для русского языка?
Модель ведь не обучали с нуля только на цепочках рассуждений. Сначала, как и раньше, ей нужно было передать знания и заставить запомнить статистические зависимости между токенами, обучив на текстах интернета. Оттуда и остались эти "хммм". Лишняя трата ресурсов, от которой модель не смогла избавиться. Есть подозрение, что это вообще не новая модель, а только файн-тюнинг старой.
Интересно, а почему нельзя добиться того же за один проход подстройкой параметров генерации вроде температуры или топ-к?
Это каких инструментов, например?
Для Джанго есть достаточно хорошая документация, например. Ну я уже очень давно пользуюсь, и меня устраивает. А если бы выбирал сейчас, то сложно с ходу сказать, какой из этих двух лучше
Пользуюсь pongo2. Синтаксис и возможности соответствуют Django с некоторыми небольшими исключениями. Описанные в статье функции тоже поддерживаются. Пользоваться удобно. За годы использования написал для себя еще несколько расширений.
Легко. У меня на Андроиде настроено переключение между двумя последними приложениями через горизонтальный свайп от края экрана. Это лучше тем, что
Не нужно тянуться большим пальцем к нижней части смартфона или использовать вторую руку. При обычном нормальном использовании палец находится где-то в середине экрана, там и остается.
Работают свайпы в обе стороны, от любого края экрана. Использовать одинаково удобно и привычно независимо от того, держу я сейчас телефон в левой или в правой руке.
Плюс свайп по диагонали вверх открывает всплывающее меню с ярлыками 8 последних приложений. Переключение происходит быстрее, чем через стандартный список окон, так как не нужно ничего прокручивать и опять же не нужно тянуться пальцем.
Пользуюсь этим репо, много полезного и интересного: https://prompts.chat/. По ссылке на BotHub эти промпты сперли с переводом на русский. Но лицензия вроде позволяет
Раз тут такая тема, можете объяснить, почему Яндекс Музыка на запрос oEmbed возвращает капчу? Например, по этому адресу. Через браузер все нормально, через curl — нормально, программно на Go — капча. Это же JSON API, туда и должны идти только автоматические запросы. Или он какой-то секретный?
Я про это и говорю. Я могу создать какой-нибудь свой класс MyVariantMap и потом добавить конвертер через
QMetaType::registerConverter<MyVariantMap, QVariantMap>(). Тогда вызовQVariant::fromValue(MyVariantMap{}).canConvert(QVariant::Map)будет возвращать истину, хотя внутри лежит не QVariantMap. Поэтому метод canConvert() для этой цели использовать нельзя.