Артем Летюшев @Renewal_Studio
Lead Project Manager
Information
- Rating
- Does not participate
- Location
- Алматы (Алма-Ата), Алма-Атинская обл., Казахстан
- Date of birth
- Registered
- Activity
Specialization
Project Manager, Scrum Master
Senior
Lead Project Manager
Ну для такого нужен все таки хороший RAG с очень жестким guardrails и фулл покрытый тестами после десятков жестких бенчмарков. А не как поступилии недавно с делом Кеннеди
Если топикстартер имел в виду именно то, о чем вы упомянули, то я полностью с ним согласен. Однако в моем случае я не пишу пустое и иногда даже трачу слишком много времени на контент. Правда который потом не особо оправдывается к сожалению, ибо оказывается никто не любит тратить ресурс на погружение
Возможно, я пишу беззлобно. Для меня лично 95% текста про управление тоже уже сливается и нахожу бессмысленным. Либо это одно и то же, либо просто пустое, без глубины
Но все же текст в основном (больше 80%) написан мной. Я очень компилятивно пишу текста. Я сперва собираю тезисную структуру, пишу драфты фраз и потом отдельно наполняю каждый раздел. У меня начинаются проблемы со связкой и переходами. А еще я малость малограмотный. Поэтому я решаю эти вопросы gen ai
Ахахх, возможно. Но все же основной фактор того что текст писан не человеком - это линейное структурное выверенное симметричное чистое повествование
Да, потому что судя по твоим постам ты грамотный структурированный душнила обученный логическим конструкциям и привыкший писать равномерный текст без эмоций сугубо профессиональным сленгом. Это действительно похоже на отпечатки AI. Но все же ты пишешь потоково
Естественно. Поэтому я не привожу конкретный совет где писать, чем проверять и тд. Использовал ChatGPT лишь как популярную аналогию. Как-никак статья рассчитана на обывателя и я хочу на пальцах донести как это работает и почему
Ну что значит не умеют. Я конечно даже не пытаюсь использовать аля yandexgpt, слишком меня печалит ее работа. Однако даже машинописный перевод условного Qwen отлично работает, особенно если файнтюнить на паре сотен твоих сообщений. Компилятивно конечно, но гораздо лучше чем в лоб генерит все остальное, даже с точки зрения идиосинкразии
Тем более эта статья заняла 7+ часов моего времени и некоторым в окружении была полезна
Однако в моей случае это не так, поэтому я пишу. Я ничего оголтело не продаю, я не маркетолог или СММщик. Может блоггер по мелочи. Сейчас мы с ребятами энтузиастами тестируем гипотезу нужен ли рынку вменяемый курс, при этом мы не готовы выставлять себя инфоцыганами и писать кучу одинаковых и безликих текстов
Ну если для вас все вокруг генераторы бессмысленного текста, которые не дает вам ничего нового - что ж полагаю для вы уже слишком преисполнились
Материал сделан лишь с точки зрения наполнения водой ИИ, а так мой. Рекомендую почитать хотя бы раздел с практикой, он достаточно занятный
Конечно можно, я по статье как раз описывал все эти математические моменты про длину предложений, расположение пауз, спетецен дисперсии и тд
Для текста навалом. https://uncheck.ai/ https://www.zerogpt.com/ и сам gpt умеет. Правда как не странно лучше всего распознает claude 4.0 , мне даже анализ моих статей выкатывали тут на хабре, очень хороший технический анализ
Текст выше собран мной, описан, добавлены примеры и тд. Но финальная вертска и заполнение 30% воды связками работа AI. Ну и естественно постпроцессинг. Но я лично так тексты пишу иногда даже дольше, но это чуть менее ресурсозатратно. Голый текст от AI без семантики, тезисов, примеров и кучи чего еще мне совесть не позволяет катить
Прекрасно понимаю, я даже как-то слегка стал гордиться легкой безграмотностью
Я не давал специально такие примеры и в целом не давал примеры. Я лишь демонстрировал наглядно в чем отличие и особенности. Если вы считаете что на таком не ломается генерация и LLM не испытывают трудности (кидаться кучей статей не буду), хорошо!
Не передает напрямую контекст, часть метаданных и есть long-therm memory, но это немного другое. Опять таки я писал для обывателя, с легкой привязкой к chatgpt как к самому понятному. Но в условном grok это так явно не прокатит, особенно на локальных моделях квена
Я давненько использую LLM и погружаюсь в них постоянно. Да, на первый взшляд красиво. Говно-луп (простите за выражение) нейроконтента уже раскрутился и я лично все больше и больше триггерюсь об него и привыкаю отличать
Если для вас вполне достаточно таких результатов, окей, значит пост просто не под ваш запрос
Пометит простые ошибки и когда нет двусмысленности. Удачи с определяющими предложениями