Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.
но и коронобесие, карбонобесие, Трамп и прочие горячие темы
Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.
Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.
Большинство ИТ тоже мыслит под "калифорнийский стандарт"
Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.
Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.
Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)
А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))
Ага, уловил. Например, на основе наших предпочтений формировать кастомные промпты. Которые улучшат выдачу по другим запросам, касающимся наших предпочтений. Верно?
Именно поэтому я склоняюсь к Сценарию 1. Но, пожалуйста, не нужно обобщать:
К нам слишком рано по эволюционным меркам попали мощные возможности контроля общества и воздействия на природу, правратив нас в аналог биосферного злокачественного новообразования
Мы-то с Вами, умные и сознательные, тут причём?) К нам эти инструменты попали даже поздновато. Лично я завидую 12-летним пацанам, уверенно кодящим на python и знающим архитектуру линуха лучше меня. А так, да, согласен с Вами.
Рекомендую следующий алгоритм, как узнать какие же "две большие разницы" существуют между "профессиональными" моделями для рисования котиков и "любительскими":
Для начала, проверить написанный текст на уникальность и степень генерации с помощью LLM (например, оценка Ципфа, определяющая процент ИИ в текстах, либо ресурсы наподобие pr-cy.ru). Приведу конкретный пример оценки процента генерации ИИ на данной (вот этой самой) статье:
Притча в начале, разговорные обороты («нейрослоп»), эмоциональная окраска и последовательная риторика характерны для человеческих авторов, особенно для эссе или популярного оп-эда. С другой стороны, строгая секционированная структура, набор абстрактных угроз без источников и явное использование шаблонов аргументации (фазы → сценарии → последствия) соответствуют тому, как часто пишут или редактируют тексты с помощью больших моделей. В сумме текст выглядит как материал, в котором могли смешаться человеческая задумка и редактура или доработка ИИ — либо полностью авторский, но написанный в некотором «популярно‑тревожном» жанре.
Итоговая осторожная оценка без категоричных утверждений Вероятность того, что текст был сгенерирован или существенно переработан ИИ: умеренно высокая — около 63/100. Текст демонстрирует гармоничное сочетание творческой, человеческой работы и типичных для LLM структурно‑речевых приёмов, поэтому полное уверенное заключение затруднительно.
После оценки принимаете взвешенное решение, у кого спрашивать. Лично я бы порекомендовал пройти полноценный обучающий курс на тему ML. Тогда, вооружившись новыми знаниями, решения будет принимать проще. Хотя, для начала, задайте этот вопрос нейронке. Только грамотно сформулируйте его.
А вот это, кстати, интересное наблюдение.
Поднимайте свою модель и учите ее чему хотите. хоть японским матом ругаться) Но да, совет из серии "нет хлеба? поешьте пирожных".
Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.
Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.
Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.
Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.
cfuk u mohter - это шутка. В UPD приведены две ссылки на конкретные исследования.
Я не люблю ролевые игры, простыни с дырками и вот это всё) Просто стараюсь не врать себе, чего и всем советую.
Какие модели или ИИ-платформы используете? Какой конкретно промпт?
Обучение LLM происходит везде, и на востоке тоже. Дело не в том, где, а в том, на чём и для чего. Проблема в том, что люди не видят в этом проблему.
Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.
Да это всё давно делается. Но это дорого. Дешевле нагенерить)
Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)
А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))
У ближней губы такие... астрофизические. А вот вторую астрофизич(ку) видно хуже.
Ага, уловил. Например, на основе наших предпочтений формировать кастомные промпты. Которые улучшат выдачу по другим запросам, касающимся наших предпочтений. Верно?
Но, может быть, будут читать? ;)
Ну, вот, например, простой кейс на эту тему: https://habr.com/ru/articles/982312/
Именно поэтому я склоняюсь к Сценарию 1. Но, пожалуйста, не нужно обобщать:
Мы-то с Вами, умные и сознательные, тут причём?) К нам эти инструменты попали даже поздновато. Лично я завидую 12-летним пацанам, уверенно кодящим на python и знающим архитектуру линуха лучше меня. А так, да, согласен с Вами.
Можете пояснить свою мысль? В чём будет цель создания промптов и как именно они помогут в неспособности к формализации?
С нетерпением ожидаем Ваших статей ;)
Рекомендую следующий алгоритм, как узнать какие же "две большие разницы" существуют между "профессиональными" моделями для рисования котиков и "любительскими":
Для начала, проверить написанный текст на уникальность и степень генерации с помощью LLM (например, оценка Ципфа, определяющая процент ИИ в текстах, либо ресурсы наподобие pr-cy.ru). Приведу конкретный пример оценки процента генерации ИИ на данной (вот этой самой) статье:
После оценки принимаете взвешенное решение, у кого спрашивать. Лично я бы порекомендовал пройти полноценный обучающий курс на тему ML. Тогда, вооружившись новыми знаниями, решения будет принимать проще.
Хотя, для начала, задайте этот вопрос нейронке. Только грамотно сформулируйте его.
Есть еще Session, twinme, Teleguard
И ремня у ружья нет)