Практически все используют синтетику. Просто не афишируют. Но, если посмотреть на вакансии крупных компаний, там практически всегда есть "Synthetic Data Engineer" . Может, он, конечно, там тканями занимается, и свиданиями, хз. Например, Apple.В силу закрытости, детали неизвестны, но по патентам очевидно, что они активно развивают это направление для Face ID, ARKit и автономных систем. То есть, скорее всего, это создание разнообразных и конфиденциальных данных о лицах, жестах, окружении для тренировки моделей, отвечающих строгим требованиям приватности.
Допустим, материалов на русском языке больше. Но как это связано с тезисами статьи? Вы исходите из какого предположения? Что запрос на русском языке даст одни результаты, а на английском или немецком другие? Так да, всё верно. Вот уважаемый комментатор показывает, как разнятся запросы по одной и той же теме на разных языках: https://habr.com/ru/articles/982312/comments/#comment_29332528
Но как это доказывает, что проблемы искажения данных в пользу определённого круга заинтересованных лиц не существует? Или Вы полагаете, что при написании статьи я опирался только на запросы к моделям?)
Так чего же они тогда, эти образованные люди, пропускают в датасеты синтетику, когда производят настройку на полезность?) Не заметили? Или намеренно пропускают, потому что синтетика дешевле?) Ответьте себе на этот вопрос сами.
военное ИИ появится только у одной стороны с опережением остальных
Пока что в военный ИИ больше всего вкладываются 2 страны: Китай и США. США пока лидируют, но Китай тоже не стоит на месте. Будущая война покажет, кто преуспел)
Пока сложно с нейроинтерфейсами и картинками на экране. Может, в будущем появится что-то подобное, работающее. А вот полиграф на базе ИИ прекрасно работает уже сейчас. Но допрос военнопленных - не самое приоритетное направление развития ИИ, потому что в реальности военнопленные как источник информации стоят на чуть ли не последнем месте. Военнопленные - инструмент пропаганды и обменный фонд.
Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.
но и коронобесие, карбонобесие, Трамп и прочие горячие темы
Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.
Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.
Большинство ИТ тоже мыслит под "калифорнийский стандарт"
Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.
Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.
Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)
А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))
Ага, уловил. Например, на основе наших предпочтений формировать кастомные промпты. Которые улучшат выдачу по другим запросам, касающимся наших предпочтений. Верно?
Практически все используют синтетику. Просто не афишируют. Но, если посмотреть на вакансии крупных компаний, там практически всегда есть "Synthetic Data Engineer" . Может, он, конечно, там тканями занимается, и свиданиями, хз. Например, Apple. В силу закрытости, детали неизвестны, но по патентам очевидно, что они активно развивают это направление для Face ID, ARKit и автономных систем. То есть, скорее всего, это создание разнообразных и конфиденциальных данных о лицах, жестах, окружении для тренировки моделей, отвечающих строгим требованиям приватности.
Допустим, материалов на русском языке больше. Но как это связано с тезисами статьи? Вы исходите из какого предположения? Что запрос на русском языке даст одни результаты, а на английском или немецком другие? Так да, всё верно.
Вот уважаемый комментатор показывает, как разнятся запросы по одной и той же теме на разных языках: https://habr.com/ru/articles/982312/comments/#comment_29332528
Но как это доказывает, что проблемы искажения данных в пользу определённого круга заинтересованных лиц не существует? Или Вы полагаете, что при написании статьи я опирался только на запросы к моделям?)
Так чего же они тогда, эти образованные люди, пропускают в датасеты синтетику, когда производят настройку на полезность?) Не заметили? Или намеренно пропускают, потому что синтетика дешевле?) Ответьте себе на этот вопрос сами.
Пока что в военный ИИ больше всего вкладываются 2 страны: Китай и США. США пока лидируют, но Китай тоже не стоит на месте. Будущая война покажет, кто преуспел)
Так ведь и нейронка - не настоящий литературный критик)
За комментарий спасибо
Кстати, а зачем?)
Пока сложно с нейроинтерфейсами и картинками на экране. Может, в будущем появится что-то подобное, работающее. А вот полиграф на базе ИИ прекрасно работает уже сейчас. Но допрос военнопленных - не самое приоритетное направление развития ИИ, потому что в реальности военнопленные как источник информации стоят на чуть ли не последнем месте. Военнопленные - инструмент пропаганды и обменный фонд.
А вот это, кстати, интересное наблюдение.
Поднимайте свою модель и учите ее чему хотите. хоть японским матом ругаться) Но да, совет из серии "нет хлеба? поешьте пирожных".
Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.
Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.
Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.
Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.
cfuk u mohter - это шутка. В UPD приведены две ссылки на конкретные исследования.
Я не люблю ролевые игры, простыни с дырками и вот это всё) Просто стараюсь не врать себе, чего и всем советую.
Какие модели или ИИ-платформы используете? Какой конкретно промпт?
Обучение LLM происходит везде, и на востоке тоже. Дело не в том, где, а в том, на чём и для чего. Проблема в том, что люди не видят в этом проблему.
Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.
Да это всё давно делается. Но это дорого. Дешевле нагенерить)
Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)
А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))
У ближней губы такие... астрофизические. А вот вторую астрофизич(ку) видно хуже.
Ага, уловил. Например, на основе наших предпочтений формировать кастомные промпты. Которые улучшат выдачу по другим запросам, касающимся наших предпочтений. Верно?
Но, может быть, будут читать? ;)