Практически все используют синтетику. Просто не афишируют. Но, если посмотреть на вакансии крупных компаний, там практически всегда есть "Synthetic Data Engineer" . Может, он, конечно, там тканями занимается, и свиданиями, хз. Например, Apple.В силу закрытости, детали неизвестны, но по патентам очевидно, что они активно развивают это направление для Face ID, ARKit и автономных систем. То есть, скорее всего, это создание разнообразных и конфиденциальных данных о лицах, жестах, окружении для тренировки моделей, отвечающих строгим требованиям приватности.
Допустим, материалов на русском языке больше. Но как это связано с тезисами статьи? Вы исходите из какого предположения? Что запрос на русском языке даст одни результаты, а на английском или немецком другие? Так да, всё верно. Вот уважаемый комментатор показывает, как разнятся запросы по одной и той же теме на разных языках: https://habr.com/ru/articles/982312/comments/#comment_29332528
Но как это доказывает, что проблемы искажения данных в пользу определённого круга заинтересованных лиц не существует? Или Вы полагаете, что при написании статьи я опирался только на запросы к моделям?)
Так чего же они тогда, эти образованные люди, пропускают в датасеты синтетику, когда производят настройку на полезность?) Не заметили? Или намеренно пропускают, потому что синтетика дешевле?) Ответьте себе на этот вопрос сами.
военное ИИ появится только у одной стороны с опережением остальных
Пока что в военный ИИ больше всего вкладываются 2 страны: Китай и США. США пока лидируют, но Китай тоже не стоит на месте. Будущая война покажет, кто преуспел)
Пока сложно с нейроинтерфейсами и картинками на экране. Может, в будущем появится что-то подобное, работающее. А вот полиграф на базе ИИ прекрасно работает уже сейчас. Но допрос военнопленных - не самое приоритетное направление развития ИИ, потому что в реальности военнопленные как источник информации стоят на чуть ли не последнем месте. Военнопленные - инструмент пропаганды и обменный фонд.
Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.
но и коронобесие, карбонобесие, Трамп и прочие горячие темы
Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.
Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.
Большинство ИТ тоже мыслит под "калифорнийский стандарт"
Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.
Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.
Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)
А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))
Ага, уловил. Например, на основе наших предпочтений формировать кастомные промпты. Которые улучшат выдачу по другим запросам, касающимся наших предпочтений. Верно?
и всё.
Практически все используют синтетику. Просто не афишируют. Но, если посмотреть на вакансии крупных компаний, там практически всегда есть "Synthetic Data Engineer" . Может, он, конечно, там тканями занимается, и свиданиями, хз. Например, Apple. В силу закрытости, детали неизвестны, но по патентам очевидно, что они активно развивают это направление для Face ID, ARKit и автономных систем. То есть, скорее всего, это создание разнообразных и конфиденциальных данных о лицах, жестах, окружении для тренировки моделей, отвечающих строгим требованиям приватности.
Допустим, материалов на русском языке больше. Но как это связано с тезисами статьи? Вы исходите из какого предположения? Что запрос на русском языке даст одни результаты, а на английском или немецком другие? Так да, всё верно.
Вот уважаемый комментатор показывает, как разнятся запросы по одной и той же теме на разных языках: https://habr.com/ru/articles/982312/comments/#comment_29332528
Но как это доказывает, что проблемы искажения данных в пользу определённого круга заинтересованных лиц не существует? Или Вы полагаете, что при написании статьи я опирался только на запросы к моделям?)
Так чего же они тогда, эти образованные люди, пропускают в датасеты синтетику, когда производят настройку на полезность?) Не заметили? Или намеренно пропускают, потому что синтетика дешевле?) Ответьте себе на этот вопрос сами.
Пока что в военный ИИ больше всего вкладываются 2 страны: Китай и США. США пока лидируют, но Китай тоже не стоит на месте. Будущая война покажет, кто преуспел)
Так ведь и нейронка - не настоящий литературный критик)
За комментарий спасибо
Кстати, а зачем?)
Пока сложно с нейроинтерфейсами и картинками на экране. Может, в будущем появится что-то подобное, работающее. А вот полиграф на базе ИИ прекрасно работает уже сейчас. Но допрос военнопленных - не самое приоритетное направление развития ИИ, потому что в реальности военнопленные как источник информации стоят на чуть ли не последнем месте. Военнопленные - инструмент пропаганды и обменный фонд.
А вот это, кстати, интересное наблюдение.
Поднимайте свою модель и учите ее чему хотите. хоть японским матом ругаться) Но да, совет из серии "нет хлеба? поешьте пирожных".
Статья - всего лишь указание на существующую проблему. Собственно, на полноценное исследования я и не претендовал. Поэтому, я бы сказал, что статья не слабая, а просто не отвечает Вашим пожеланиям к глубине исследования)) Мне-то норм, я сказал всё, что хотел.
Полагаю, что и во всех остальных темах результат будет похожий: максимум один-два источника, а всё остальное - информационное эхо.
Именно так, даже в Китае) Потому что они тупо воруют весА, либо включают безлимитный обратный инжиниринг.
Дизлайки без пояснений под статьёй тому некоторое доказательство) А статья, да, слабовата. Но переписывать не буду, никто покамест не переубедил меня в справедливости выводов.
cfuk u mohter - это шутка. В UPD приведены две ссылки на конкретные исследования.
Я не люблю ролевые игры, простыни с дырками и вот это всё) Просто стараюсь не врать себе, чего и всем советую.
Какие модели или ИИ-платформы используете? Какой конкретно промпт?
Обучение LLM происходит везде, и на востоке тоже. Дело не в том, где, а в том, на чём и для чего. Проблема в том, что люди не видят в этом проблему.
Буду благодарен, если поясните, в чём слабость статьи. Я начинающий автор, могу не передать каких-то нюансов. И да, тема не ограничивается чернокожими, я про это и говорю. Проблема в том, что публичным моделям скармливают заведомо фальшивые данные. В результате чего ИИ становится скрытым элементом пропаганды чего угодно. Тогда как модели для узкого круга задач вполне адекватны.
Да это всё давно делается. Но это дорого. Дешевле нагенерить)
Вот в статье как раз-таки пример технической информации. И ведь ответ не выглядит, что мы столкнулись с пропагандой, правда?)
А еще интересно, почему люди ставят дизлайки, но не комментируют пост. Ведь любой может повторить эксперимент и аргументированно поспорить с автором. Есть гипотеза, что они делают это неосознанно, на основе своей прошивки. А теперь вопрос: как же так их прошили?))
У ближней губы такие... астрофизические. А вот вторую астрофизич(ку) видно хуже.
Ага, уловил. Например, на основе наших предпочтений формировать кастомные промпты. Которые улучшат выдачу по другим запросам, касающимся наших предпочтений. Верно?