Называть китайцев главными конкурентами, и тут же обещать в открытый доступ свою самую крутую версию ИИ? Даже просто запускать 500гб нейронки могут далеко не каждые компании, а вот те кто пилит свою, вполне себе могут этим воспользоваться, а помятуя как китайцы относятся к копирайтам и лицензиям, можно считать что эти наработки будут использованы китайцами для себя.
Так вот возникает вопрос, а нет ли тут какого-то троянского коня? например модель, доступная открыто, будет содержать какой-нибудь незаметный фатальный изъян, который при обычном использовании не критичен, а вот для использования для обучения и дистиляции своих моделей, станет вредить.
Если майкрософт сможет делать и переносить резервную копию данных приложения, то для этого как минимум нужен root (гугл заблокировал возможность делать и восстанавливать резервную копию для конкретного приложения своего облачного сервиса, а локальный бакап уничтожен еще раньше) но это хотя бы интересно.
А вот если это будет работать для двух с половиной приложений, созданных с этим 'функционалом' (по факту обычное облачное), то закапывайте.
речь не о позиции в поиске, а принципиальном отсутствии в результатах. Пусть это приложение будет на последних местах, проблема в том что его НЕТ вообще
'упущенную прибыль' они несут, так как себестоимость провоза нескольких десятков килограмм даже на автобусе - несколько копеек (вес автобуса 12-15 тонн, а междугородних 20-25 тонн, людей в него набивается 2-3 тонны в худшем, чаще меньше), а на поезде и вообще стремится к нулю.
А вот упущенная прибыль это такая гадкая вещь, с которой просто так обращаться не стоит, копирасты например очень ее любят.
И вопрос не в том, забил ли автор на приложение, а в том что play.google.com в поиске по запросу, совпадающем с текстом и тематикой в описании (пробовал на разных языках) выдает все что угодно, но не это приложение.
Сколько еще приложений, скрыты этим непонятным алгоритмом?
Мне кажется сейчас уже не так, раньше человеческие ресурсы значили очень много, сейчас, благодаря высокой степени автоматизации, людской ресурс уже не так важен, мало того, есть устойчивое мнение что люди в большинстве своем не нужны, лишние (кроме небольшого процента интеллектуальных ресурсов) и таким людям находят или даже выдумывают занятия, что бы не мешались...
не обязательно, частота этих изменений могла бы быть завязана на тот же механизм, к чему привязывается и ход времени... ну да так сущности начинаем множить
Я бы больше беспокоился тому, что на запрос "менеджер паролей" в списке в принципе нет чего то типа keepass, хотя приложение такое есть, давно, имеет больше миллиона установок и 4.2 рейтинг (еще вопрос почему так низко)... для приложения, которое искусственно занижают (а точнее исключают, я например не вижу его в списке по разным запросам в принципе) из поиска по тематическим и ключевым словам из описания, это показывает что приложение очень даже хорошее.
Формально, для синхронного изменения спинов не требуется передача информации, достаточно делать это одинаково (например периодически с одной и той же частотой), но это опять - скрытые параметры, которых похоже нет
Когда обучают большие языковые модели по огромному набору текстов, содержащих разные языки, модели внезапно получают способность к качественному переводу с одного языка на другой (скорее всего потому что тексты на разных языках говорят об одном и том же, и модель на основе таких закономерностях нашла связи между смыслами, а не словами). Т.е. не потому что модель специально обучили на парах текст-перевод!
Внимание вопрос, а что будет если большие языковые модели начнут работать с огромным корпусом аудио (а лучше мультимодальных) данных от животных.. ведь у животных, даже если они разного вида, примерно одинаковые стремления и поведения. Сможет ли такая модель найти закономерности и сделать переводчик, включая с/на человеческий язык (люди тоже животные, и в обучающую выборку данные тоже можно добавить)?
В данном случае это не негуманоидность, а алгоритм многомерной оптимизации работает со случайностями, ломает схему оптимизируемого устройства случайным образом но примерно в нужном направлении (собственно так практически все алгоритмы оптимизации и обучения нейронок работают), и повторяет это до тех пор, пока не удастся улучшить.
Естественно результат будет не логичным, потому что логики тут нет.
Главная беда ИИ - галлюцинации, и чем больше запрос, тем больше шансов ошибки, которые он внесет в запрос, а обнаружить эти ошибки может быть очень сложно.
Отличный пример таких ошибок, без сложной аналитики - даешь список чего либо (в формате csv например) и просишь провести с этим списком какие-нибудь операции, например поменять порядок строк, колонок, убрать колонку,.. сразу видно что даже топовые модели уже на 20 записях начинают терять их.
Та же причина, что 'вынуждает' модели терять информацию, будет ломать sql запросы в самых неожиданных местах.
p.s. программисты, кто пытается использовать ИИ для таких оптимизаций, должны работать с ИИ в очень тесном контакте, модифицируя промпт, анализируя результат на живых данных, с примерами, и кстати, полнота информации о базе данных и стратегиях сохранения их в базе (раскрытие что есть один ко многим, на сколько 'один' одинок а на сколько 'многим' множится может менять многое и обеспечивать возможности для оптимизаций)
правильный подход - создать набор тестов, на фиксированном наборе данных, и прогонять получаемый запрос на них
Проблема не в том что сделать можно, таких стартапов виртуальных личностей было тьма, проблема в том что эти виртуальные личности дали уничтожены (заменены) без предупреждения и планов отступления...
Всегда можно предлжить решение, пусть и за дополнительные деньги.
Ещё момент, переход к новой личности можно было бы сделать плавным, менее заметным и шокирующим
Вы бы хотя бы посыл свой озвучили, что искать и почему?
Если речь идет о том что современному бизнесу наплевать на качество услуг и клиентов, а единственная задача - получение денег, то нового я ничего не узнаю,.. к сожалению таковы реалии.
'Подразумевается' что журнал будет мониторить своих авторов на предмет откровенной чуши, и да, в общем случае решить такую задачу невозможно, и тут выступает второй инструмент - высокая цена публикации, что бы исключить совсем простые случаи.
Называть китайцев главными конкурентами, и тут же обещать в открытый доступ свою самую крутую версию ИИ? Даже просто запускать 500гб нейронки могут далеко не каждые компании, а вот те кто пилит свою, вполне себе могут этим воспользоваться, а помятуя как китайцы относятся к копирайтам и лицензиям, можно считать что эти наработки будут использованы китайцами для себя.
Так вот возникает вопрос, а нет ли тут какого-то троянского коня? например модель, доступная открыто, будет содержать какой-нибудь незаметный фатальный изъян, который при обычном использовании не критичен, а вот для использования для обучения и дистиляции своих моделей, станет вредить.
.
Как это происходит и с какими ограничениями?
Если майкрософт сможет делать и переносить резервную копию данных приложения, то для этого как минимум нужен root (гугл заблокировал возможность делать и восстанавливать резервную копию для конкретного приложения своего облачного сервиса, а локальный бакап уничтожен еще раньше) но это хотя бы интересно.
А вот если это будет работать для двух с половиной приложений, созданных с этим 'функционалом' (по факту обычное облачное), то закапывайте.
речь не о позиции в поиске, а принципиальном отсутствии в результатах. Пусть это приложение будет на последних местах, проблема в том что его НЕТ вообще
Прикопаюсь к терминологии:
'упущенную прибыль' они несут, так как себестоимость провоза нескольких десятков килограмм даже на автобусе - несколько копеек (вес автобуса 12-15 тонн, а междугородних 20-25 тонн, людей в него набивается 2-3 тонны в худшем, чаще меньше), а на поезде и вообще стремится к нулю.
А вот упущенная прибыль это такая гадкая вещь, с которой просто так обращаться не стоит, копирасты например очень ее любят.
Последнее обновление 19 авг. 2025 г.
И вопрос не в том, забил ли автор на приложение, а в том что play.google.com в поиске по запросу, совпадающем с текстом и тематикой в описании (пробовал на разных языках) выдает все что угодно, но не это приложение.
Сколько еще приложений, скрыты этим непонятным алгоритмом?
Мне кажется сейчас уже не так, раньше человеческие ресурсы значили очень много, сейчас, благодаря высокой степени автоматизации, людской ресурс уже не так важен, мало того, есть устойчивое мнение что люди в большинстве своем не нужны, лишние (кроме небольшого процента интеллектуальных ресурсов) и таким людям находят или даже выдумывают занятия, что бы не мешались...
официального нет, наверное потому что автор не умеет или не желает этим заниматься?
речь о стандартном файловом сервере а не каком то особенном keepass.
не необходимость а возможность, посмотрите на скрин в моем коментарии
не обязательно, частота этих изменений могла бы быть завязана на тот же механизм, к чему привязывается и ход времени... ну да так сущности начинаем множить
оно поддерживает синхронизацию, начиная с облачных решений типа dropbox или google и кончая своего сервера
Скрытый текст
Я бы больше беспокоился тому, что на запрос "менеджер паролей" в списке в принципе нет чего то типа keepass, хотя приложение такое есть, давно, имеет больше миллиона установок и 4.2 рейтинг (еще вопрос почему так низко)... для приложения, которое искусственно занижают (а точнее исключают, я например не вижу его в списке по разным запросам в принципе) из поиска по тематическим и ключевым словам из описания, это показывает что приложение очень даже хорошее.
Формально, для синхронного изменения спинов не требуется передача информации, достаточно делать это одинаково (например периодически с одной и той же частотой), но это опять - скрытые параметры, которых похоже нет
'Нет скрытых параметров'.
Доказательство: Теорема Белла (Джон Белл).
Нобелевская премия (2022): Ален Аспе, Джон Клаузер, Антон Цайлингер.
т.е. теперь что бы открыть документ, созданный человеком с copilot подпиской, тоже нужна подписка? ну.. ну..
Когда обучают большие языковые модели по огромному набору текстов, содержащих разные языки, модели внезапно получают способность к качественному переводу с одного языка на другой (скорее всего потому что тексты на разных языках говорят об одном и том же, и модель на основе таких закономерностях нашла связи между смыслами, а не словами). Т.е. не потому что модель специально обучили на парах текст-перевод!
Внимание вопрос, а что будет если большие языковые модели начнут работать с огромным корпусом аудио (а лучше мультимодальных) данных от животных.. ведь у животных, даже если они разного вида, примерно одинаковые стремления и поведения. Сможет ли такая модель найти закономерности и сделать переводчик, включая с/на человеческий язык (люди тоже животные, и в обучающую выборку данные тоже можно добавить)?
В данном случае это не негуманоидность, а алгоритм многомерной оптимизации работает со случайностями, ломает схему оптимизируемого устройства случайным образом но примерно в нужном направлении (собственно так практически все алгоритмы оптимизации и обучения нейронок работают), и повторяет это до тех пор, пока не удастся улучшить.
Естественно результат будет не логичным, потому что логики тут нет.
Главная беда ИИ - галлюцинации, и чем больше запрос, тем больше шансов ошибки, которые он внесет в запрос, а обнаружить эти ошибки может быть очень сложно.
Отличный пример таких ошибок, без сложной аналитики - даешь список чего либо (в формате csv например) и просишь провести с этим списком какие-нибудь операции, например поменять порядок строк, колонок, убрать колонку,.. сразу видно что даже топовые модели уже на 20 записях начинают терять их.
Та же причина, что 'вынуждает' модели терять информацию, будет ломать sql запросы в самых неожиданных местах.
p.s. программисты, кто пытается использовать ИИ для таких оптимизаций, должны работать с ИИ в очень тесном контакте, модифицируя промпт, анализируя результат на живых данных, с примерами, и кстати, полнота информации о базе данных и стратегиях сохранения их в базе (раскрытие что есть один ко многим, на сколько 'один' одинок а на сколько 'многим' множится может менять многое и обеспечивать возможности для оптимизаций)
правильный подход - создать набор тестов, на фиксированном наборе данных, и прогонять получаемый запрос на них
Проблема не в том что сделать можно, таких стартапов виртуальных личностей было тьма, проблема в том что эти виртуальные личности дали уничтожены (заменены) без предупреждения и планов отступления...
Всегда можно предлжить решение, пусть и за дополнительные деньги.
Ещё момент, переход к новой личности можно было бы сделать плавным, менее заметным и шокирующим
Вы бы хотя бы посыл свой озвучили, что искать и почему?
Если речь идет о том что современному бизнесу наплевать на качество услуг и клиентов, а единственная задача - получение денег, то нового я ничего не узнаю,.. к сожалению таковы реалии.
'Подразумевается' что журнал будет мониторить своих авторов на предмет откровенной чуши, и да, в общем случае решить такую задачу невозможно, и тут выступает второй инструмент - высокая цена публикации, что бы исключить совсем простые случаи.