Как можно использовать 'для отчетов' то что (читаем список чеклист в конце статьи)? Даже топовые модели ломаются на простом - закинуть список из всего 20-30 элементов и попросить с этим списком что то сделать, например посчитать по признаку, поменять порядок строк, поменять колонки местами (если это к примеру табличка).
Домашку сделать? и спалиться на простом вопросе у доски?
Но да, мусорную воду в статью налить оно уже умеет.
p.s. правильное использование современных моделей - работа с данными, анализ (классификация, ранжирование), поиск (rag например) и... уникальная фича, поговорить с документом.
Проект не смотрел (хотя по описанию уже выглядит круто), но вопрос, солвер работает именно в динамике? В зависимости от скорости вращения (частоты) начинают работать характеристики материалла, из чего сделаны магнитопроводы (феррит, прессованный изолированный железный порошок или ленты/нити эти в свою очередь от их ориентации работают) из-за вихревых токов, которые в свою очередь генерируют свое поле.
Есть отличный тест, когда openai на презентации показали чарты сравнения своих же моделей, нарисованными с ошибками (большие числа были с меньшими высотами столбцов), так вот нормально 'что не так' отвечает только гугл... т.е. речь о понимании именно изображения. k2.5 корректно разобрал изображение, понял числа на нем и даже указал на методологические ошибки но не на этот факт
Потому что проблемы c++ больше организационные, очень сложно всех заставить писать правильно, а всякие rust пытаются решать проблему запретительными методами прямо в стандарте языка.
типовой пример - власть может заставить богатого заплатить за нее (это во всю эксплуатируется, что бы 'скрывать следы кто платил'). Богатство не власть, но власть обычно дает возможности к богатству, поэтому и возникает путаница.
да я собственно так и подумал, вариант в статье по простому заметно дешевле чем заниматься более сложной разработкой.. с другой стороны большую часть этого сможет сделать ИИ как кодер и девопс почти сам (просто непривычно и страшно давать ему полные права без контроля)
То же подумал про развод - вы оставили царапину на корпусе, платите (производители специально делают устрйства легко ломаемыми, ремонт не дешевым, это заметная статья доходов).
т.е. вы получаете рекламу за бесплатное использование смартфона
плюс к этому вы получаете рекламу от производителя смартфона (привет xiaomi)
затем вы получаете рекламу от собственно разработчиков приложений и игр (привет неотключаемые рекламы видео площадок, бесплатных игр которые нельзя купить и т.п.)
а теперь самое главное, зачем этот геморой людям? сколько собственно останется процентов времени, когда пользователь сможет решать свои задачи а не 'материться на луну'? вы пробовали без технических средств и блокировок работать с каким-нибудь ozon? 99% содержимого экрана - чистый незамутненный спам, через эту помойку приходится продираться что бы собственно найти желаемое (в чем площадка естественно не собирается помогать, зачем, когда каждая минута мучений пользователя - больший список предложений он увидит)... давайте теперь этот маразм внедрим в больше мест?
у меня плохо с практикой, я просто беру то что советуют
везде и все сразу говорят про intfloat/multilingual-e5 small/base/large (до 0.6b), если маленькие модели то для ку сегмента лучше наверное sber
ну там всякие sbert или rubert-tiny2
но главное другое, текст нужно перед подачей в модель вычищать, от ссылок например, и соответственно тут же можно и проверку правописания провести (правда я бы предварительно еще по параграфам прошел бы, классифицируя как тот же код или как текст, что бы не вылечить лишнего).
неправильно так сравнивать, за эти годы, в открытом доступе появилось (их добавили в обучающую выборку) огромное количество кода решающего вашу задачу.
p.s. тоже считаю что прогресс коллосальный, то ли еще будет, но риски того что можем на этом этапе застыть - тоже есть
Наверное важно еще то что у 3d принтера есть еще достоинство (по сравнению со 'станком ЧПУ', правда 3d принтер им тоже является, но я понял что имелось в виду) - простота, доступность, отсутствие требований к знаниям и умениям.
Распечатать это буквально - загрузить модель, нажать кнопку, собрать по инструкции как конструктор. Токарный станок требует сильно больше компетенций.
p.s. главное достоинство самодельного оружия, нет регистрации его покупателя, т.е. нет следа (по пуле и стволу можно сказать, эта пуля с такой то вероятностью была выпущена от сюда), а что с 3d печатью?
Я бы не просто 'новая тема - переобучать', а делал бы переобучение с появлением каждого нового поста (как он вылежится нужный период времени, например мы собираем лайки за первые сутки, первую неделю, первый месяц...).
Никто не требует обучать большую модель... можно собирать из постов embendings, добавлять к ним какие то свои цифровые параметры (размер статьи, количество подписчиков у автора, количество постов у автора и т.п. вплоть до времени дня или день недели публикации, расстояние до ближайшей популярной публикации в ближайшие сутки и т.п. много чего можно придумать) и имея на руках эту базу, обучить маленькую нейронку предсказывать целевое число на ней.
2. Для 164 постов файнтюн — из пушки по воробьям
в смысле 164... вам нужно выгрузить другие телеграм каналы (желательно вашей тематики) нужны тысячи, желательно десяток тысяч постов, потому что прогнозировать только по своей маленькой выборке действительно глупо.
upd. когда речь о маленьком количестве, кажется методы в статье имеют больший смысл, заморачиваться по крупному наверное неоправданно сложно
Я правильно понимаю, речь идет об использовании одной модели (общей) в которую буквально текстом задают вопрос о сравнении? Но модели с этим изначально отвратительно справляются... даже если так делать, нужно так формулировать промпт, что бы модели нужно было для ответа дать один токен (да/нет) и вероятность этого токена (logits/logprobs, не каждый api дает к ним доступ) будет целевой неуверенностью модели в этом ответе, это уже число, с которым можно работать (прогнать такой промпт по старой базе постов и сравнить, вычислить закономерность, скорее всего там будет что то типа перекрывающегося множества часть тех постов для которых ответ да будет давать с хорошими шансами ответ нет но определенной вероятностью).
Но ведь для этого лучше дообучить свою модель, условно у нас есть база старых постов с оценками, тюним модель на следующий промпт ПостA -> оценка (только не численная а один токен, типа оценка от 0 до 9 да еще и зафиксировать жестко доступные токены с помощью structured output/gramma, для llm-ок это удобнее и дает лучше результат, а несколько разрядов в числах ее путают) и теперь сможем делать предсказание на базе своей модели, имея на руках оценку ее правдоподобности.
Точно так же можно тюнить и сравнение двух постов, даем два поста через разделитель и просим сказать 1 или 2 (например промпт - какая статья интереснее), что бы ответ был один токен, вероятность перед этими токенами даст нам численную информацию, с которой можно работать, типа или score = logit('ответ 1') - logit('ответ 2')
Аугментация данных может привести к переобученности нейронной сети на основе нереальных признаков. Я думаю, если речь идет о распозновании образов, самыми полезными можно назвать повороты, частичное перекрытие (только чем и как перекрывать тоже думать нужно), размытия и смазы (различные дефекты видеокамер при движениях и расфокусировках), и по возможности, игры с цветом (например замена цвета у одежды, но нужно очень старательно подходить к алгоритму) и освещением, к примеру внедрение искусственных теней (их проще добавлять, особенно если сцена простая, ну сейчас есть алгоритмы построения чуть ли не 3d сцены, а там и свет и тени и что угодно можно поменять).
Я считаю, что вместо того, что бы корежить обучающую (обычно на старте проекта она жалкая, потому что вручную размечать неохота/дорого) выборку, лучше реализовать полуавтоматический сбор настоящих данных (разметку) на основе первоначального слабого алгоритма, т.е. собираем маленькую выборку, пилим что получится, на основе результата размечаем бОльший объем данных, снова обучаем,.. (self-training/pseudo‑labeling). Проверки и контроль можно делать другими, более простыми методами, например детектить движение объекта простыми алгоритмами, когда нам нужно квадратик рисовать вокруг объекта, соседние кадры его рисуют а этот почему то пропускают, считаем простым детектом движение его новый квадрат и если он не вышел за пороговые значения, добавляем в следующую обучающую выборку.
Само собой, если делать глупо, можно сильно умножить ложные срабатывания путем их добавления в выборку с неверными разметками.
Как можно использовать 'для отчетов' то что (читаем список чеклист в конце статьи)? Даже топовые модели ломаются на простом - закинуть список из всего 20-30 элементов и попросить с этим списком что то сделать, например посчитать по признаку, поменять порядок строк, поменять колонки местами (если это к примеру табличка).
Домашку сделать? и спалиться на простом вопросе у доски?
Но да, мусорную воду в статью налить оно уже умеет.
p.s. правильное использование современных моделей - работа с данными, анализ (классификация, ранжирование), поиск (rag например) и... уникальная фича, поговорить с документом.
Плюс все что большого контекста - не работает.
Проект не смотрел (хотя по описанию уже выглядит круто), но вопрос, солвер работает именно в динамике? В зависимости от скорости вращения (частоты) начинают работать характеристики материалла, из чего сделаны магнитопроводы (феррит, прессованный изолированный железный порошок или ленты/нити эти в свою очередь от их ориентации работают) из-за вихревых токов, которые в свою очередь генерируют свое поле.
Есть отличный тест, когда openai на презентации показали чарты сравнения своих же моделей, нарисованными с ошибками (большие числа были с меньшими высотами столбцов), так вот нормально 'что не так' отвечает только гугл... т.е. речь о понимании именно изображения. k2.5 корректно разобрал изображение, понял числа на нем и даже указал на методологические ошибки но не на этот факт
Потому что проблемы c++ больше организационные, очень сложно всех заставить писать правильно, а всякие rust пытаются решать проблему запретительными методами прямо в стандарте языка.
типовой пример - власть может заставить богатого заплатить за нее (это во всю эксплуатируется, что бы 'скрывать следы кто платил'). Богатство не власть, но власть обычно дает возможности к богатству, поэтому и возникает путаница.
вы решаете эту проблему постпроцессингом gcode?
лучше оставить в песочнице, предоставляя ровно столько сколько нужно
да я собственно так и подумал, вариант в статье по простому заметно дешевле чем заниматься более сложной разработкой.. с другой стороны большую часть этого сможет сделать ИИ как кодер и девопс почти сам (просто непривычно и страшно давать ему полные права без контроля)
а зачем эти 'постояльцы' рекламодателям?
То же подумал про развод - вы оставили царапину на корпусе, платите (производители специально делают устрйства легко ломаемыми, ремонт не дешевым, это заметная статья доходов).
т.е. вы получаете рекламу за бесплатное использование смартфона
плюс к этому вы получаете рекламу от производителя смартфона (привет xiaomi)
затем вы получаете рекламу от собственно разработчиков приложений и игр (привет неотключаемые рекламы видео площадок, бесплатных игр которые нельзя купить и т.п.)
а теперь самое главное, зачем этот геморой людям? сколько собственно останется процентов времени, когда пользователь сможет решать свои задачи а не 'материться на луну'? вы пробовали без технических средств и блокировок работать с каким-нибудь ozon? 99% содержимого экрана - чистый незамутненный спам, через эту помойку приходится продираться что бы собственно найти желаемое (в чем площадка естественно не собирается помогать, зачем, когда каждая минута мучений пользователя - больший список предложений он увидит)... давайте теперь этот маразм внедрим в больше мест?
И ни слова, почему это не работало и что гугл сделал что бы заработало.
Я нагуглил https://developer.mozilla.org/en-US/docs/Web/API/DataTransfer в нем есть поддержка работы нескольких файлов, получается это просто не работало как ожидается а теперь это пофиксили!?
p.s. там что то про addElement, которая поддерживается только в firefox, но есть items куда можно add в том числе и файлы.
trueskill был batch или попарное сравнение?
у меня плохо с практикой, я просто беру то что советуют
везде и все сразу говорят про intfloat/multilingual-e5 small/base/large (до 0.6b), если маленькие модели то для ку сегмента лучше наверное sber
ну там всякие sbert или rubert-tiny2
но главное другое, текст нужно перед подачей в модель вычищать, от ссылок например, и соответственно тут же можно и проверку правописания провести (правда я бы предварительно еще по параграфам прошел бы, классифицируя как тот же код или как текст, что бы не вылечить лишнего).
не понимаю, зачем нужно тренировать эмбендинги
у вас опечатка/ошибка, которую используемая модель для извлечения эмбендингов не поняла... так используйте изначально другую.
неправильно так сравнивать, за эти годы, в открытом доступе появилось (их добавили в обучающую выборку) огромное количество кода решающего вашу задачу.
p.s. тоже считаю что прогресс коллосальный, то ли еще будет, но риски того что можем на этом этапе застыть - тоже есть
Наверное важно еще то что у 3d принтера есть еще достоинство (по сравнению со 'станком ЧПУ', правда 3d принтер им тоже является, но я понял что имелось в виду) - простота, доступность, отсутствие требований к знаниям и умениям.
Распечатать это буквально - загрузить модель, нажать кнопку, собрать по инструкции как конструктор. Токарный станок требует сильно больше компетенций.
p.s. главное достоинство самодельного оружия, нет регистрации его покупателя, т.е. нет следа (по пуле и стволу можно сказать, эта пуля с такой то вероятностью была выпущена от сюда), а что с 3d печатью?
Я бы не просто 'новая тема - переобучать', а делал бы переобучение с появлением каждого нового поста (как он вылежится нужный период времени, например мы собираем лайки за первые сутки, первую неделю, первый месяц...).
Никто не требует обучать большую модель... можно собирать из постов embendings, добавлять к ним какие то свои цифровые параметры (размер статьи, количество подписчиков у автора, количество постов у автора и т.п. вплоть до времени дня или день недели публикации, расстояние до ближайшей популярной публикации в ближайшие сутки и т.п. много чего можно придумать) и имея на руках эту базу, обучить маленькую нейронку предсказывать целевое число на ней.
в смысле 164... вам нужно выгрузить другие телеграм каналы (желательно вашей тематики) нужны тысячи, желательно десяток тысяч постов, потому что прогнозировать только по своей маленькой выборке действительно глупо.
upd. когда речь о маленьком количестве, кажется методы в статье имеют больший смысл, заморачиваться по крупному наверное неоправданно сложно
Я правильно понимаю, речь идет об использовании одной модели (общей) в которую буквально текстом задают вопрос о сравнении? Но модели с этим изначально отвратительно справляются... даже если так делать, нужно так формулировать промпт, что бы модели нужно было для ответа дать один токен (да/нет) и вероятность этого токена (logits/logprobs, не каждый api дает к ним доступ) будет целевой неуверенностью модели в этом ответе, это уже число, с которым можно работать (прогнать такой промпт по старой базе постов и сравнить, вычислить закономерность, скорее всего там будет что то типа перекрывающегося множества часть тех постов для которых ответ да будет давать с хорошими шансами ответ нет но определенной вероятностью).
Но ведь для этого лучше дообучить свою модель, условно у нас есть база старых постов с оценками, тюним модель на следующий промпт ПостA -> оценка (только не численная а один токен, типа оценка от 0 до 9 да еще и зафиксировать жестко доступные токены с помощью structured output/gramma, для llm-ок это удобнее и дает лучше результат, а несколько разрядов в числах ее путают) и теперь сможем делать предсказание на базе своей модели, имея на руках оценку ее правдоподобности.
Точно так же можно тюнить и сравнение двух постов, даем два поста через разделитель и просим сказать 1 или 2 (например промпт - какая статья интереснее), что бы ответ был один токен, вероятность перед этими токенами даст нам численную информацию, с которой можно работать, типа или score = logit('ответ 1') - logit('ответ 2')
Аугментация данных может привести к переобученности нейронной сети на основе нереальных признаков. Я думаю, если речь идет о распозновании образов, самыми полезными можно назвать повороты, частичное перекрытие (только чем и как перекрывать тоже думать нужно), размытия и смазы (различные дефекты видеокамер при движениях и расфокусировках), и по возможности, игры с цветом (например замена цвета у одежды, но нужно очень старательно подходить к алгоритму) и освещением, к примеру внедрение искусственных теней (их проще добавлять, особенно если сцена простая, ну сейчас есть алгоритмы построения чуть ли не 3d сцены, а там и свет и тени и что угодно можно поменять).
Я считаю, что вместо того, что бы корежить обучающую (обычно на старте проекта она жалкая, потому что вручную размечать неохота/дорого) выборку, лучше реализовать полуавтоматический сбор настоящих данных (разметку) на основе первоначального слабого алгоритма, т.е. собираем маленькую выборку, пилим что получится, на основе результата размечаем бОльший объем данных, снова обучаем,.. (self-training/pseudo‑labeling). Проверки и контроль можно делать другими, более простыми методами, например детектить движение объекта простыми алгоритмами, когда нам нужно квадратик рисовать вокруг объекта, соседние кадры его рисуют а этот почему то пропускают, считаем простым детектом движение его новый квадрат и если он не вышел за пороговые значения, добавляем в следующую обучающую выборку.
Само собой, если делать глупо, можно сильно умножить ложные срабатывания путем их добавления в выборку с неверными разметками.