А является ли вообще проблемой не такая жёсткость у LLM?
Может быть это не такая глобальная проблема как вы думаете?
А может нам нужна система которая будет эфолюцианировать/учиться и сама расти в точности?
Я к тому что, я бы сначала распознал боль, провёл опрос на Хабре(хотя бы), а потом занимался проектом на который уйдут годы. Или упаковал боль в статью.
Печатаю шесть лет на заказ. Пластик липнет и к остывшему, но чуть хуже, дело в том что деталь которую ты напечатал и остудил уже уменьшилась это раз, во вторых пластик продаваемый из сопла - не расплавленный, соответственно хуже липнет к остывшему, но это решаемо.
Например если печать оборвалась, ты можешь посчитать слои вручную или высоту модели линейкой, далее обрезать g-code до нужного момента и запустить повторную печать, выставив температуру чуть больше вручную на принтере. А еще можно высоту чуть уменьшить (g-codom ) и тогда новый слой впечатается в модель.
Как идея с пересадками, взять слои с большой модели и воткнуть в более мелкую (по глубине).
Затем заморозить все кроме этого слоя и учить определённой задаче, затем разморозить всё и дать согласоваться слоям. А лучше размораживать сначала окружающие слои.
Статья хорошая. По поводу обучения других, это наверное самый продуктивный способ усвоения информации. (Ещё можно взять споры, принцип тот же).
Ты можешь даже не шарить в этой теме, но тебе надо объяснить человеку А и ты в этом заинтересован. Чтобы объяснить, тебе нужно понять, переформулировать материал, а затем вспомнить, чтобы рассказать своему ученику/другу.
И к этому мозг перестраивается – среди шума работать в фокусе, цеплять нужную информацию, запоминать, переформулировать. Это процесс.
Вы можете представить себе человека который просто читает хабр и того кто пересказывает каждую статью другу.
Честно ожидал все кроме базовой сетки для распознавания цифр, которых и так много.
А еще люди изменяют свои воспоминания, каждый раз вспоминая
статья опоздала лет на 10
Claude mythos
Я провёл тот же самый эксперимент с понятием "аишник", теперь его цепляет Яндекс Алиса, чат гпт и другие. Но иногда ещё путает с "айтишниками"
Можете вбить в поиск "кто такие аишники", а в нейронку "Кто такие аишники? (Тут нет опечатки)" (Чтобы с первого раза сработало)
А является ли вообще проблемой не такая жёсткость у LLM?
Может быть это не такая глобальная проблема как вы думаете?
А может нам нужна система которая будет эфолюцианировать/учиться и сама расти в точности?
Я к тому что, я бы сначала распознал боль, провёл опрос на Хабре(хотя бы), а потом занимался проектом на который уйдут годы. Или упаковал боль в статью.
Теперь понятно почему альфа такое..
Печатаю шесть лет на заказ. Пластик липнет и к остывшему, но чуть хуже, дело в том что деталь которую ты напечатал и остудил уже уменьшилась это раз, во вторых пластик продаваемый из сопла - не расплавленный, соответственно хуже липнет к остывшему, но это решаемо.
Например если печать оборвалась, ты можешь посчитать слои вручную или высоту модели линейкой, далее обрезать g-code до нужного момента и запустить повторную печать, выставив температуру чуть больше вручную на принтере. А еще можно высоту чуть уменьшить (g-codom ) и тогда новый слой впечатается в модель.
Как ты здорово скипнул все принтеры и впихнул бамбулаб..
Iron Man, ты ли это?
Как идея с пересадками, взять слои с большой модели и воткнуть в более мелкую (по глубине).
Затем заморозить все кроме этого слоя и учить определённой задаче, затем разморозить всё и дать согласоваться слоям. А лучше размораживать сначала окружающие слои.
Насторожили осторожности, что это не убийца chatGPT, будто статью писал chatGPT.
GPT 5.6?
Наверное обучат нейронки как отдельных агентов, один будет промты переформулировать, раскладку итп
Другой будет размышлять о бытие, пятый следить за контекстом, второй отвечать, в итоге система сможет решать любые задачи, но очень дорого.
Пока сырая статья, чуть доработать бы.
Вы бы могли сэкономить на генерации данных, использовав бесплатные прокси этих моделей. Ведь технически эти модели недоступны в России)
и 30к примеров это не так много, даже если выстраивать более сложный пайплайн
На сколько я помню, у них есть фишка для до обучения. По крайней мере была как и у gemini
Именно файтюн
Мне понравились вставки, о это Ньютон, а это мячик, а это...
Что делает прочтение занимательным и простым.
Но в конце статьи я бы сделал более плотный вывод
Запускал тут дип ресерч исследовать одну штуку в LLM (применял кто то или нет) ну и рассмотреть эту идею, по итогу 2 часа он искал, 500 источников
Статья хорошая. По поводу обучения других, это наверное самый продуктивный способ усвоения информации. (Ещё можно взять споры, принцип тот же).
Ты можешь даже не шарить в этой теме, но тебе надо объяснить человеку А и ты в этом заинтересован. Чтобы объяснить, тебе нужно понять, переформулировать материал, а затем вспомнить, чтобы рассказать своему ученику/другу.
И к этому мозг перестраивается – среди шума работать в фокусе, цеплять нужную информацию, запоминать, переформулировать. Это процесс.
Вы можете представить себе человека который просто читает хабр и того кто пересказывает каждую статью другу.