Да дело не в количестве знаний человечества, а в том, что модели большого размера при прочих равных все же решают в разы более сложные задачи. Локально вы сможете вносить, к примеру, какие-то минорные правки в несколько файлов несложного проекта, но взять и загрузить проект хотя бы на 10 мб исходного кода, чтобы в разумное время модель сама его проанализировала, выдала резюме относительно особенностей архитектуры, протоколов, тонкостей технической реализации вы не сможете.
Ну, вы сравнили тоже... три 3090 (72 Гб видеопамяти) против 1 Тб. В одном случае вы запустите маленькую локальную модель, в другом - аналогичную онлайн-моделям огромного размера. Класс решаемых задач у них объективно не совпадает.
С вами вряд ли согласятся миллионы людей, играющие в игры наподобие "Wild Rift". Дело привычки. Я вот больше люблю тачскрин в этом отношении, хотя я и рос в 90-е годы.
Понятие информации в математике используется широко, есть даже раздел, который так и называется - "Теория информации". Ограничения на сжатие без потерь вытекают из теоремы Шеннона для источника без памяти.
Полный бред, алкоголь относится к группе депрессантов (официально), причём это один из наиболее сильных депрессантов, он как раз-таки делает с биохимической точки зрения именно то, что способствует развитию депрессии.
Я исследовал опубликованные в раздачах на Рутрекере разные сборки ОС (понятно, что сам я их не использую, чисто ради интереса), и софт вроде Adobe Photoshop, FL Studio, а также игры - например, Stray.
Выяснилось, что процентах в 80 зашита разной хитрости малварь. Например, встречал я сборку OVGorskiy (или как его там), где был модуль ядра, который, понятное дело, не подписан, но он прятал процессы и скрывал себя в памяти. Устанавливал хуки на целую кучу вызовов, делал много чего еще.
В FL Studio был зашит загрузчик малвари.
Самое интересное, что когда я выкладывал на рукрекере доказательства, мои посты тёрли. В конце концов, мне просто запретили отвечать в темах. Вот такой он, рутрекер. Не удивлюсь, если его владельцы в доле с ботоводами)
Для программистов, которые в сжатые сроки пишут код и работают над сложными проектами, это незаменимая вещь. Я для личного использования делал с помощью o1-preview несколько приложений с gui. И скажу, что, возможно, эта модель пока не так сильна в плане продумывания различных частей комплексного алгоритма, но она очень полезна, особенно когда надо внести в проект значительные изменения. Например, переписать большие классы или, как в вашем случае, добавить поддержку какой-то технологии или перенести проект/переписать его на другой язык.
В общем, да, вполне может окупиться подписка, если речь идёт о высокооплачиваемых специалистах, каждый час работы которых стоит дорого.
Но я хочу сказать, что модели с открытыми весами вроде qwen 2.5 coder 32b в некоторых сценариях могут составить конкуренцию ChatGPT.
Такое уже было сделано, да. Читал где-то статью (возможно, даже здесь, на Хабре), в которой чел описывал похожую схему. У него ещё был репозиторий на Гитхабе. Короче, там довольно бодро отвечала Эмма Уотсон на русском языке. Задержка буквально секундная, не больше. К сожалению, найти не могу ссылку.
По поводу "щёлкает как орешки" - а вы попросите найти ошибку в чем-то по-настоящему сложном. Например, проект со сложной криптографией. Я для своих личных нужд кое-что спрашивал у него по этому поводу, а именно - по поводу того, почему не работает корректно мой код на базе CryptoAPI винды. Я подробно, грамотно формулировал запрос, давая модели O1 и исчерпывающие данные, и необходимые наводки, и даже простор для творчества, но мою задачу он не смог решить. С поиском причин неудачной сборки у него пока тоже далеко не идеально - в простых случаях метод "скопировать сообщения компилятора нейросети и спросить, в чем дело" работает, но только в простых.
По моему опыту, пока что до уровня даже миддла O1-preview не дотягивает, как не дотягивают до него даже великолепные модели qwen 2.5 coder 32b и qwen 2.5 70b. Про llama с её 400+ миллиардов параметров я вообще молчу. Ещё не пробовал mistral large 2411, которая вышла на днях, есть надежда, что со сложными задачами в области программирования она будет справляться лучше.
Пока что o1-preview - это как очень хороший джуниор, которого иногда клинит, в результате чего он начинает тупить в элементарнейших моментах.
Но я думаю, что в ближайший год или полтора мы увидим такое развитие генеративного ИИ, что половина профессий начнёт стремительно меняться, потому что ИИ научится рассуждать по-настоящему. И вот тогда встретимся здесь снова и поговорим уже серьёзно))
Если, конечно, ИИ не решит всех прямоходящих обезьян ликвидировать :D
Нет, вот тут ошибаетесь вы, ради справедливости. Почитайте статьи этого автора и посмотрите фотографии - там реально варят мосты (но не такие, как какой-нибудь Бруклинский, там небольшие автомобильные/железнодорожные, насколько я понимаю). Так что реально речь в данном случае идёт о сварке конструктивных элементов мостов. И есть даже подробные описания того, как этот мост будет доставляться, устанавливаться и так далее.
Точно не детали диаметром в 1 метр, невозможно современными техническими методами варить детали метрового диаметра за доли секунды. В статьях этого же автора пишется про довольно долгий процесс сварки пролётов моста, у которого конструктивные элементы имеют гораздо меньшее по размеру сечение. И там же он пишет про сварку трансатлантического трубопровода (а труба полая) за несколько минут, что обозначает как выдающийся результат.
Нет, вы ошибаетесь. Речь идёт об эксперименте, и они взяли два прутка из стали 1080, чтобы испытать технологию. Выражение "1080 steel barstock" обозначает именно сталь. Если бы было написано "5160 steel", вы бы написали, что они варят пятиметровые детали?))) Если бы они в порядке эксперимента сварили два метровых куска металла, то им бы выдали Нобелевскую премию. Потому что да, в статьях этого автора упоминается производство мостов, но там же упоминается и прогрев гораздо меньших по сечению деталей за несколько часов перед началом процесса, чтобы избежать потерь тепла.
Да дело не в количестве знаний человечества, а в том, что модели большого размера при прочих равных все же решают в разы более сложные задачи. Локально вы сможете вносить, к примеру, какие-то минорные правки в несколько файлов несложного проекта, но взять и загрузить проект хотя бы на 10 мб исходного кода, чтобы в разумное время модель сама его проанализировала, выдала резюме относительно особенностей архитектуры, протоколов, тонкостей технической реализации вы не сможете.
Ну, вы сравнили тоже... три 3090 (72 Гб видеопамяти) против 1 Тб. В одном случае вы запустите маленькую локальную модель, в другом - аналогичную онлайн-моделям огромного размера. Класс решаемых задач у них объективно не совпадает.
С вами вряд ли согласятся миллионы людей, играющие в игры наподобие "Wild Rift". Дело привычки. Я вот больше люблю тачскрин в этом отношении, хотя я и рос в 90-е годы.
Понятие информации в математике используется широко, есть даже раздел, который так и называется - "Теория информации". Ограничения на сжатие без потерь вытекают из теоремы Шеннона для источника без памяти.
Почему, даже для задач программирования достаточно и q6.
Полный бред, алкоголь относится к группе депрессантов (официально), причём это один из наиболее сильных депрессантов, он как раз-таки делает с биохимической точки зрения именно то, что способствует развитию депрессии.
Даже сюда тащите свою политу грёбанную, как вы уже достали
Я исследовал опубликованные в раздачах на Рутрекере разные сборки ОС (понятно, что сам я их не использую, чисто ради интереса), и софт вроде Adobe Photoshop, FL Studio, а также игры - например, Stray.
Выяснилось, что процентах в 80 зашита разной хитрости малварь. Например, встречал я сборку OVGorskiy (или как его там), где был модуль ядра, который, понятное дело, не подписан, но он прятал процессы и скрывал себя в памяти. Устанавливал хуки на целую кучу вызовов, делал много чего еще.
В FL Studio был зашит загрузчик малвари.
Самое интересное, что когда я выкладывал на рукрекере доказательства, мои посты тёрли. В конце концов, мне просто запретили отвечать в темах. Вот такой он, рутрекер. Не удивлюсь, если его владельцы в доле с ботоводами)
Для программистов, которые в сжатые сроки пишут код и работают над сложными проектами, это незаменимая вещь. Я для личного использования делал с помощью o1-preview несколько приложений с gui. И скажу, что, возможно, эта модель пока не так сильна в плане продумывания различных частей комплексного алгоритма, но она очень полезна, особенно когда надо внести в проект значительные изменения. Например, переписать большие классы или, как в вашем случае, добавить поддержку какой-то технологии или перенести проект/переписать его на другой язык.
В общем, да, вполне может окупиться подписка, если речь идёт о высокооплачиваемых специалистах, каждый час работы которых стоит дорого.
Но я хочу сказать, что модели с открытыми весами вроде qwen 2.5 coder 32b в некоторых сценариях могут составить конкуренцию ChatGPT.
С одной стороны, не хочется обижать автора, с другой... лучше промолчу.
Такое уже было сделано, да. Читал где-то статью (возможно, даже здесь, на Хабре), в которой чел описывал похожую схему. У него ещё был репозиторий на Гитхабе. Короче, там довольно бодро отвечала Эмма Уотсон на русском языке. Задержка буквально секундная, не больше. К сожалению, найти не могу ссылку.
А зачем вы минусите карму? Я понимаю, что вас задевает чужое мнение, но не настолько же.
По поводу "щёлкает как орешки" - а вы попросите найти ошибку в чем-то по-настоящему сложном. Например, проект со сложной криптографией. Я для своих личных нужд кое-что спрашивал у него по этому поводу, а именно - по поводу того, почему не работает корректно мой код на базе CryptoAPI винды. Я подробно, грамотно формулировал запрос, давая модели O1 и исчерпывающие данные, и необходимые наводки, и даже простор для творчества, но мою задачу он не смог решить. С поиском причин неудачной сборки у него пока тоже далеко не идеально - в простых случаях метод "скопировать сообщения компилятора нейросети и спросить, в чем дело" работает, но только в простых.
По моему опыту, пока что до уровня даже миддла O1-preview не дотягивает, как не дотягивают до него даже великолепные модели qwen 2.5 coder 32b и qwen 2.5 70b. Про llama с её 400+ миллиардов параметров я вообще молчу. Ещё не пробовал mistral large 2411, которая вышла на днях, есть надежда, что со сложными задачами в области программирования она будет справляться лучше.
Пока что o1-preview - это как очень хороший джуниор, которого иногда клинит, в результате чего он начинает тупить в элементарнейших моментах.
Но я думаю, что в ближайший год или полтора мы увидим такое развитие генеративного ИИ, что половина профессий начнёт стремительно меняться, потому что ИИ научится рассуждать по-настоящему. И вот тогда встретимся здесь снова и поговорим уже серьёзно))
Если, конечно, ИИ не решит всех прямоходящих обезьян ликвидировать :D
В данных вопросах он, при всем уважении к нему, не является специалистом.
Попробуйте модели семейства qwen 2.5. Они неплохо знают русский язык.
Статья полезная, только не совсем понимаю, почему бы не выбрать более новую модель для дообучения)
Нет, вот тут ошибаетесь вы, ради справедливости. Почитайте статьи этого автора и посмотрите фотографии - там реально варят мосты (но не такие, как какой-нибудь Бруклинский, там небольшие автомобильные/железнодорожные, насколько я понимаю). Так что реально речь в данном случае идёт о сварке конструктивных элементов мостов. И есть даже подробные описания того, как этот мост будет доставляться, устанавливаться и так далее.
https://www.thefabricator.com/thefabricator/article/materialshandling/in-house-bridge-fabrication-taken-to-the-extreme
Вот тут (на этом же сайте, у этого же автора) описано, как варят мосты и доставляют их одним единым куском к месту установки.
Но ни о каком метре стали, конечно же, речи не идёт, 1080 - это марка стали.
Точно не детали диаметром в 1 метр, невозможно современными техническими методами варить детали метрового диаметра за доли секунды. В статьях этого же автора пишется про довольно долгий процесс сварки пролётов моста, у которого конструктивные элементы имеют гораздо меньшее по размеру сечение. И там же он пишет про сварку трансатлантического трубопровода (а труба полая) за несколько минут, что обозначает как выдающийся результат.
Нет, вы ошибаетесь. Речь идёт об эксперименте, и они взяли два прутка из стали 1080, чтобы испытать технологию.
Выражение "1080 steel barstock" обозначает именно сталь. Если бы было написано "5160 steel", вы бы написали, что они варят пятиметровые детали?)))
Если бы они в порядке эксперимента сварили два метровых куска металла, то им бы выдали Нобелевскую премию. Потому что да, в статьях этого автора упоминается производство мостов, но там же упоминается и прогрев гораздо меньших по сечению деталей за несколько часов перед началом процесса, чтобы избежать потерь тепла.
Можно тогда сразу FreeBSD.