Не знаю, что такое бандлер, но у NPM и CocoaPods версия тула имеет куда меньше значение, потому что проект определяется джесончик-конфигурацией, а не целым языком программирования. Пожалуй, это скорее минус градла, но это не повод безосновательно отвергать стандартный для экосистемы инструмент, то есть Gradle Wrapper.
Gradle Wrapper в принципе нужен именно для этого. Вот, например, такое окружение, где не стоит Gradle https://hub.docker.com/_/openjdk. Опять же, это еще и неудобно в плане синхронизации версии Gradle - если надо будет всем и везде ставить общую версию Gradle. А если в разных проектов у одного разработчика используются несовместимые версии Gradle - тут вообще мама не горюй.
Повернуть вектор с таких очевидных джинновских уловок довольно легко всего за пару лет работы. Проблема в том, что это только в мире розовых пони в принципе кто-то попытается поставить цель ИИ обеспечить счастье всем и чтоб никто не ушел обиженный. Видели, что в твиттере уже пробуют использовать GPT для максимизации гешефта со $ 100?
Как только вы, уважаемый, предложите 0. Как построить коннектом, не разбирая мозг по кусочкам 1. Более эффективный коннектом, чем мой 2. Как изменить мой мозг, чтобы он соответствовал пункту (1) … ваше утверждение станет доказанным.
Как наивно. Последнее, что будут делать владельцы моделей интеллекта, - так это организовывать всеобщее благосостояние. Скорее наоборот - крайнюю степень неравенства, где 99.8% размечают картинки за $ 2 в час, 0.19% обслуживают ИИ, 0.01% пожинают плоды его работы.
когда люди будут уходить из реального мира общения с далеко не идеальными людьми в мир общения с ИИ, который будет максимально комфортный, приятный и ЛЮБИМЫЙ ими. Вот это немного страшно.
Ну, я в какой-то мере уйду, только когда языковая модель будет инфериться на моем оборудовании. Пока что LLaMa к этому ближе всего, но по качеству она зело уступает GPT-3.5, что б там не говорили.
Ну смотрите. Байт-код можно либо интепретировать, либо компилировать в платформенный код. В обоих случаях мы можем вместо какого-то метода JVM вызвать просто какую-нибудь функцию самой JVM, чем и являются интринсики.
Ну а JNI - это сложнейший комбайн, который поддерживает потокобезопасность, открывает во внешний мир API JVM и делает еще кучу вещей, необходимых для стабильного FFI.
Не знаю, что такое бандлер, но у NPM и CocoaPods версия тула имеет куда меньше значение, потому что проект определяется джесончик-конфигурацией, а не целым языком программирования. Пожалуй, это скорее минус градла, но это не повод безосновательно отвергать стандартный для экосистемы инструмент, то есть Gradle Wrapper.
Gradle Wrapper в принципе нужен именно для этого. Вот, например, такое окружение, где не стоит Gradle https://hub.docker.com/_/openjdk. Опять же, это еще и неудобно в плане синхронизации версии Gradle - если надо будет всем и везде ставить общую версию Gradle. А если в разных проектов у одного разработчика используются несовместимые версии Gradle - тут вообще мама не горюй.
Э-эм, gradle wrapper в репе - это абсолютный стандарт, если вам нужно запускать его на CI, где есть только JDK, а не стоит user-wide Gradle.
LLaMa-65B на макбуке запускают спокойно.
Повернуть вектор с таких очевидных джинновских уловок довольно легко всего за пару лет работы. Проблема в том, что это только в мире розовых пони в принципе кто-то попытается поставить цель ИИ обеспечить счастье всем и чтоб никто не ушел обиженный. Видели, что в твиттере уже пробуют использовать GPT для максимизации гешефта со $ 100?
Как только вы, уважаемый, предложите
0. Как построить коннектом, не разбирая мозг по кусочкам
1. Более эффективный коннектом, чем мой
2. Как изменить мой мозг, чтобы он соответствовал пункту (1)
… ваше утверждение станет доказанным.
Как наивно. Последнее, что будут делать владельцы моделей интеллекта, - так это организовывать всеобщее благосостояние. Скорее наоборот - крайнюю степень неравенства, где 99.8% размечают картинки за $ 2 в час, 0.19% обслуживают ИИ, 0.01% пожинают плоды его работы.
Десятки не сотни.
Ну, я в какой-то мере уйду, только когда языковая модель будет инфериться на моем оборудовании. Пока что LLaMa к этому ближе всего, но по качеству она зело уступает GPT-3.5, что б там не говорили.
Ладно, должен признать, что вы правы.
<spoiler>
Действительно, он даже морозится сказать что-то хорошее о Трампе
</spoiler>
По-моему, неплохо.
Там есть вот такая виза https://www.make-it-in-germany.com/en/visa-residence/types/other/it-specialists, работает с что-то типа трех лет опыта вместо четырехлетнего бакалавриата.
Да. Если бы для каждого вызова интринсика приходилось уходить в safe point, то это было бы больно.
Ну смотрите. Байт-код можно либо интепретировать, либо компилировать в платформенный код. В обоих случаях мы можем вместо какого-то метода JVM вызвать просто какую-нибудь функцию самой JVM, чем и являются интринсики.
Ну а JNI - это сложнейший комбайн, который поддерживает потокобезопасность, открывает во внешний мир API JVM и делает еще кучу вещей, необходимых для стабильного FFI.
Ну нет же, JNI тут ни при чем. Современные JVM содержат интринсики для методов рефлексии. Например, вот так обрабатываются методы типа java.lang.Class.isInterface:
https://github.com/openjdk/jdk/blob/master/src/hotspot/share/opto/library_call.cpp#L3565
Должен отметить, что PHP (с 5.3 вроде) тоже использует сборку мусора.
Я одного не понимаю: неужели троллинг про перформанс джавы воскрес?