All streams
Search
Write a publication
Pull to refresh
3
0
Ярослав Постовалов @CommanderTvis

Compiler Engineer

Send message

Не знаю, что такое бандлер, но у NPM и CocoaPods версия тула имеет куда меньше значение, потому что проект определяется джесончик-конфигурацией, а не целым языком программирования. Пожалуй, это скорее минус градла, но это не повод безосновательно отвергать стандартный для экосистемы инструмент, то есть Gradle Wrapper.

Gradle Wrapper в принципе нужен именно для этого. Вот, например, такое окружение, где не стоит Gradle https://hub.docker.com/_/openjdk. Опять же, это еще и неудобно в плане синхронизации версии Gradle - если надо будет всем и везде ставить общую версию Gradle. А если в разных проектов у одного разработчика используются несовместимые версии Gradle - тут вообще мама не горюй.

Э-эм, gradle wrapper в репе - это абсолютный стандарт, если вам нужно запускать его на CI, где есть только JDK, а не стоит user-wide Gradle.

LLaMa-65B на макбуке запускают спокойно.

Повернуть вектор с таких очевидных джинновских уловок довольно легко всего за пару лет работы. Проблема в том, что это только в мире розовых пони в принципе кто-то попытается поставить цель ИИ обеспечить счастье всем и чтоб никто не ушел обиженный. Видели, что в твиттере уже пробуют использовать GPT для максимизации гешефта со $ 100?

Как только вы, уважаемый, предложите
0. Как построить коннектом, не разбирая мозг по кусочкам
1. Более эффективный коннектом, чем мой
2. Как изменить мой мозг, чтобы он соответствовал пункту (1)
… ваше утверждение станет доказанным.

Как наивно. Последнее, что будут делать владельцы моделей интеллекта, - так это организовывать всеобщее благосостояние. Скорее наоборот - крайнюю степень неравенства, где 99.8% размечают картинки за $ 2 в час, 0.19% обслуживают ИИ, 0.01% пожинают плоды его работы.

Десятки не сотни.

когда люди будут уходить из реального мира общения с далеко не идеальными людьми в мир общения с ИИ, который будет максимально комфортный, приятный и ЛЮБИМЫЙ ими. Вот это немного страшно.

Ну, я в какой-то мере уйду, только когда языковая модель будет инфериться на моем оборудовании. Пока что LLaMa к этому ближе всего, но по качеству она зело уступает GPT-3.5, что б там не говорили.

Ладно, должен признать, что вы правы.
<spoiler>

Действительно, он даже морозится сказать что-то хорошее о Трампе

</spoiler>

По-моему, неплохо.

Там есть вот такая виза https://www.make-it-in-germany.com/en/visa-residence/types/other/it-specialists, работает с что-то типа трех лет опыта вместо четырехлетнего бакалавриата.

Да. Если бы для каждого вызова интринсика приходилось уходить в safe point, то это было бы больно.

Ну смотрите. Байт-код можно либо интепретировать, либо компилировать в платформенный код. В обоих случаях мы можем вместо какого-то метода JVM вызвать просто какую-нибудь функцию самой JVM, чем и являются интринсики.

Ну а JNI - это сложнейший комбайн, который поддерживает потокобезопасность, открывает во внешний мир API JVM и делает еще кучу вещей, необходимых для стабильного FFI.

Ну нет же, JNI тут ни при чем. Современные JVM содержат интринсики для методов рефлексии. Например, вот так обрабатываются методы типа java.lang.Class.isInterface:
https://github.com/openjdk/jdk/blob/master/src/hotspot/share/opto/library_call.cpp#L3565

Должен отметить, что PHP (с 5.3 вроде) тоже использует сборку мусора.

Я одного не понимаю: неужели троллинг про перформанс джавы воскрес?

2

Information

Rating
Does not participate
Date of birth
Registered
Activity