All streams
Search
Write a publication
Pull to refresh
230
0.9
ainu @ainu

Пользователь

Send message

Поднять впн или использовать сторонее зеркало гораздо проще чем переезд к другому провайдеру

ChatGPT был выбран именно версии 4о по той причине, что Яндекс и Сбер предоставляют свои продукты бесплатно. Было бы не совсем справедливо сравнивать их нейросети с более продвинутым и платным вариантом - ChatGPT 4.0 turbo.

Цитата с их сайта:

GPT-4 Turbo vs. GPT-4o

GPT-4o has the same high intelligence but is faster, cheaper, and has higher rate limits than GPT-4 Turbo. Specifically:

.....

  • Multilingual: GPT-4o has improved support for non-English languages over GPT-4 Turbo.

Так что наверное наоборот оно всё

Поэтому система ценообразования на программное обеспечение на момент его разработки может быть высокой, но в момент, когда соответствующий разработчик и поставщик уже вернул вложенные инвестиции, цена должна снижаться

Выпустили "Система Ромашка 1.0", продали, прошел год, уже нельзя дорого продавать, переименовали в Роза 1.0, продали, дальше по кругу. Делать Ромашка 1.1 или Ромашка 2 невыгодно.

Кмк, если отказываться от магнитов в пользу "контакты на дощечках с элементами", более логично было бы сделать туда бредбордовые "мамы", в которые втыкать такие вот перемычки:

Во-первых, это проще чем закручивать гайкой, их проще докупить, а в качестве бонуса можно будет вырасти в бредборды и даже микроконтроллеры.

Когда появились фреймворки, программисты занимались тем, что делали низкоуровные чтения тех же параметров запроса. Фреймворки теперь делают эту задачу за них, программисты не уволены, просто подняли уровень абстракции.

Ничего не поменяется, ИИ - это тот же инструмент, и если он позволяет работать со скоростью одного джуна, программист будет просто управлять десятком виртуальных джунов и работать на уровень выше.

Когда то программисты забыли ассемблер (вернее он стал менее популярным в рабочих задачах), затем забыли языки низкого уровня, перейдя на фреймворки, после качественного развития нейронок забудут и языки, перейдя на язык задач. Но работа все равно останется, никуда не денется, как не пропала работа для заводчан с появлением ЧПУ-станков (зато появилась профессия ЧПУ оператора).

Кмк, без носителя языка можно оценить "похожесть" подхода, сделав тот же процесс для русского. Желательно чтобы нарезал тот, кто язык не знает (индус на фрилансе например). И посмотреть уже.

Похоже знание языка все таки нужно. Я немного баловался играми на LÖVE, и делал скриптики на луа простые, но вот тут

game.Players:GetPlayerFromCharacter(hit.Parent)

меня смутило двоеточие.

Хватит насиловать 3.5, дайте ему уже умереть спокойно. Есть куча альтернатив на голову выше, даже локальный ллама 3 (да и доступный онлайн если поискать)

В точку. Совет "Не давайте команде готовые решения" без примера, его поясняющего, может даже навредить. Иначе тимлид может начать играть в угадайку, мол "я помню ту самую либу которая за пять сек решит задачу, но вам ее не скажу, ищите. Первая буква "s", созвучно с названием греческой богини, шесть букв"

Процессор с 64 потоками судя по результатам, более эффективен, чем процессор с 36. Неожиданно.

Вообще-то программа для работы с фотографиями это Adobe Lightroom

В центр надо поместить ядро из свертяжелого антиграфена. Это будет анодом батарейки, которая будет плавать в жидком вакууме. Так как в вакууме нет материи, это защитит антиматерию от разрушения, а так как тёмная материя энергична, сверхбыстрые электроны попадают на натиграфен, но так как это антивещество, и на границах его молекул - позитроны, они падают на них, нейтрализуют, и остаются свободные ядра, отрицательно заряженные. Электроны из темной материи тут же отодвигаются в сторону чугуния, там мы и ловим их и получаем электричество.

Хабр — торт

которая превосходит Claude 3 Opus... и дышит в спину GPT-4

Это не совсем так (вернее совсем не так). К тому же это GPT-4 дышит в спину Опусу.

Вот так выглядело с F16 версией. Примерно 4-6 секунд на один токен уходило.

По поводу сравнения с mixtral, я запускал, ещё раз, 16бит и Q8_0, и обе работают на голову выше по качеству, чем mixtral/mistral, просто несравненно лучше.
16 гигабайт не хватит, возможно какие то сильно квантованные может и влезут, но надо понимать, что такого рода чудес не бывает, как бы сила модели в количестве и точности связей.

То же самое делает ML studio, можно даже указать, какой процент видеопамяти мы готовы дать.

На полной версии gguf без квантования (вернее 16 bit, вроде как не квантованная) у меня запустилось на 12 гигабайт видео + 96 обычной ОЗУ, лагало но работало, всё сожралось в пол.
На квантованной влезло в 46 гигабайт:

:
:

Information

Rating
1,719-th
Date of birth
Registered
Activity