привет. у меня тут пару вопрос возникло. отпишите вообще мысли. Может кому еще полезно будет.
Как будет работать дедупликация файлов. Например, если надо перенести с обычного хранилища s3 на s4core. Прямым копирование бакетов не получиться перенести?
Что будет например volume - будет битый сектор на диске. Потеря всего или потеря только части?
Как будет работать дедупликация на кластере?
Потоковая отдача - куча параллельных потоков читают большой файл например в 5 гб. RustFs в тестах приводил файлы по 4кб) На деле таких файлов мало. Больше интересна скорость отдачи больших. Может сейчас, пока не известно еще) Но в целом, какие мысли? Спасибо.
Тут основная мысль - до 50 млн токенов в день. Похоже ребята просто решили создать искусственный спрос, как это постоянно нвидиа делает. Не юзает особо никто сервера на фул, да и не нужно это. Работать агент на любой модели может вопрос только в том как) наверно не так просто делают агентские модели ибо обычные не вывозят. Не ну реально, автор claw хайпанул так хайпанул лабуба 2.0. ща ещё наши подтянуться вроде Сбера . Установи клав на гигачат и получи 💯 спасибо
Привет, так я про обычные модели.. без квантования, дисциляции и тд. Модель с меньшими параметрами не будет работать как обычная большая. Ну те по тестам все равно выигрывает самая здоровая. Если брать 27b, то вроде у нее относительно небольшие просадки по всем параметрам относительно других, но до большой она все равно не дотягивает потери есть
Пусть систему сжатия сделает что б модели которые жрут 1тб vram влезали как в старые добрые 80кб ) ну или на худой конец 10 гб( я ща про полные модели ).. вот это точно нужная годнота
Надо, просто в проект привлечь пару умных людей. Кто шарить хорошо за распределенные хранилища - если делаешь что-то новое, то надо у других разрабов узнать, почему они этого делать не стали(как минимум собрать пару умных вопросов и отправить разрабам всех известных систем хранения, может кто ответит, это отсылка к верхним комментариям по форматам). Идея то на самом деле хорошая (импортозамещение и тд). Но учиться яп на таких системах врятли стоит - а то получиться как у cloudflare, когда в один день лягут все кластеры после обновления). В таких системах - не спец, вам только можно пожелать силы воли и духа допилить эту систему все до рабочего состояния)
Про rustfs . Я сначало тоже как увидел побежал смотреть что это по описание все круто. А на деле оказалось , что куча багов . Программа даже в single node криво работает. И каждый новый выпуск ломает что-то что раньше работало. Парни активной вайбят. Поэтому решил пока задержаться на minio. Покрацне мере все что заявлено пашет. Единственное что сделал обновил go до последней версии потому, что там типа ускорили сборщик мусора - х3 как на деле это будет пахать. У вас мне кажется такая же шляпа будет нельзя просто взять и написать аналог программы которую писали 10 лет) может конечно я ошибаюсь, но самое оптимальное на мой взгляд это просто перенести код минио на раст без изменения архитектуры - большая вероятность того, что все будет работать как надо. Ps вы рано начади думать о том, что будет в Enterprise,а что нет. Поясню - ранние ограничение на возможности лишает вас потенциальной базы тестеров - именно тех людей и компаний с большими объемами, те потенциальных покупателей. А если пойдут баги скажем по безопасности и хранению у корпоративных клиентов, то все считай на продукте черная метка ). Одно дело когда бесплатно , а другое когда за 💸)
что между ними ? работодателю вообще должно быть пофигу что использует программист, главное чтобы задачи решались. У человека должность мидла была - это означает что все требования к коду ему должны были спустить сверху. В чем проблема-то? код или работает или нет. если что-то не нравиться можно было взять на тестовый срок за меньшие деньги. как многие пишут, что вкатуны сейчас хорошо проходят собесы и тд, а потом пишут г - скажите спасибо вашим хр. непонимаю в чем криминал - не понравился прогер за забором еще вагон и маленькая тележка, выбирай - нехочу.
У питона сейчас застой, ничего не выходит хорошего с вау эффектом. Ts заметно потеснил яп с быстрой разработкой - экосистема намного лучше. Язык обновляется но не так быстро как надо. По сути питон сейчас между пхп 5.6 и 7.0. давненько я думал что он самый крутой яп какой есть в плане просто и быстро и с годами уже стал замечать что он движется куда то не туда. Если убрать ии, то по сути сейчас питон больше как lua в мире гемдева ( некая прослойка для расширений ). Сервера яп не вывез, кроссплатформу тоже, мобильная разработка вообще где то далеко. Если брать тот же пхп и ларавел, они там много чего напридумали хорошего, а у питона такого нет. Те все держится на старых деревянных библиотеках и прям есть четкое понимание что как только появятся альтернативы, а они появятся то пользователи благополучно свалят на то, что побыстрее и удобнее. Те питон станет просто академическим языком ( уже) но просто не будет широко использоваться в проде , как бейсик но опять же это если не сделают нормальные потоки, jit, нормальный пакетный менеджер без конфликтов со сборкой и быстрый), нормальную сборку по типу го или не выйдет какой то другой другой тулзы которая войдёт в масс рынок аля openclaw.
Привет. А приложение умеет поднимать прокси или просто перенаправляет трафик используя правила ? В последнее стал замечать что начали резать протоколы по скорости некоторые, а некоторые вообще отваливаются. Может есть что интересное в виде транспорта, а то похоже даже v**ss прикрыли - вроде работает, но скорость постоянно подает.
Не ну собственно ничего нового. Никто не хочет платить и поддерживать свободное программное обеспечение кроме самих авторов. Тут статья больше не про ИИ, а про судьбу одинакового разработчика в мире корпораций. Не очень давно я глянул сколько задонатили разрабу vless, казалось бы полинтернета юзает - наверно денег куча, все оказалось намного печальней. Другие свободные проекты переходили на платную модель доставки, но и она не особо окупает проект - те соло-разработчик с этих денег жить не сможет - только у нас в РФ и то очень бедно. Многие сейчас перешли на модели пилим пока сырое на гитхабе, а дальше меняем лицензию и в платные сборки и поддержку - в принципе это оптимальное решение когда и тестеры бесплатно и заработок есть. По текущим реалиям годного опенсорса прям вообще нет- есть крутые проекты с надеждой) прям есть вообще ниши где все держится реально на одном проекте - остальное только за деньги. Кстати, а сейчас последняя тенденция это платформенные войны многие проекты переходят с гитхабе как в свое время после покупки МС в надежде спастись от ИИ., но вот я думаю что мешает корпорациям просто брать и копировать код с других платформ. Так что мир потихоньку сходит с ума:) даже не вспоминаю как наших соотечественников буквально выпнули с нескольких открытых проектов...
Ну наняла и наняла... Мне ВК нравиться , ребята хоть что -то делают типа туннеля, своей UI библиотеки и других вещей для сообщества. Правда в последнее годы кучи апишек поломали. Пхп ща тоже умеет в сервера через reactphp и через nativephp многое другое . Всегда узкое место - это база, канал связи либо тормозная js библиотека (чем больше дом элементов на странице тем выше тормоза). ВК же не трейдинг платформа для которой бы gc был бы критичен.
По мне автор изобрел велосипед который не нужен. Не помнишь команду - зайди в гугл, мануал или спроси chatgpt. Сам грешу таким же правда с ffmpeg и прочими консольными монстрами. Плюс очевидно есть время подумать, не сломает бездумное выполнение команды что-то тем более что агенты иногда ошибаются даже с командами приложений, особенно если в новой версии тулзы вырезали какие то опции или добавили что-то. Такое часто бывает. А без рук, она все равно ниче не напишет.
хм.. а разьве в таком случае нет гарантий, что он напишет это криво? я просто смотрел несколько реализаций одной и той же системы. у разраба который сам писал вручную со строгой типизацией качество работы на порядок лучше . агент видит все структуру правильно. а у тех кто пытался это сделать на нейронках или вручную,то тулзы постоянно баги шлют... те доверять писать интеграции нейросетям это такое дело..нейросеть не может проверит версию приложения если гуй например, не сможет вообще понять саму бизнес логику - в каком порядке вызывать инструменты. там же еще примеры писать надо.. плюс ии может глюкнуть и дебажить одну и туже ошибку до бесконечности, если например информации нет...
Знаете я что заметил. Нейронки не в состоянии выбрать сами правильную архитектуру и алгоритм пока их не пнешь. Те если у вас есть чувствительные данные, а вы вообще не бум-бум в коде, то получите кучи проблем в безопасности и плавающие баги, которые ох как тяжело ловить... Причем здесь есть вероятность что нейронка подшаманит уже правильный код и в итоге через пару десятков итераций у вас вылезет ошибка в том месте, где раньше все было ок.смотрю периодически на гитхабе стали появляться проекты, написанные с помощью агентов либо полностью либо частично - ну прям что баги исчезли не заметил наоборот, каждый пилит на чем попала в итоге баги от клода рушат, от кодекса, от гемени в один проект и в итоге вываливаются ошибки которых до этого не было. Так тоже можно работать, но для этого надо делать тестов куча а тесты лучше писать руками , чтобы точно знать что должно быть на выходе и под каждый коммит делать ревью кода. Вот в принципе такое наблюдение ...
Спасибо , люблю такие статьи, где сложные вещи описывают простыми словами. Побольше бы таких статей на хабре с примерами :) помню раньше все типа соревновались кто круче игру напишет с меньшим размером - теперь новая тенденция как заставить ллм делать крутые штуки не таща за собой целый датацентр. Хотя последнее получается не особо хорошо - ресурсы жрут как не в себя...
Ну компилятор ещё сырой. А насчёт отзывчивости - мне кажется это не про реакт, надо брать другое если нужны быстрые интерфейсы. А некоторые это не понимают и продолжают из черепахи делать страуса ) особенно что касается интерфейсов чатов - зайдите на топ сайтов по ии и вы увидите один и тот же тормоз везде. Стек сами догадаетесь какой? Поэтому думаю, что проблемы тут архитектурные и в совокупности с кривыми руками дают ещё больше веселья. Пока этот компилятор не научился все переводить в чистый ванильный js, при этом убитая все узкие места реакта смысла его юзать особо нет. Тем более есть же другие ускорители)
Ещё мы модели столько не весили как по размеру так и по памяти была бы вообще сказка . Клод реально творит чудеса с C. Сам недавно столкнулся с проблемой адаптации одной программы под новые версии библиотек - клод смог пофиксить свежий форк, дописать новые патчи и даже пофиксить баг в изначальном проекте, который скопировали все другие разрабы. Реально, у меня это вызывает больше страх, чем удивление. Агенты генерят тонны кода на проверки которого ушли бы годы. Чего только стоит последний компилятор япа написанный с нуля....
привет. у меня тут пару вопрос возникло. отпишите вообще мысли. Может кому еще полезно будет.
Как будет работать дедупликация файлов. Например, если надо перенести с обычного хранилища s3 на s4core. Прямым копирование бакетов не получиться перенести?
Что будет например volume - будет битый сектор на диске. Потеря всего или потеря только части?
Как будет работать дедупликация на кластере?
Потоковая отдача - куча параллельных потоков читают большой файл например в 5 гб. RustFs в тестах приводил файлы по 4кб) На деле таких файлов мало. Больше интересна скорость отдачи больших. Может сейчас, пока не известно еще) Но в целом, какие мысли? Спасибо.
Тут основная мысль - до 50 млн токенов в день.
Похоже ребята просто решили создать искусственный спрос, как это постоянно нвидиа делает. Не юзает особо никто сервера на фул, да и не нужно это.
Работать агент на любой модели может вопрос только в том как) наверно не так просто делают агентские модели ибо обычные не вывозят.
Не ну реально, автор claw хайпанул так хайпанул лабуба 2.0. ща ещё наши подтянуться вроде Сбера . Установи клав на гигачат и получи 💯 спасибо
Привет, так я про обычные модели.. без квантования, дисциляции и тд. Модель с меньшими параметрами не будет работать как обычная большая. Ну те по тестам все равно выигрывает самая здоровая. Если брать 27b, то вроде у нее относительно небольшие просадки по всем параметрам относительно других, но до большой она все равно не дотягивает потери есть
Пусть систему сжатия сделает что б модели которые жрут 1тб vram влезали как в старые добрые 80кб ) ну или на худой конец 10 гб( я ща про полные модели ).. вот это точно нужная годнота
Надо, просто в проект привлечь пару умных людей. Кто шарить хорошо за распределенные хранилища - если делаешь что-то новое, то надо у других разрабов узнать, почему они этого делать не стали(как минимум собрать пару умных вопросов и отправить разрабам всех известных систем хранения, может кто ответит, это отсылка к верхним комментариям по форматам). Идея то на самом деле хорошая (импортозамещение и тд). Но учиться яп на таких системах врятли стоит - а то получиться как у cloudflare, когда в один день лягут все кластеры после обновления).
В таких системах - не спец, вам только можно пожелать силы воли и духа допилить эту систему все до рабочего состояния)
Про rustfs . Я сначало тоже как увидел побежал смотреть что это по описание все круто. А на деле оказалось , что куча багов . Программа даже в single node криво работает. И каждый новый выпуск ломает что-то что раньше работало. Парни активной вайбят. Поэтому решил пока задержаться на minio. Покрацне мере все что заявлено пашет. Единственное что сделал обновил go до последней версии потому, что там типа ускорили сборщик мусора - х3 как на деле это будет пахать.
У вас мне кажется такая же шляпа будет нельзя просто взять и написать аналог программы которую писали 10 лет) может конечно я ошибаюсь, но самое оптимальное на мой взгляд это просто перенести код минио на раст без изменения архитектуры - большая вероятность того, что все будет работать как надо.
Ps вы рано начади думать о том, что будет в Enterprise,а что нет. Поясню - ранние ограничение на возможности лишает вас потенциальной базы тестеров - именно тех людей и компаний с большими объемами, те потенциальных покупателей. А если пойдут баги скажем по безопасности и хранению у корпоративных клиентов, то все считай на продукте черная метка ). Одно дело когда бесплатно , а другое когда за 💸)
Поставьте 1с и смотрите остатки на складах бесплатно )
что между ними ? работодателю вообще должно быть пофигу что использует программист, главное чтобы задачи решались. У человека должность мидла была - это означает что все требования к коду ему должны были спустить сверху. В чем проблема-то? код или работает или нет. если что-то не нравиться можно было взять на тестовый срок за меньшие деньги. как многие пишут, что вкатуны сейчас хорошо проходят собесы и тд, а потом пишут г - скажите спасибо вашим хр. непонимаю в чем криминал - не понравился прогер за забором еще вагон и маленькая тележка, выбирай - нехочу.
Человеку платят 300к, а он падонок chatgpt юзает 😁
У питона сейчас застой, ничего не выходит хорошего с вау эффектом. Ts заметно потеснил яп с быстрой разработкой - экосистема намного лучше. Язык обновляется но не так быстро как надо. По сути питон сейчас между пхп 5.6 и 7.0. давненько я думал что он самый крутой яп какой есть в плане просто и быстро и с годами уже стал замечать что он движется куда то не туда. Если убрать ии, то по сути сейчас питон больше как lua в мире гемдева ( некая прослойка для расширений ). Сервера яп не вывез, кроссплатформу тоже, мобильная разработка вообще где то далеко. Если брать тот же пхп и ларавел, они там много чего напридумали хорошего, а у питона такого нет. Те все держится на старых деревянных библиотеках и прям есть четкое понимание что как только появятся альтернативы, а они появятся то пользователи благополучно свалят на то, что побыстрее и удобнее. Те питон станет просто академическим языком ( уже) но просто не будет широко использоваться в проде , как бейсик но опять же это если не сделают нормальные потоки, jit, нормальный пакетный менеджер без конфликтов со сборкой и быстрый), нормальную сборку по типу го или не выйдет какой то другой другой тулзы которая войдёт в масс рынок аля openclaw.
Привет. А приложение умеет поднимать прокси или просто перенаправляет трафик используя правила ? В последнее стал замечать что начали резать протоколы по скорости некоторые, а некоторые вообще отваливаются. Может есть что интересное в виде транспорта, а то похоже даже v**ss прикрыли - вроде работает, но скорость постоянно подает.
Не ну собственно ничего нового. Никто не хочет платить и поддерживать свободное программное обеспечение кроме самих авторов. Тут статья больше не про ИИ, а про судьбу одинакового разработчика в мире корпораций. Не очень давно я глянул сколько задонатили разрабу vless, казалось бы полинтернета юзает - наверно денег куча, все оказалось намного печальней. Другие свободные проекты переходили на платную модель доставки, но и она не особо окупает проект - те соло-разработчик с этих денег жить не сможет - только у нас в РФ и то очень бедно. Многие сейчас перешли на модели пилим пока сырое на гитхабе, а дальше меняем лицензию и в платные сборки и поддержку - в принципе это оптимальное решение когда и тестеры бесплатно и заработок есть.
По текущим реалиям годного опенсорса прям вообще нет- есть крутые проекты с надеждой) прям есть вообще ниши где все держится реально на одном проекте - остальное только за деньги.
Кстати, а сейчас последняя тенденция это платформенные войны многие проекты переходят с гитхабе как в свое время после покупки МС в надежде спастись от ИИ., но вот я думаю что мешает корпорациям просто брать и копировать код с других платформ. Так что мир потихоньку сходит с ума:) даже не вспоминаю как наших соотечественников буквально выпнули с нескольких открытых проектов...
Ну наняла и наняла... Мне ВК нравиться , ребята хоть что -то делают типа туннеля, своей UI библиотеки и других вещей для сообщества. Правда в последнее годы кучи апишек поломали. Пхп ща тоже умеет в сервера через reactphp и через nativephp многое другое . Всегда узкое место - это база, канал связи либо тормозная js библиотека (чем больше дом элементов на странице тем выше тормоза). ВК же не трейдинг платформа для которой бы gc был бы критичен.
По мне автор изобрел велосипед который не нужен. Не помнишь команду - зайди в гугл, мануал или спроси chatgpt. Сам грешу таким же правда с ffmpeg и прочими консольными монстрами. Плюс очевидно есть время подумать, не сломает бездумное выполнение команды что-то тем более что агенты иногда ошибаются даже с командами приложений, особенно если в новой версии тулзы вырезали какие то опции или добавили что-то. Такое часто бывает. А без рук, она все равно ниче не напишет.
хм.. а разьве в таком случае нет гарантий, что он напишет это криво? я просто смотрел несколько реализаций одной и той же системы. у разраба который сам писал вручную со строгой типизацией качество работы на порядок лучше . агент видит все структуру правильно. а у тех кто пытался это сделать на нейронках или вручную,то тулзы постоянно баги шлют... те доверять писать интеграции нейросетям это такое дело..нейросеть не может проверит версию приложения если гуй например, не сможет вообще понять саму бизнес логику - в каком порядке вызывать инструменты. там же еще примеры писать надо.. плюс ии может глюкнуть и дебажить одну и туже ошибку до бесконечности, если например информации нет...
Можете мне объяснить в чем весь хайп этого приложения, чел просто подключил несколько mcp к агенту и все ? Что здесь прорывного то ?
Знаете я что заметил. Нейронки не в состоянии выбрать сами правильную архитектуру и алгоритм пока их не пнешь. Те если у вас есть чувствительные данные, а вы вообще не бум-бум в коде, то получите кучи проблем в безопасности и плавающие баги, которые ох как тяжело ловить... Причем здесь есть вероятность что нейронка подшаманит уже правильный код и в итоге через пару десятков итераций у вас вылезет ошибка в том месте, где раньше все было ок.смотрю периодически на гитхабе стали появляться проекты, написанные с помощью агентов либо полностью либо частично - ну прям что баги исчезли не заметил наоборот, каждый пилит на чем попала в итоге баги от клода рушат, от кодекса, от гемени в один проект и в итоге вываливаются ошибки которых до этого не было. Так тоже можно работать, но для этого надо делать тестов куча а тесты лучше писать руками , чтобы точно знать что должно быть на выходе и под каждый коммит делать ревью кода. Вот в принципе такое наблюдение ...
Спасибо , люблю такие статьи, где сложные вещи описывают простыми словами. Побольше бы таких статей на хабре с примерами :) помню раньше все типа соревновались кто круче игру напишет с меньшим размером - теперь новая тенденция как заставить ллм делать крутые штуки не таща за собой целый датацентр. Хотя последнее получается не особо хорошо - ресурсы жрут как не в себя...
Ну компилятор ещё сырой. А насчёт отзывчивости - мне кажется это не про реакт, надо брать другое если нужны быстрые интерфейсы. А некоторые это не понимают и продолжают из черепахи делать страуса ) особенно что касается интерфейсов чатов - зайдите на топ сайтов по ии и вы увидите один и тот же тормоз везде. Стек сами догадаетесь какой? Поэтому думаю, что проблемы тут архитектурные и в совокупности с кривыми руками дают ещё больше веселья. Пока этот компилятор не научился все переводить в чистый ванильный js, при этом убитая все узкие места реакта смысла его юзать особо нет. Тем более есть же другие ускорители)
Ещё мы модели столько не весили как по размеру так и по памяти была бы вообще сказка . Клод реально творит чудеса с C. Сам недавно столкнулся с проблемой адаптации одной программы под новые версии библиотек - клод смог пофиксить свежий форк, дописать новые патчи и даже пофиксить баг в изначальном проекте, который скопировали все другие разрабы. Реально, у меня это вызывает больше страх, чем удивление. Агенты генерят тонны кода на проверки которого ушли бы годы. Чего только стоит последний компилятор япа написанный с нуля....