Обновить
0
0
Дмитрий @CodARM

Пользователь

Отправить сообщение

Думаю 9 из 10 генераций — бред

Но тут ситуация как с электрочайником в котором 2 литра воды, потом вскипятили утром, забыли о нем, и еще раз вскипятили вечером... Да неэффективно, но что ж поделать

Это что-то вроде демо сцены на zx spectrum, человек заморочился и максимально(в данном случае хорошо) оптимизировал код и нашел метод взаимодействия с устройством.

У меня такие новости обычно вызывают эмоцию "Вот это да, одноразовые лампочки уже настолько мощные?!"

А так, и картины великих художников являются посмешищем на фоне современных возможностей фотопечати, но их смысл не в том, что сейчас их повторит выпускник почти каждого картинного ПТУ. Смысл в том, что технологии и скилы растут, и это классно! Сейчас можно делать на лампочке то, что 30 лет назад казалось невозможным на домашнем ПК

Никто не сможет его разобрать и создать своего. Главное препятствие, ПО нет и, в ближайшие пару лет, не предвещается.

А главное препятствие в применении человеков — человеки любят болеть, им нужны социальные права и выплаты, а так же заставить человеков работать более 12 часов в день без выходных — нельзя, ибо более менее квалифицированный человек, если не увольняется, то начинает работать очень плохо.

Звучит здраво, ровно до той секунды, как не понимаешь что "мертвый" интернет вредит рекламным доходам и продаже персональных данных, а живой легче монетизировать...

Для запуска одного инстанса chatgpt, даже с триллионом параметров, достаточно одной стойки и ~5-10киловатт электроэнергии. С развитием технологий, готов поспорить, можно все уместить в 3-5 и интегрировать в машину связи, сделав автономный разведывательный пункт с p2p сетью и децентрализованной обработкой данных...

В общем, дата центр, в войне будущего, конечно хорошая вещь, но можно и без него обойтись

Добрый день! Изучил статью и не увидел оборотной стороны монеты. В целом согласен, без нюансов выглядит как серебряная пуля для любого проекта, но давайте пройдёмся по большими НО. В вашей статье было приведены только примитивные примеры, разработчик без админа, helm, "выглядящий как магия", самолёт с "магией" внутри, всё это интересно только если у вас есть чёткий и маленький сервис, или постоянно меняющаяся инфра вроде хостинга или мини инфра из нескольких десятков сервисов. В моей практике, даже при росте компании, нормально работающие сервисы не отваливаются, при прохождении чек-листа по развертыванию сервиса раз 10, у меня остаётся только мелкие доработки и документирование сервисов. Kuber -- это про изменчивость и то, где нужно много ресурсов для множества малых проектов.
К примеру, сборка и тестовый деплой проекта. Данные процедуры, если автоматизировать, то займут вместе с тестами, тонну процессорного времени(и денег за ресурсы), что явно говорит о том что нужно выносить тестовую инфру на локальный сервер для тестирования и получения бОльшего контроля. Если брать другие варианты, то требуется развертывание своего kuber кластера или платить KaaS провайдеру бешеные деньги за смещение кнопочки на 2-3 пикселя и нормальный довод бекенда для этой же кнопки. При росте проекта у вас появляется потребность в дорогих специалистах по развёртыванию кубера, не забываем про ИБ, настройку сетей и безопасного взаимодействия с кластерами. Накидывается столько нюансов, что, к примеру, в своей структуре я больше склоняюсь к ansimble и стандартную виртуализацию, чем затаскивания файлообменника и условного гита, а так же БД в кубер.
Не стоит забывать и о важной проблеме кубера, он хорош ровно до того момента как не развалится. Малые команды смогут восстановить ~10 сервисов в кубере, но вот когда сервисов становится 50-100, и случилась большая беда, то могу только гадать как этот зоопарк поднимать.

Возможно дело в ОС/железе, которое не менялось много лет, а не в anydesk

Но в одном случае может быть более крутая экспонента, а во втором более пологая

Добрый день, работал на госах, и когда у нас упали все it системы(из-за вышестоящего министерства), то все просто вернулись в начало 2000х по рабочим процессам. У меня от удивления глаза на лоб полезли.

Как вы решаете проблематику возможного "падения" всей it инфраструктуры, например через 5-10 лет, когда ваши системы станут неотъемлемой частью производственного процесса? Может у вас есть legacy инструкции, или вы как-то подготовили резервный план? Работяги старой закалки не всегда смогут охладить по старому

Возражу, libreoffice рендрит весь документ за раз, microsoft только часть документа. Разница в скорости разительная.

Не думаю что он оптимален(не путать с "не подходит") для 120b, ибо он запускается в режиме fp4, а 8060s может нормально ускорить только fp8. Когда аналогичная машинка будет с RDNA4, тогда он действительно покажет всю свою мощность.

Не легче запустить ии в рабочие часы что-бы он сам рисовал таски?.. Пока технологии еще слабоватоы, но мне видится что условная грепалка и обрабатывалка раз в час-сутки может сама вести таск трекинг

Спасибо за хорошую статью и коментарии к ней! Сейчас сам в процессе ввода таск трекера, Редмайн.

Жля себя и остальных было введено правило, тикеты создаются для описания изменения текущих систем, а не для мелких танков. Дополнительно приходится следить что'б писали по делу, а то есть 2 крайности по задачам, гайд "как нарисовать сову" и когда человек начинает показывать свой писательский талант.

Это и есть квантованая версия, как я вижу все модели работают в режиме fp4 ниже их округлять, имхо, не имеет смысла

Не только пахнет, но и выглядит как докер, а еще, судя по последней команде в статье, еще и тянется напрямую с серверов докера...

Но если они смогут интегрировать докер контейнер в систему с графическим интерфейсом, быстрым пробросом графической строки и, главное, графическим ускорением, то я только за

Похоже ставка на непредвзятость и минимум цензуры by design дала свои плоды

Ради интереса, а они на Астра линукс заводятся из коробки? Или приходиться танцевать с бубном?

Дьявол кроется в деталях, новые легкие игры, например условные mmorpg и патчи к csgo, а так же всякие консольные порты, которые сейчас идут на gtx 1070, через пару патчей без оптимизаций превратятся из игры которая спокойно будет работать в стабильных 30-40fps с апскейлом FSR 720р>1080р в игру которая в тех же условиях даёт 25 рваных FPS. Даже базовая оптимизация играет роль. Как пример, попробуйте свежую игру alters на драйверах с поддержкой игры и без. На моей 7900xtx эта разница между рваными 60fps в qhd(в простонародье 2к) на высоких и 4к на ультрах. Утилизация в обоих случаях 70%

Это не хорошо ни плохо, старушкам давно пора на покой. Но заявлять то что это ни на что не влияет в корне не верно.

Чую я никогда не напишу статью, итак:
В серверном конфиге
auth-user-pass-verify %patch%/2fa.sh via-env
В самом конфиге:
SECRET_CODE=$(head -n 1 %patch_to_secret_code_folder%/${username})

ALLOWED_PASS=$(oathtool --totp --base32 $SECRET_CODE)

if [ "$password" == "$ALLOWED_PASS" ]

Обвязка сложнее, также в самом скрипте доп проверки

Сразу в голове сплыл сценарий использования:

Демо рендр в 480р на 3090, и на ночь отправить генерировать по тому же промту на ai max в 4 экземплярах

Если брать задачи где не требуется ответ здесь и сейчас, вроде генерация изображений или автоматическая сборка сайтов, написание статей для автоматической генерации контента на сайтах, то вполне приемлемый вариант

Жаль нет тестов этой коробки в реальных задачах, выглядит как мечта

1
23 ...

Информация

В рейтинге
5 660-й
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность