Обновить
0
0.3

Пользователь

Отправить сообщение

Модели вроде Topaz Video AI или DaVinci Resolve Neural Engine умеют творить чудеса с апскейлом и удалением шума, но, как и в статье, они делают 80% работы, а остальные 20% это все равно ручная цветокоррекция и чистка артефактов, которые ИИ пропустил или создал сам

Зауважал труд реставраторов. А то мы привыкли получать ремастеры как данность, не задумываясь о том сколько человеко-часов стоит за тем, чтобы убрать царапину с пленки или почистить звук

Neuralink это конечно хорошо, но это все же это далекое будущее, а вот правильное использование ARIA-атрибутов - как раз то, что может улучшить жизнь незрячих уже сегодня. И да, большинство разработчиков либо не знают о них, либо используют неправильно

Интересно было бы увидеть плагин для VS Code, который интегрирует скринридер и LLM, чтобы можно было выделить кусок кода и по хоткею получить его краткое саммари, озвученное синтезатором

Так вот в чем секрет! Чтобы писать код и не отвлекаться на Ютубчик и мемы, нужно просто выключить монитор)

А если серьезно, то заставляет задуматься, сколько визуального мусора мы потребляем в процессе работы, и насколько он на самом деле нужен

Минимизация бесконечных секций будто наоборот указывает на уход от бесполезного конвейера. Надо смотреть, как оно реально будет работать, но то, что технических собесов меньше уже хорошо.

Хороший финал к статье, типа все не зря было, пацаны) Ведь те заезды потом реально пригодились для расчётов под Сапсан, вот это я понимаю история с продолжением

Вот реально круто показано, как топовый проект может оказаться никому не нужным просто потому, что мир поменялся. ТЭП80 сделали под советские длинные составы, а в 90-х всё посыпалось - инженеры то норм, просто время не то. Зато потом смогли из тяжеловоза сделать научный болид - вот где настоящая инженерная смекалка

Пожалуй лучшая похвала для SpaceX) Они превратили запуск самой большой в истории ракеты из уникального события в почти рутину.

Так и выглядит настоящий прогресс

Главное в этих полетах не взрыв в конце, а объем собранной телеметрии - каждый такой тест это гигабайты данных для инженеров. Они итеративно находят и исправляют проблемы

Судя по тому, что S38 вошел в атмосферу гораздо агрессивнее и выжил, работа над ошибками идет успешно

Всегда забавляет это разделение на Li-ion и Li-Po в потребительских статьях

Верно в комментах написали, настоящих литий-полимерных с твердым электролитом в смартфонах почти нет. То что называют Li-Po тот же Li-ion, просто в гибком пакете, а не в жестком металлическом корпусе. Маркетинг победил химию

Это было и будет всегда, поэтому прежде чем заводить питомца, стоит трезво оценить свой бюджет на ближайшие 15-20 лет

Механизм привязанности, опосредованный окситоцином, это древняя эволюционная система, которая работает не только внутри вида, она же отвечает за связь матери и ребенка, друзей, партнеров. То, что она активируется при контакте с другим живым существом вполне нормальная работа биологии, а не "понижение видовой самоидентификации"

Все по сути сводится к одному простому правилу: не навязывайся, кошка сама инициирует контакт - окситоцин растет у обоих. Хватаешь и тискаешь против ее воли - у кошки растет кортизол, а гормон связи падает. Вполне логично

Дело не в самой частоте, а в том что она является индикатором. Возможность релизить часто означает, что у вас маленькие, изолированные изменения, хороший уровень автоматизации и тестирования, это снижает риски. Одна большая выкатка раз в месяц куда опаснее, чем десять маленьких в течение дня

Чтобы показать полный практический пример, пришлось бы написать книгу, причем под конкретный стек) Принципы DevOps универсальны, а вот реализация у всех своя

Про ИИ - красивая футурология, но пока выглядит как маркетинг

Интеллектуальное масштабирование прекрасно, пока этот ИИ не решит "интеллектуально" урезать ресурсы в пик распродажи, потому что принял аномальную нагрузку за DDoS-атаку. Кто потом будет это все разгребать?

Скорее всего, ради автономности, если все расчеты делать в приложении, то кольцу придется постоянно передавать огромный поток сырых данных с датчиков по блютус, а это очень энергозатратно. Гораздо экономнее обработать данные на месте и передавать на телефон уже готовые, сжатые результаты раз в несколько часов

Плюсую, без оценки восстановления на основе ВНС это просто трекер сна, а не полноценный wellness гаджет

Идея с гигачатом как персональным консультантом звучит красиво, но дьявол кроется в деталях - как именно сформулирован промпт? Насколько модель реально учитывает динамику показателей, а не просто комментирует сегодняшние цифры? И главный вопрос - что будет, если совет модели приведет к негативным последствиям для здоровья? Кто понесет ответственность?

Информация

В рейтинге
2 478-й
Зарегистрирован
Активность