Хотя оборудование со временем дешевеет, существуют и другие затраты, такие как электроэнергия и охлаждение. Если не ошибаюсь, один цикл обучения модели GPT-3 потреблял столько же энергии, сколько 130 домохозяйств.
Важное примечание - обучение модели делается 1 раз, после чего система работает с готовой векторной базой, что естественно сильно дешевле и менее энергоемко.
В 2025 году статические сайты вернулись. Не в качестве альтернативы для бедных, а как зрелая архитектура, которая решает 90% задач быстрее, дешевле и безопаснее, чем тяжёлый бэкенд.
Давайте по пунктам: 1) 90%. Откуда эта цифра? От какого маркетолога? На мой дилетантский взгляд программиста с 30+ лет стажа, технология отлично подойдет для википедии, документации и... все? Про лендинги на статике вместо той же тильды можно поспорить, но мне кажется решение на статике дороже в разработке и более нишевое (или нет?). 2) Дешевле. Если рассматривать мелкие проекты, то разница вообще ничтожна и не стоит рассмотрения, а на крупных проектах уже есть нюансы. Если мы говорим об использовании готовых внешних сервисов, то возможно и скорее всего гибкость их будет весьма ограничена и подходит далеко не всем (при стоимости сопоставимой с селфхостинг монолитом на каком-нибудь готовом движке), а при необходимости поднимать собственную инфраструктуру, настроить связку Next.js + Headless CMS + CI/CD инфраструктуру стоит в 3–5 раз дороже, чем развернуть классический монолит, сложность системы сильно выше, серверные ресурсы плюс-минус те же, а спецы на постоянку сильно дороже чем те же пыхеры под ларавел. Короче, в большинстве случаев нифига не дешевле. 3) Быстрее. Да, согласен, это хорошая альтернатива кэшируемым ресурсам, но разве не проще использовать готовые сервисы типа клоудфлейра вместо перехода на пререндер, где мы еще и не теряем большую часть интерактивности, например при использовании в каких-нибудь блогах с комментариями и личным кабинетом? 3) безопаснее. Вынос бэкенда в чей-то облачный сервис снимает с вас ответственность за безопасность бэкенда, в ущерб суверенитету данных, которые теперь не совсем ваши. Зависимость от внешних структур в айти (как практически в любой сфере) - палка о двух концах, в любой момент вы можете потерять доступ/возможность работы с ним. Очень большой пласт айти решений попросту не готов отдавать инфраструктуру в аутсорс. Алсо, мы меняем личные риски на риск утечки у крупного сервиса, что совсем не редкость.
По итогу, выглядит как восторженный маркетинг булшит...
BTW квиз такой себе, будучи активным пользователем с 2011 года в итоге квиз прошел без гугла на 4 из 15, большинство вопросов только рандомно по прикидкам можно оценить без изысканий или изучения вопроса «вглубь». Вопросы больше на интуицию или задротство, типа «назовите имя башмачника Чингисхана»…
у гугла 2 или даже более сервисов(точно могу сказать только о двух — это карты и сервис просмотра картинных галерей и музеев, картин в высоком качестве, Гугл Арт или как то так) используют такой тайловый принцип построения изображений. в принципе достаточно открыть нетворк в консоли браузера и выдрать все куски. склейка в фш или ручками не составляет проблем. с таким же успехом можно в стили прописывать бэкграунд картинки и выключать правый клик на боди, уровень защиты примерно тот же.
Как что, выдавать средства индивидуальной защиты, повышать оплату, больше сосредоточиться на проветривании и уф обработке помещений, сделать смены короче, между ними сан обработка, увеличить перерывы.
Это рискованная работа, в принципе нарушающая правила поведения при пандемии — большая скученность, ни один человек на представленных изображениях не имеет элементарных средств защиты, если это не старые фотки конечно… Если не прекращать работы, так хотя бы максимально снизить риск работников.
Хм, у нас админ нечто подобное под перкону с графаной на мускуле настроил, но там более серьезный анализ, по количеству запросов в сек/мин/час, время выполнения всего/на запрос минимум/максимум/среднее, сортировки по количеству/скорости и много еще чего…
Очень помогло когда оптимизировали сайт под нагрузки.
У меня сын сейчас как раз в вузе и на курсах, с годовых курсов за 3 месяца ушло 80%, из универа, с группы 25 человек, осталось 8 после первого курса. Так что цифры из реальной практики.
Хм, а миллионы бюджета ушли вместе с этой великолепной командой? Звучит как бизнес план...
Важное примечание - обучение модели делается 1 раз, после чего система работает с готовой векторной базой, что естественно сильно дешевле и менее энергоемко.
Некроманитя?
Давайте по пунктам:
1) 90%. Откуда эта цифра? От какого маркетолога? На мой дилетантский взгляд программиста с 30+ лет стажа, технология отлично подойдет для википедии, документации и... все? Про лендинги на статике вместо той же тильды можно поспорить, но мне кажется решение на статике дороже в разработке и более нишевое (или нет?).
2) Дешевле. Если рассматривать мелкие проекты, то разница вообще ничтожна и не стоит рассмотрения, а на крупных проектах уже есть нюансы. Если мы говорим об использовании готовых внешних сервисов, то возможно и скорее всего гибкость их будет весьма ограничена и подходит далеко не всем (при стоимости сопоставимой с селфхостинг монолитом на каком-нибудь готовом движке), а при необходимости поднимать собственную инфраструктуру, настроить связку Next.js + Headless CMS + CI/CD инфраструктуру стоит в 3–5 раз дороже, чем развернуть классический монолит, сложность системы сильно выше, серверные ресурсы плюс-минус те же, а спецы на постоянку сильно дороже чем те же пыхеры под ларавел. Короче, в большинстве случаев нифига не дешевле.
3) Быстрее. Да, согласен, это хорошая альтернатива кэшируемым ресурсам, но разве не проще использовать готовые сервисы типа клоудфлейра вместо перехода на пререндер, где мы еще и не теряем большую часть интерактивности, например при использовании в каких-нибудь блогах с комментариями и личным кабинетом?
3) безопаснее. Вынос бэкенда в чей-то облачный сервис снимает с вас ответственность за безопасность бэкенда, в ущерб суверенитету данных, которые теперь не совсем ваши. Зависимость от внешних структур в айти (как практически в любой сфере) - палка о двух концах, в любой момент вы можете потерять доступ/возможность работы с ним. Очень большой пласт айти решений попросту не готов отдавать инфраструктуру в аутсорс.
Алсо, мы меняем личные риски на риск утечки у крупного сервиса, что совсем не редкость.
По итогу, выглядит как восторженный маркетинг булшит...
Постава постав!
Зашел сюда написать гневный луддистский пасквиль о вытеснении лошадей самоходными повозками, но пока добирался до дома на кэбе, меня опередили...
Это как читать?
Думаю что проблема технологии не в нагреве воды (которая скорее всего примерно так и нагревается), а в малой инсоляции в зимний период.
BTW квиз такой себе, будучи активным пользователем с 2011 года в итоге квиз прошел без гугла на 4 из 15, большинство вопросов только рандомно по прикидкам можно оценить без изысканий или изучения вопроса «вглубь». Вопросы больше на интуицию или задротство, типа «назовите имя башмачника Чингисхана»…
у гугла 2 или даже более сервисов(точно могу сказать только о двух — это карты и сервис просмотра картинных галерей и музеев, картин в высоком качестве, Гугл Арт или как то так) используют такой тайловый принцип построения изображений. в принципе достаточно открыть нетворк в консоли браузера и выдрать все куски. склейка в фш или ручками не составляет проблем. с таким же успехом можно в стили прописывать бэкграунд картинки и выключать правый клик на боди, уровень защиты примерно тот же.
Это рискованная работа, в принципе нарушающая правила поведения при пандемии — большая скученность, ни один человек на представленных изображениях не имеет элементарных средств защиты, если это не старые фотки конечно… Если не прекращать работы, так хотя бы максимально снизить риск работников.
PS: «перипетии» конечно режут глаз ))
устал
палец
на
скролле
,
спасибо за интересную статью. )
Очень помогло когда оптимизировали сайт под нагрузки.