Это ведь всего лишь библиотеки для создания внешнего представления сайта. Для интерфейса. Какая разница, кто их разработчик и где они лежат, если они удобны?
В сайте же (таком, которому стоит бояться "подсадки" на Google) главное вовсе не дизайн и не интерфейс, а содержательная обработка данных, которая крутится на Вашем собственном сервере.
Это разгадают очень быстро через мониторы и firewalls, так как начнут устанавливаться соединения с сайтами, на которые мы не ходим. Да наверняка хакеры просмотрят все пакеты сетевые двести раз и изучат каждый символ в исходниках программ. Найдут что-то - будет скандал, который уничтожит Google. Зачем же Google это нужно?
Да, я полностью согласен с JStingo. Мало того что он всех подсаживает на себя как на наркотик, так может быть и кража технологий, такая совсем не навязчивая... Такими темпами гугл заманит людей во всех аспектах. От офисных приложений до систем управления проектами.
Еще возможны небольшие тормоза при загрузке библиотек у клиента. :)
да замечал... когда жду полной загрузки гугл-аналитик например, говорю абсолютно непредвзято. Одно дело загрузить один маленький гугль-аналитик... а другое дело основную библиотеку jquery, потом jquery-ui-core, потом jquery-ui-resizeble и тд... притормаживание скорее всего будет...
хм. гугл-аналитик загружает кучу данных: картинки, флеш. а когда ты загружаешь один файл размером 30кб (сжатый если), то это все быстро будет. а насчет jQuery UI - я думаю там не будет UI :)
я не про тормоза при работе с интерфейсом гугл-аналитика, а небольшие торможения при загрузки сайта с подключенным кодом гугл-аналитика. И все таки это только мои предположения:)
Проверьте ping у серверов google
google.com - 162ms
google.ru - 76ms
googleapis.com - 151ms
При этом vkontakte.ru -29ms
А мой домен на обычном хостинге 12ms.
Поправьте, есле это не показатель.(Точно не уверен, может только время отклика)
Ну тем хуже для вас :-) Ясно что из Питера в Питер байты будут ходить быстрее чем из Европы или тем более штатов. Тогда неясно откуда 12ms - должно быть 6-8ms...
Пинг только косвенный показатель, он может быть и 1500ms, а скорость загрузки 10 МБ/с. При скачивании больших файлов и при открытии страниц с небольшим количеством картинок пинг практически не влияет на объективное восприятие скорости загрузки, но если страница сайта, например, содержит 50 маленьких картинок и сидит на хостинге с пингом 200-300, то тормоза видны невооружённым взглядом.
По теме - тормозов при загрузке скриптов с сайта googleapis никто не заметит :)
Google - это 50-60ms от Москвы. Увы и ах. Яндекс - 2-3ms. Может им cкооперироваться? Потому как дело важное и полезное, но, увы, в России - не очень быстрое.
Это же просто то, что исполняется на стороне клиента. У Вас что, код на страницах секретный? :) Все, что исполняется на клиенте - это просто МОРДА, какая разница какие библиотеки там исползуются, если они удобны? Стоило бы бояться, если бы обработка данных в back-end Вашего сайта происходила бы на серверах Google.
А что касается JavaScript-ов - то чем быстрее кто-то стандартизирует создание интерфейсной части сайта и абстрагирует нас от всего этого траха, тем лучше. ЕСЛИ Google не вводит ограничений на количество загрузок ИЛИ не запрещает качать код к себе и использовать коммерчески.
В принципе идея не нова. На главной сайте Dojo уже давно есть ссылка на репозитарий от AOL http://dev.aol.com/dojo Так что всегда есть альтернатива. Писать google.load("dojo", "1.1.1"), конечно, красиво, но, думаю, имеет смысл только когда все остальное сделано через google api и лишняя доза уже не решает.
AOL - это, увы, AOL. Если в случае с Гуглом есть шанс что хотя бы в перспективе эти API переместятся поближе к тебе (ну пусть не в Россию, а хотя бы в Германию), то AOL так и будет всё из Штатов выдавать. Для США - да, это вариант. А для России - нужно ждать пока кто-нибудь типа Яндекса возьмётся за это дело.
P.S. Конечно есть у вас на сайте уже используются какие-то другие API от Google - файлы тоже стоит грузить через google.load , но это другая история...
Какая-то очень туманная надежда. Хотя, когда количество и качество библиотек превысит некий уровень, я думаю, появятся такие же js-репозитарии как и для обычного ПО.
Для локальной разработки никаких преимуществ. Максимум для последующей отладки и тестирования производительности новых версий библиотек с существующим приложением.
Хотелось бы добавить:
В-четвёртых, это может ускорить загрузку вашего сайта, т.к. необходимая вам библиотека скорее всего уже загружалась пользователем (ввиду того, что использовалась на каком-нибудь другом сайте) и закэшировалась браузером.
Тогда уж и "в-пятых": ваш сервер не озабочен отдачей библиотеки, таким образом на него снижается нагрузка. Это, конечно, актуально для высокопосещаемых ресурсов.
Для чего? думаете данных о посещаемости собираемых Google Analytics им недостаточно? тем более они могут их использовать на законных основаниях, если это не запрещено владельцем аккаунта.
Абсолютно, на мой взгляд, бесполезный сервис, и отчасти даже вредный.
1)Поддержание последней версии библиотеки на странице - одна большая глупость. Далеко не всегда строго соблюдается обратная совместимость версий. Так что есть риск, что проект завалится и вы даже не заметите.
2)Хранение файлов не у себя - максимум, что выиграешь это то, что есть возможность того что в браузере будет быстрее грузится, а те кто отдают статику апачем, думаю, не страдают от большой посещаемоасти.
3)Как заметил meteozond, наверняка стоит агрегатор, который собирает посещаемость, то есть гугл начинает получать данные не только от своих проектов, но и от ваших.
4)В случае взлома проекта, или целенаправленной акции гугла, все персональные данные ваших пользователей могут быть направлены на агрегатор злоумышленника. И ни кто этого не заметит.
В случае взлома проекта, или целенаправленной акции гугла, все персональные данные ваших >>пользователей могут быть направлены на агрегатор злоумышленника. И ни кто этого не >>заметит.
Мне кажется гугл заслужил доверие, а те кто борется за чрезмерную защиту персональных данных пользователя (какие-то коммерческие данные я так думаю) не будут этим пользоваться)
1)Поддержание последней версии библиотеки на странице - одна большая глупость.
Там же есть возможность выбора версии. Если не уверен в обратной совместимости - используй проверенную версию.
А еще станет проще писать вирусы — достаточно залезть в систему и прописать в hosts свой вредоносный прокси вместо ajax.googleapis.com и отдавать жертве собственные следящие скрипты вместе с оригинальным jquery — тогда ВСЕ сайты которые грузят jquery с google получат инъекцию вредоносного кода себе на страницы. Брр. Короче хакеру главное заставить браузер жертвы поверить в то что ajax.googleapis вот по такому-то IP теперь расположен (переехал, ага) а дальше дело техники. Да и фокусы с MITM тоже станут гораздо интереснее.
помоему это очень хороший и удобный сервис для маленьких и тестовых проектов.
вот я, например, пришел другу страничку править хочу там какой-то эффект MooTools так я ж не должен теперь качать,ставить я просто могу ему написать эффект и показать "вот мол смотри, нравится или нет".
конечно для продакшион проджектов такое использовать не рекоменуется.
вот у меня сразу вопрос.. они конечно сосут статистику, можно даже посмотреть какую, а вот влияет ли это как-то на TRUST сайта, задержку перед началом индексирования нового сайта, продвижение его в песочнице? думаю что нужно поставить эксперимент. вопросов много.. насколько этот сервис интегрирован с другими. наверняка обратная связь есть, только как она работает?
В поиске Яндекса <a=href=«js.static.yandex.net/jquery/1.3.2/_jquery.js»>присутствует jQuery.
Как считаете — разумно брать его для своего проекта? Ведь многие юзают поиск Яши и значит jQuery уже закеширован.
Google добавил интерфейс для AJAX-библиотек