All streams
Search
Write a publication
Pull to refresh
71
0
Send message
К сожалению Logitech решили сэкономить на репутации и использовали в m570 некачественные детали. Покупая трекбол вы почти гарантированно приобретаете себе проблемы с кнопками (ломаются все три: left, middle, right). Это вдвойне печально т.к. требол шикарный.

У меня m570 начал сбоить на пятый месяц. Такого позора от флагманской модели трекбола Logitech я не ожидал.
Для себя пока вижу лишь один вариант: заменить кнопки на качественные. Очень не хочется отказываться от трекбола.
Logitech, конечно, молодцы, но это их навязчивое желание экономить на спичках кнопках…
Бутылочное горлышко нетбуков — процессор. А то сколько система потребляет памяти после загрузки даже близко не показатель.
У меня на нетбуке система (не eos) после загрузки занимает менее 50Мбайт (без оптимизаций). Это ровным счётом ничего не значит.
Мне пока pantheon-files видится просто ванильным shotwell с патчами для лучшей интеграции в elementary. Будет интересно посмотреть чем он станет к релизу isis.

Не знаю об одном ли мы говорим, но пункт «move to trash» есть и в beta и в stable.
eos beta2

На второй бете я с этой проблемой не сталкивался. Будем посмотреть.

Это не совсем форк. "Shotwell, elementary, and Pantheon Photos: What it all means".
Не совсем так. Часть приложений написана на Vala, часть заимсвованна и адаптированна. В целом всё как у всех, только с красивой темой.
Самописные приложения лёгкие и красивые, но в основном предоставляют лишь базовый функционал и не слишком стабильны. После их замены на «полноценные» версии значительная часть лёгкости улетучится.
Работать будет сносно (для нетбуков оно не предназначенно) но чудес ждать не стоит.
Это довольно странно.

Shotwell это продукт Yorba. Я, если честно, не помню чтобы оттуда пропадал пункт move to trash. Можно ссылку на обсуждение проблемы?

Да и в самодурстве команда elementary вроде не была замеченна. У них вполне внятный Human Interface Guidelines которому они стараются следовать.
Нет, такой возможности нет. Для подобных извращений просим в остальные дистры, тут все точно как в OS X — упор на то, чтобы включить и работать.


Что за ересь. Это не извращения а нормальная возможность. И этот функционал давно есть. Не вводите людей в заблуждение.
~/.config/plank/dock1/settings
Position=0 — док слева
+ Aligment для выравнивания иконок

Если появится артефакт killall plank

Cookie управляются Печенюшным монстром (и это правда cookie_monster.cc). Очевидно, расшифровываются они после того как извлекутся из базы данных.
Детали работы можно найти в коде (если есть желание).
Простой тест:
sqlite3 ~/.config/chromium/Default/Cookies "select encrypted_value from cookies where name=\"habrastorage_sid\" and host_key=\"habrastorage.org\";"

Если в выводе будет строка, начинающаяся с v10 у вас куки шифруются.

README
os_crypt_posix.cc
Так не получится.
1. Куки в Chrome хранятся в зашифрованными.
2. Получить куку можно прямо из скрипта (вариант sledopit)
Попробуйте ещё devdocs.io. О нём недавно была статья на хабре. Для документации получше будет.
Нет.

Для Linux:
chrome/chromium может получить данные о proxy из настроек среды (если используется DE).
В случае если используется WM настройки можно задать разными способами.

1. Стандартные переменные окружения для proxy (http_proxy и прочие)
2. CHROMIUM_USER_FLAGS и флаги
3. Через флаги
Заголовок
--proxy-server=host:port
Specify the HTTP/SOCKS4/SOCKS5 proxy server to use for requests. This overrides any environment variables or settings picked via the options dialog. An individual proxy server
is specified using the format:

[<proxy-scheme>://]<proxy-host>[:<proxy-port>]

Where <proxy-scheme> is the protocol of the proxy server, and is one of:

«http», «socks», «socks4», «socks5».

If the <proxy-scheme> is omitted, it defaults to «http». Also note that «socks» is equivalent to «socks5».

Examples:

--proxy-server=«foopy:99»
Use the HTTP proxy «foopy:99» to load all URLs.

--proxy-server=«socks://foobar:1080»
Use the SOCKS v5 proxy «foobar:1080» to load all URLs.

--proxy-server=«socks4://foobar:1080»
Use the SOCKS v4 proxy «foobar:1080» to load all URLs.

--proxy-server=«socks5://foobar:66»
Use the SOCKS v5 proxy «foobar:66» to load all URLs.

It is also possible to specify a separate proxy server for different URL types, by prefixing the proxy server specifier with a URL specifier:

Example:

--proxy-server=«https=proxy1:80;http=socks4://baz:1080»
Load https://* URLs using the HTTP proxy «proxy1:80». And load http://*
URLs using the SOCKS v4 proxy «baz:1080».

--no-proxy-server
Disables the proxy server. Overrides any environment variables or settings picked via the options dialog.

--proxy-auto-detect
Autodetect proxy configuration. Overrides any environment variables or settings picked via the options dialog.

--proxy-pac-url=URL
Specify proxy autoconfiguration URL. Overrides any environment variables or settings picked via the options dialog.

Например для использования PAC файла:
--proxy-pac-url=http://localhost/proxy.pac

4. Вроде был ещё способ через политики

Посмотреть текущие настройки можно тут: chrome://net-internals/#proxy

Для Win/Mac должно быть примерно так же.
И тем не менее его работа у меня вызывает больше вопросов чем ответов.

Для habrahabr crawl-delay задан равным 10, что даёт 6 запросов в минуту. Yacy показывает Crawler PPM равным 6. Это логично.
habrahabr.ru/robots.txt
User-agent: Yandex
Crawl-delay: 2
Disallow: /search/
Disallow: /js/
Disallow: /css/
Disallow: /ajax/
Disallow: /login/
Disallow: /register/
Host: habrahabr.ru

User-agent: Googlebot
Crawl-delay: 2
Disallow: /search/
Disallow: /js/
Disallow: /css/
Disallow: /ajax/
Disallow: /login/
Disallow: /register/

User-agent: Slurp
Crawl-delay: 8
Disallow: /search/
Disallow: /js/
Disallow: /css/
Disallow: /ajax/
Disallow: /login/
Disallow: /register/

User-agent: *
Crawl-delay: 10
Disallow: /search/
Disallow: /js/
Disallow: /css/
Disallow: /ajax/
Disallow: /login/
Disallow: /register/



anidb.net вообще запрещает индексацию сайта. yacy наплевал на robots.txt и добился бана по ip
anidb.net/robots.txt
User-agent: *
Disallow: /

User-agent: Spinn3r
Disallow: /

User-agent: Tailrank
Disallow: /

User-agent: Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.2.1; aggregator:Spinn3r (Spinn3r 3.0); http://spinn3r.com/robot) Gecko/20021130
Disallow: /



Скорость парсинга легко настраивается заранее или во время парсинга, а также можно поставить запрос на remote crawl — парсинг всей сетью.

Можно пояснить этот момент?
Насколько я вижу, можно задать только Speed / PPM, что является общим лимитом для всех индексаций.
Помимо этого можно заставить yacy игнорировать robots.txt и долбить сайт одному или с друзьями?
После начала индексации yacy (и меня за компанию) благополучно забанили на некоторых сайтах.
На некоторых поиск изменился: результатов стало больше, но в топе оказались менее полезные страницы. Интересно, изменится ли ситуация после того как сайт полностью проиндексируется.
Как обстоят дела с индексацией? Правильно ли я понимаю что yacy просто попытается спарсить сайт и вполне может получить бан?
Я его никогда не планировал как общедоступный сервис.
Фактически у меня это расширение для Chromium, подменяющее страницу закладок и обращающееся к api на localhost (flask + mongo).
Главное для меня:
— отзывчивость интерфейса, заточенность на хоткеи и клавиатуру
— извлечение информации (для часто посещаемых сайтов у меня есть рецепты для извлечения и обработки информации, для остальных сбор общей метрики)
— мощная система поиска
— интеграция с другими велосипедами (недавно добавил в рецепты извлечение и очистку контента => улучшилась интеграция с заметками).
Интересный сервис. Есть многое из того что я искал в идеальном менеджере закладок.
К счастью у меня уже есть заточенный под меня велосипед.

Удачи вам с проектом

Information

Rating
Does not participate
Location
Россия
Registered
Activity