Насчет удаления из рейтинга и просто отметки «может угрожать» есть догадка (писями по воде виляно, конечно — я ж не сотрудник яндекса): возможно, как «угрожающие» помечаются сайты, где бациллы были обнаружены в коде рекламных баннеров (а такое бывает довольно часто). А удаляются из выдачи — те, где вирус непосредственно на самом сайте.
Повторюсь — это лишь мои догадки, хотя и, на мой взгляд, не лишенные здравого смысла.
Версия хороша, но… мы просматриваем сайты, попадающие к нам в базу, провирусованные на 100% (в собственном исходном коде). Часть в индексе держится, часть — нет. Зависимость пока не обнаружили.
Конечно не решение, но в некоторых случаях может и помочь, особенно если зашифровать исходники и добавить die().
Идеальное решение — пароли хранить в надёжном месте и никого не подпускать к ним, но такого в наше мире нет :(
аналогичный вирус напал и на один из моих сайтов, только заражал он не только index.php, но и header.php, все .htm файлы, все .js, да еще прописывал свой img.php файл в папку images зачем-то…
если говорить только о js — как бы вы решили проблему с ними? Там die не поставишь!
В принципе у меня уже сложилось общее решение, которое было бы неплохо реализовать… скрипт, который через определенный интервал времени проверяет основные файлы (не все, только содержащие в имени «header», «footer», «index» и «htm») — проверять на основании оригиналов, помещенный в zip-архив (для сохранности) и в случае отличия размера файла — заменять на файл из архива. Такой скрипт был бы полезен не только при борьбе с вирусами, но и для регулярных обновлений CMS на сайтах (в особенности самописных, постоянно обновляемых). Если никто такого еще не написал и не собирается, для себя точно буду в дальнейшем писать…
В общем-то, SiteGuard не решает проблему удаления вирусов.
Для этого нам нужен доступ к Вашему серверу, а оно Вам надо?
Мы просто информируем о вирусах или подозрительной модификации скриптов, а Вы уж сами думайте))
По вопросу js/die — я не программист, а у программистов сегодня суббота. Могу предложить пока что только делать цикл с одной итерацией, в конце которой делать break :) Но это, наверное, не всегда сработает.
не до такой степени. даже яваскрипт пока еще не загоняю в базу.
в базе сейчас только css, вся структура сайта (страницы, папки, разделы, блоки, различные автоматические дополнения) и дизайн (html шаблон).
Нарывался на еще более прикольный вирус. Вирус модифицировал .htaccess. Внешне с сайтом все было ок, а вот при переходе на него с яндекс.директ все было интереснее, выдавался чужой сайт. Работало тоже через перехват паролей в фтп клиенте. Яндекс не детектил это никак.
Простите, но как Я мог узнать что в файле .htaccess и на сайт робот не через Директ попадает.
А вы строчку правила редиректа из .htaccess не помните, там редирект 301-й был?
>Простите, но как Я мог узнать что в файле
Так я ж и не говорю, что Я был обязан сие дело ловить как то. Это как уточнение, что не ловил.
Строчку не вспомню, к сожалению.
У Яндекса такие ситуации сплошь и рядом. Там не только вирус — элементарное указание основного домена www.домен.ру и перенаправляемые запросы с домен.ру на www и все, сайт вообще ушел с выдачи (robots.txt не помог). При том, что Google и другие поисковики продолжали спокойно обрабатывать такую ситуацию.
Техподдержка Яндекса смогла понять, в чем причина, аж через 3 недели, до этого чего только не пытались нам рассказать про наш сайт… И вернулся в индекс сайт лишь через недель 5-6 и то, на совершенно ужасных позициях и в совершенно непонятном виде (за все это время Google продолжал нормально показывать сайт на тех-же позициях и в том же виде)
Честно говоря, давно пора защищаться заранее. Не с помощью антивирусов, а с помощью тех средств, которые дает хостер. Большинство ftp-серверов поддерживают файл .ftpaccess, в котором можно прописать список разрешенных ip-адресов. В этом случае если пароль и стырят, то не смогут воспользоваться.
А в других поисковиках сайт раскручен? Если бы, например, гуглобот ничего не нашел на сайте, то этот вирус бы не убил 99% посещаемости, а только долю яндексовых.
Не то чтобы раскручен, но высокие позиции имеет (так же первые места). Однако специфика трафика такова, что идет он в основном с Яндекса. Кислород перекрыли на 2 недели :(
Есть горький опыт: у меня уходили пароли из ftp-клиента, и на все сайты, которые там были прописаны, вешались вирусы. После этого стал пользоваться WinSCP, у которого база шифруется по паролю (такая же возможность есть и у платного CuteFTP).
Пользуясь случаем, хочу спросить у общественности — насколько такой способ безопасен? Насколько сложно, украв зашифрованную базу, вытащить из неё данные? И является ли она зашифрованной во время работы с FTP-клиентом?
если машина заражена, то что помешает перехватить мастер-пароль в момент ввода?
или если пароль вводится один раз на всю сессию работы, думаю не проблема его (или ту производную, которой шифруется база) найти и выдрать из памяти, для последующей расшифровки.
ну если машина заражена, то и «запрещать сотрудникам сохранять пароли в ftp/sftp/ssh клиентах и браузерах» тоже может не помочь. Keepass так же через мастер-пароль работает, а хранение в открытом виде в текстовом файле — вообще не вариант.
да, там должна быть какая-то система, срабатывающая при больших нагрузках, заставляющая подождать (а если не разгрузилось, то опять подождать). на случай атаки. ну или хабраэффекта).
совет — ждите. всех примут.
к сожалению, пока что нет.
по нашему опыту, это и не надо: заражается в том числе и главная страница (в 99%).
но мы работаем над улучшениями, и кое-что придумали.
Работаю со своими питомцами только через ssh с ключами, причем mount делаю из виртуальной машины (xp — хост, freebsd — гость). Пароль попавший в чужие (пусть даже очень надежные и добрые) руки занимает весь день и становиться недействительным.
Я параноик?
P.S. Конечно гостевой freebsd не для паролей, просто так удобней. Работаем в xp (макет от дизайнера посмотреть в cs4 например нужно?), гостевая bsd как сервер и гейт до хостингов (samba+sshfs).
просто личное мнение: если соблюдать правила it-гигиены )), то антивирусы не нужны. ИМХО.
Мое мнение — запретить ftp вообще, и подключения осуществлять только по ssh c ключами, а файлы кидать по scp. Тем людям, которым нужен доступ, просить сгенерировать ключ и прислать публичный. Таким образом, можно завести репозиторий ключей и подключать их к сайтам.
Надо не просто следить за сайтом по директу а еще и за выдачей для ботов поисковиков, причем в некоторых случаях с IP поисковиков ;)
А против воровства ftp паролей есть простые решения типа разные пользователи для ftp и для файлов и отсутствующие права на запись ( update делается через дополнительный скрипт ).
А еще на одном проекте делал фиктивный код сайта и по его изменению письмо на мыло по крону — на сервере тусовалось куча народу и вирусы там вечеринки устраивали.
> сохранял пароли прямо в FTP-клиенте (этого делать не надо ни в коем случае)
Существенный риск при пользовании FTP — это утекание паролей через незашифрованное соединение, поэтому всегда юзаю SFTP.
Ну конечно если вы привыкли запускать malware… Но и тут несохранение не спасет: современное malware вместо придрачивания к десяткам разных клиентов просто снифает трафик и несохранение паролей не спасет.
Не всегда шифруется достаточно надежно. Учитывая, что список популярных FTP клиентов довольно конечен, злоумышленник может озаботиться поиском дешифровщиков для репозитория их паролей. Не знаю, насколько вы считаете FTP клиент FAR нормальным, но вот конкретно для него расшифровка пароля не представляет сложностей.
Полагаю такое не только к Яндексу относится, но и к другим ПС. А чтоб оное не попало на сайт и не поразило его, здесь не только антивирус нужен, но и надежный сервер, способный во-время предупредить, а лучше предотвратить «прорыв».
В принципе логичное решение Яндекса ограничивать доступ на вирусные ресурсы.
ИМХО: если проекты завершены, стоит вообще убрать доступ по FTP из панели управления сайтом или огранчить перечень IP с которых можно зайти на FTP (если удаление невозможно)
Проблема с сайтом, yandex переодически пишет сайт заражен вирусом, потом сам же пишет что ничего нет, заражен обычно одна или максимум 2 внутренних.
И так мигает уже месяца 2. сайт чистый пароли не хранятся, проверял с других машин нормально всё, что может быть?
Yandex пишет встраивается iframe, но как то он слишком быстро встраивается что его даже хостер не ловит… по ftp тоже никто не заходит, левых скриптов нет.
Вирусы на сайте и позиции сайта в Яндексе