Обновлено 29.07.2017г. 01:48 (UTC+3)

Проверка сайта на вирусы и меры по безопасности ресурса

Безопасность сайта – один из показателей ранжирования. Наличие вредоносного кода – причина для того, чтобы поисковые системы пометили ресурс как небезопасный, что существенно отразится на посещаемости, а после – и на позициях. Однако стандартные компьютерные антивирусы на «видят» вредоносный код в файлах сайта. Почему?

Чем проверять сайты на вредоносный код?

Действительно, антивирусное ПО, предназначенное для десктопов и ноутбуков, не всегда способно обнаружить вирусы, специально написанные для сайтов. Дело в том, что у них иной подход к функционированию. Поэтому на практике компьютерные антивирусы способны обнаружить всего до 40% хакерских perl и php скриптов. Вывод тут один – использовать такие программы для диагностики веб-проекта небезопасно.

Если пропустить хоть один хакерский бэкдор либо веб-шелл, реурс будет заражен заново. А там и до санкций поисковиков недалеко. Следовательно, нужно применять только специализированные инструменты и сервисы для проверки сайтов. Причем, их применение должно быть регулярным, чтобы можно было вовремя обнаружить опасность. Приведу список проверенных и действующих сервисов, обеспечивающих быструю диагностику интернет-ресурсов:

  • https://2ip.ru/site-virus-scaner/

    - ресурс, проверяющий сайт на вирусы по мнению поисковых систем. Учитываются все возможные пометки в поиске и выдаётся уведомление о них;

  • virustotal.com

    – сервис, обеспечивающий проверку сайта на наличие в черных списках десятков антивирусов и антивирусных сервисов;

  • DrWeb

    - онлайн сканер от популярного в России одноимённого антивируса. Отличается оперативным обновлением сигнатур и поиском замаскированных зловредов;

  • ReScan.pro

    – веб-проект для проверки страниц на вирусы, наличие недобросовестной рекламы, скрытых редиректов, опасных виджетов и санкций от поисковиков;

  • Quttera.com

    – веб проект для проверки нескольких десятков страниц ресурсов на наличие вредоносных скриптов и файлов;

  • sitecheck.sucuri.net

    – веб-проект, детектирующий инжекты фарм-партнерок, спамных ссылок и прочих сигнатур вредоносного кода, которые часто используют на Западе. Работает с различными юзер-агентами и реферами. Допонлительно сканирует известные уязвимости веб-сверера и CMS сайта;

  • Redleg's File Viewer

    - один из старых, но не устаревших продуктов для тестирования сайта на вирусы. Отличается возможностью участия пользователя и коррекции способов тестирования;

  • AI-BOLIT

    – сканер, проверяющий файлы сайта, находящий вирусы и вредоносные скрипты на хостинге, демонстрирующий критические уязвимости на движке.

  • SiteSecure

    - проверка на вирусы, руткиты и прочие зловреды;

  • http://xseo.in/viruscan

    - последний в списке, но не последний по значимости сервис проверки. Отлично умеет находить воровство трафика, скрытые рассыльщики спама. Задействует технологии отзывов от реальных пользователи.

Разница в восприятии вирусов поисковиками и антивирусами

В чем отличия в определении вирусов на сайтах роботами поисковых систем и компьютерными антивирусами? Вот несколько факторов:

  1. Механизмы распространения вирусов на пораженных интернет-ресурсах. Вирус способен определять браузер и набор плагинов, проверяя их по списку исключений. К примеру, если у вируса не получается заразить браузер, он выдает ему «чистый» сайт без вредоносного кода. Робот поисковика в такой список часто не попадает, поэтому «видит» вредоносный код. Часто вирус способен выдавать зараженный сайт не все клиентам, а с определенной выборкой – к примеру, одному из ста. Это позволяет вирусу долго оставаться необнаруженным.
  2. Антивирусы проверяют сайты, используя свои базы, которые обновляются с определенной задержкой. Из-за этого разные антивирусы детектируют вирусы на сайте в разное время, с разницей в несколько дней… иногда недель.
  3. Поисковые системы, как и антивирусы, анализируют поведение скриптов сайта. Результаты этого анализа дают возможность сделать выводы о наличии вредоносного кода. Так как у всех антивирусов и поисковых систем разные алгоритмы, и они по-разному воспринимают разные скрипты. В таких ситуациях возможны ложные срабатывания поисковых алгоритмов.

Как обеспечить безопасность сайта?

Есть три ключевых фактора, сочетание которых обеспечивает безопасность сайта:

  1. Хостинг (его серверная часть).
  2. Программная часть (скрипты, движок).
  3. Администрирование (допуск к сайту ответственных и знающих людей).

Стоит пропустить одно из направлений – и у сайта буду большие проблемы. Защита хостинга – задача его администрирующего персонала (исключение – выделенный сервер. Тогда за его безопасность отвечает владелец). Защита программной части – это выбор надежного движка, его своевременные обновления. Это установка только проверенных плагинов и скриптов, корректная настройка прав доступа к директориям и файлам, надежная защита входа в административную панель.

При проблемах с безопасностью сайта или наличие подозрений, следует выполнить комплексную автоматическую проверку. Рекомендуется не реже 1 раза каждые 2-3 месяца дополнительно проводить глубокую ручную проверку, с участием опытного специалиста, с целью оперативного поиска и устранения возможных проблем в работе сайта.