Содержание статьи
Безопасность сайта – один из показателей ранжирования. Наличие вредоносного кода – причина для того, чтобы поисковые системы пометили ресурс как небезопасный, что существенно отразится на посещаемости, а после – и на позициях. Однако стандартные компьютерные антивирусы на «видят» вредоносный код в файлах сайта. Почему?
Чем проверять сайты на вредоносный код?
Действительно, антивирусное ПО, предназначенное для десктопов и ноутбуков, не всегда способно обнаружить вирусы, специально написанные для сайтов. Дело в том, что у них иной подход к функционированию. Поэтому на практике компьютерные антивирусы способны обнаружить всего до 40% хакерских perl и php скриптов. Вывод тут один – использовать такие программы для диагностики веб-проекта небезопасно.
Если пропустить хоть один хакерский бэкдор либо веб-шелл, реурс будет заражен заново. А там и до санкций поисковиков недалеко. Следовательно, нужно применять только специализированные инструменты и сервисы для проверки сайтов. Причем, их применение должно быть регулярным, чтобы можно было вовремя обнаружить опасность. Приведу список проверенных и действующих сервисов, обеспечивающих быструю диагностику интернет-ресурсов:
-
https://2ip.ru/site-virus-scaner/
- ресурс, проверяющий сайт на вирусы по мнению поисковых систем. Учитываются все возможные пометки в поиске и выдаётся уведомление о них;
-
virustotal.com
– сервис, обеспечивающий проверку сайта на наличие в черных списках десятков антивирусов и антивирусных сервисов;
-
DrWeb
- онлайн сканер от популярного в России одноимённого антивируса. Отличается оперативным обновлением сигнатур и поиском замаскированных зловредов;
-
ReScan.pro
– веб-проект для проверки страниц на вирусы, наличие недобросовестной рекламы, скрытых редиректов, опасных виджетов и санкций от поисковиков;
-
Quttera.com
– веб проект для проверки нескольких десятков страниц ресурсов на наличие вредоносных скриптов и файлов;
-
sitecheck.sucuri.net
– веб-проект, детектирующий инжекты фарм-партнерок, спамных ссылок и прочих сигнатур вредоносного кода, которые часто используют на Западе. Работает с различными юзер-агентами и реферами. Допонлительно сканирует известные уязвимости веб-сверера и CMS сайта;
-
Redleg's File Viewer
- один из старых, но не устаревших продуктов для тестирования сайта на вирусы. Отличается возможностью участия пользователя и коррекции способов тестирования;
-
AI-BOLIT
– сканер, проверяющий файлы сайта, находящий вирусы и вредоносные скрипты на хостинге, демонстрирующий критические уязвимости на движке.
-
SiteSecure
- проверка на вирусы, руткиты и прочие зловреды;
-
http://xseo.in/viruscan
- последний в списке, но не последний по значимости сервис проверки. Отлично умеет находить воровство трафика, скрытые рассыльщики спама. Задействует технологии отзывов от реальных пользователи.
Разница в восприятии вирусов поисковиками и антивирусами
В чем отличия в определении вирусов на сайтах роботами поисковых систем и компьютерными антивирусами? Вот несколько факторов:
- Механизмы распространения вирусов на пораженных интернет-ресурсах. Вирус способен определять браузер и набор плагинов, проверяя их по списку исключений. К примеру, если у вируса не получается заразить браузер, он выдает ему «чистый» сайт без вредоносного кода. Робот поисковика в такой список часто не попадает, поэтому «видит» вредоносный код. Часто вирус способен выдавать зараженный сайт не все клиентам, а с определенной выборкой – к примеру, одному из ста. Это позволяет вирусу долго оставаться необнаруженным.
- Антивирусы проверяют сайты, используя свои базы, которые обновляются с определенной задержкой. Из-за этого разные антивирусы детектируют вирусы на сайте в разное время, с разницей в несколько дней… иногда недель.
- Поисковые системы, как и антивирусы, анализируют поведение скриптов сайта. Результаты этого анализа дают возможность сделать выводы о наличии вредоносного кода. Так как у всех антивирусов и поисковых систем разные алгоритмы, и они по-разному воспринимают разные скрипты. В таких ситуациях возможны ложные срабатывания поисковых алгоритмов.
Как обеспечить безопасность сайта?
Есть три ключевых фактора, сочетание которых обеспечивает безопасность сайта:
- Хостинг (его серверная часть).
- Программная часть (скрипты, движок).
- Администрирование (допуск к сайту ответственных и знающих людей).
Стоит пропустить одно из направлений – и у сайта буду большие проблемы. Защита хостинга – задача его администрирующего персонала (исключение – выделенный сервер. Тогда за его безопасность отвечает владелец). Защита программной части – это выбор надежного движка, его своевременные обновления. Это установка только проверенных плагинов и скриптов, корректная настройка прав доступа к директориям и файлам, надежная защита входа в административную панель.
При проблемах с безопасностью сайта или наличие подозрений, следует выполнить комплексную автоматическую проверку. Рекомендуется не реже 1 раза каждые 2-3 месяца дополнительно проводить глубокую ручную проверку, с участием опытного специалиста, с целью оперативного поиска и устранения возможных проблем в работе сайта.