Опубликовано Оставить комментарий

Как предотвратить спам?

нет спаму

Неприятная ситуация происходит, когда Вы получаете от провайдера запрос о том, что со страниц сайта, которым вы управляете распространяется спам. Что же делать?

Известно, что веб-мастера используют файл «robots.txt» на веб-сервере для управления бюджетом seo, предотвращая сканирование страниц с  результатами поиска.

Поисковые роботы тратят время на индексацию страниц с результатами поиска, увеличивая время индексации, в то время как некоторые хорошие страницы могут проигнорироваться.

Кроме того, существуют спам-боты, которые используют спам-фразы со спам-ссылкой на страницах результатов поиска. Страница результатов поиска может содержать такую фразу с активной ссылкой, даже если ее нет на сайте.

Добавление директивы «Disallow: / search» в файл «robots.txt»:

User-agent: *
Disallow: /search

запрещает индексацию и посещение страниц с результатами поиска поисковыми роботами, но не решает проблему спам-запросов полностью.

Страница может быть проиндексирована, если на нее ведут ссылки с других сайтов.

Хотя Google не сканирует и не индексирует контент, заблокированный файлом «robots.txt», все равно можно найти и проиндексировать запрещенный URL, если он связан с другими местами в Интернете. В результате URL-адрес и другая общедоступная информация могут появляться в результатах поиска Google.

Чтобы должным образом предотвратить появление URL-адреса в результатах поиска Google, необходимо защитить файлы на сервере паролем либо использовать метатег noindex, либо полностью удалить страницу.

Для это нужно добавить метатег NoIndex в шаблон страницы результатов поиска.

<meta name = «robots» content =
«noindex»>

Чтобы запретить индексирование страницы только веб-сканерам Google добавить метатег NoIndex нужно следующим образом:

 <meta name =
«googlebot» content = «noindex»>

Однако, некоторые роботы поисковых систем могут по-разному интерпретировать директиву NoIndex, в результате чего все еще возможно отображение страницы в поисковых результатах других поисковых систем.

Что спамеры ищут на сайте? Почему они получают ссылку на результаты поиска по ключевым словами и копируют ее на другие веб-ресурсы?

Дело в том, что когда боты Google посещают страницы с такой ссылкой, они переходят по ней, попадают на запрещенную страницу и индексируют ее со спамом.

В результате пользователи, которые будут искать те же фразы в Google, получают такие страницы со спамом. Это опасно, потому что некоторые важные данные могут быть скомпрометированы, например номера телефонов, контактные электронные письма и так далее.

Выход есть. Воспользоваться формой поиска, которая защищена плагином CleanTalk Anti-Spam.

Плагин CleanTalk Anti-Spam дает возможность защитить форму поиска сайта от спам-ботов для WordPress, Joomla 2.5, Drupal 8.

Если форма поиска получает данные слишком часто, то плагин CleanTalk добавит паузу и будет увеличивать ее с каждой новой попыткой отправки данных. Это позволит сьэкономить время процессора веб-сервера.

Таким образом, индексация для поисковых  роботов не будет запрещена, но одновременно будет установлена защита от спам-ботов.

CleanTalk также позволяет увидеть запросы, которые пользователи искали через форму поиска, оптимизировать сайт и сделать информацию на нем более доступной.

[bws_google_captcha]

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *