Как заблокировать бота в вк


Вся правда о ботах ВКонтакте

Сегодня я хотел бы поговорить с Вами о положительных и отрицательных сторонах использования ботов при продвижении собственных групп и публичных страницах ВКонтакте.

Прежде чем начать этот разговор, я позволю себе дате небольшое, пусть и не совсем точное определение словосочетания «бот ВКонтакте».

Бот ВКонтакте – это личная страничка человека, которого на самом деле не существует. За этой страничкой как правила стоит совершенно другой человек, который с ее помощью пытается достичь свои собственные цели путем введения других пользователей в заблуждение.

Чем грозит использование ботов?

Самым главным риском при использовании ботов ВКонтакте является риск блокировки группы, а то и вовсе аккаунта человека, который эту группу создал. Вообще последнее время ВКонтакте начал тотальную борьбу с ботами, а также принялся за контроль сторонних интернет ресурсов. Попасть под фильтр теперь можно не только за использование ботов, но и за упоминание сайтов, которые пишут про сайты, которые используют ботов. Одна за одной закрываются всевозможные социальные биржи, а те, кому удается договориться с vk.com — переориентируются на белые способы продвижения.

В сложившейся ситуации использование ботов нежелательно даже на ранних стадиях продвижения.

Когда и где применяют ботов?

Прежде всего, ботов применяют для имитации общения в группе. Очень часто реальные пользователи стесняются задавать свои вопросы в группа, где, как им кажется, делать это не принято. Поэтому при помощи ботов задают вопросы по теме от лица одних ботов и отвечайте на них от лица других.  Все для того, чтобы реальные люди включались в дискуссию, высказывали свое мнение, спорили.

Также ботов применяют в тех случаях, когда нужно накрутить сердечки (лайки) либо подтасовать результаты голосования.

И наконец, третий, довольно распространенный способ применения ботов – накрутка подписчиков. Люди охотнее вступают в группы, в которых уже есть другие участники, это во-первых. А во-вторых, количество участников в группе – один из основных факторов, которые влияют на позиции в поисковой выдаче ВКонтакте. К примеру, есть две группы, которые называются так «Рецепты кулинара» и «Кулинарные рецепты». В первой группе 10 000 участников, а во второй 20 000. Если человек наберет в поиске «Рецепты», то на первом месте окажется группа Кулинарные рецепты», а на втором «Рецепты кулинара». Разумеется, что шансы на то, что человек зайдет в группу, которая на первом месте гораздо выше.

Выводы:

  1. Ботов лучше всего не использовать.
  2. Чрезмерное злоупотребление ботами – ведет к блокировке группы. Количество ботов не должно превышать половины от числа участников группы.
  3. ВКонтакте может заблокировать группу даже за то, что она написала про сайт, который пишет про сайт, который предлагает услуги по накрутке ботов.

raskrutka-gruppy.ru

Как распознать и заблокировать «нехороших» ботов

Автор: Бен Гудселл (Ben Goodsell) – руководитель отдела поискового продвижения в RKG Merkle. Специалист в области технического SEO, имеет опыт продвижения сайтов в социальных медиа, специализируется на разработке стратегий контентного продвижения и линкбилдинге. Регулярно сотрудничает с крупными брендами.

Источник: SearchEngineLand.com

Любому грамотному оптимизатору в своей профессиональной деятельности когда-либо доводилось анализировать лог-файлы для того, чтобы определить поведение поискового робота Googlebot. Однако мало кто представляет себе, насколько эффективным может оказаться этот подход для выявления нежелательных ботов, которые регулярно посещают сайт. Главная опасность таится в том, что эти роботы автоматически исполняют сценарий JavaScript, наводняя аналитику ложными данными, нанося вред ресурсу, незаконно копируя его контент и т.д.

Согласно данным ежегодного отчёта агентства Incapsula, доля неестественного трафика, поступающего на сайты, в среднем составляет 56%. При этом в 29% случаев боты, приходящие на ресурс, содержат вредоносное ПО и наносят заметный ущерб. В ходе исследования экспертная группа агентства проанализировала статистику 20 тыс. веб-сайтов разного масштаба за 90-дневный период. Наблюдения позволили выделить ещё один заметный момент: чем более крупный и узнаваемый бренд представляет сайт, тем более очевидной и желанной целью он становится для ботов.

Главная цель этой статьи – рассказать специалистам отрасли о том, с чего следует начинать аудит сайта по данному направлению и как грамотно анализировать лог-файлы при помощи Excel для выявления «недобросовестных» ботов и последующей их блокировки на уровне сервера. Также автор статьи расскажет о том, как устранить искажения в отчётах Google Analytics.

Находим лог-файлы

Как известно, сервер фиксирует все обращения к сайту и хранит их в виде текстового файла со списком. Не важно, заходит ли на сайт реальный пользователь (к примеру, через браузер Firefox) или же новые страницы ресурса сканирует Googlebot – все эти активности фиксируются в специальном файле. Расположение этих файлов зависит от типа сервера или хостинга.

Так, если владелец ресурса использует платную панель управления веб-хостингом cPanel, то файл, записывающий все обращения к сайту, будет располагаться под отдельной ссылкой:

В интерфейсе сервера Apache путь к файлу лога будет таким: /var/log далее в поддиректории следует запустить команду access.log – это позволит быстро обнаружить лог-файлы на сервере.

Если в качестве хостинга используется набор серверов от Microsoft IIS (Internet Information Services), то путь будет таким: Панель управления – Администрирование – Internet Information Services (IIS) Manager – Выбрать веб-сайт – после этого нужно правой кнопкой мыши кликнуть по вкладке Свойства – выбрать вкладку Веб-сайт – Свойства – Основные свойства. Для англоязычной версии продукта последовательность действий будет такой: Control Panel -> Administrative Tools -> Internet Services Manager -> Select website -> Right-click then Properties -> Website tab -> Properties -> General Properties tab.

Вычисляем количество хитов на один IP-адрес и считаем число заходов User Agent’ов

После того как все лог-файлы были обнаружены, необходимо объединить их в одном файле и загрузить в Excel любым удобным методом. Учитывая объёмы отдельных лог-файлов, сделать это зачастую бывает очень непросто. В то же время, чтобы проделать указанную выше операцию для небольших и средних сайтов, мощности одного стандартного компьютера будет вполне достаточно.

На практике набор действий сводится к следующей последовательности. Все файлы, расположенные в директории .log files, необходимо объединить и поместить в новый файл формата .txt, используя стандартный текстовый редактор. После этого нужно запустить Excel, разбив текст по колонкам, используя для разделения пробел и выравнивая впоследствии заголовки столбцов.

Рассчитываем количество хитов на один IP

После того как все логи собраны и объединены в таблице Excel, становится гораздо легче рассчитать количество загрузок страниц сайта на один IP-адрес.

Далее нужно выполнить действия в такой последовательности:

  1. Сформировать сводную таблицу, проанализировать количество Client IP и сделать расчёт.
  2. Затем необходимо скопировать полученную таблицу; переименовать существующие столбцы в «Client IP» и «Хиты»; отсортировать список по нисходящей; добавить колонку User Agent.

Вычисляем User Agent по IP

На заключительной стадии необходимо выявить потенциально опасных ботов. Для этого придётся установить, с какого IP-адреса осуществлял вход на сайт тот или иной User Аgent, и какой из роботов оказал на ресурс наибольшее негативное воздействие. Чтобы проделать эту операцию, необходимо повторно обратиться к сводной таблице и указать в качестве переменной User Аgent в каждую строку секции сводной таблицы (графа Row Label на рис. выше).

Теперь нахождение роботов Аgent с привязкой к IP станет гораздо более простой задачей. На скриншоте ниже видно, что User Agent с IP-адреса устройства, расположенного в Китае, заходил на сайт на 80 тысяч раз чаще, чем другие роботы.

Блокируем нежелательный IP-адрес

Ключевым этапом всей деятельности становится блокировка доступа к сайту User Agent’а с нежелательного IP-адреса, а также исключение этих данных из сервиса статистики.

Чтобы заблокировать статистику посещений с нежелательного IP в Google Analytics, придётся создать специальный фильтр. Для этого нужно войти во вкладку «Администратор» и выбрать пункт «Аккаунт» , в котором будет создаваться фильтр. Затем выбрать пункт «Фильтры», далее +Новый фильтр. После этого нужно переключиться на пункт  «Встроенный» и выбрать стандартный тип фильтра: «Исключить трафик с IP-адресов» (Exclude traffic from the IP addresses). Далее в специальном поле можно перечислить все нежелательные IP.

Совет: Сервис Google Analytics автоматически блокирует данные, поступающие от всех известных краулеров из списка IAB. Чтобы сервис аналитики перестал учитывать переходы от этих роботов, достаточно обратиться к вкладке «Администратор» снизу от пункта меню «Посмотреть Настройки» можно увидеть раздел «Фильтрация роботов» («Bot Filtering») там же можно выбрать пункт «Exclude all hits from known bots and spiders». Самым правильным вариантом будет создавать новый фильтр всякий раз, когда вы меняете настройки профиля.

Если же владелец сайта использует аналитику от Omniture, исключить из статистики данные по нежелательным IP можно следующим способом:

  1. Опция Exclude by IP позволяет игнорировать данные для 50 IP-адресов.
  2. Опция Vista Rule предусмотрена для крупных компаний и позволяет увеличить число нежелательных IP.
  3. Функционал Processing Rule позволяет создавать специальные правила и блокировать данные о переходах на сайт с нежелательных IP.

Блокировка IP на уровне сервера

Аналогично тому, как вычисляется расположение лог-файлов, производится вычисление сервера, которому принадлежит конкретный IP-адрес, и осуществляется его блокировка.

При работе с cPanel имеет смысл воспользоваться возможностями IP Address Deny Manager. Нежелательные IP-адреса будут заблокированы навсегда.

Для Apache рекомендуется использовать модуль mod_authz_host, кроме него можно использовать .htaccess.

Те, кто пользуются IIS, могут заблокировать все нежелательные IP на уровне сервера в Open IIS Manager (Features View -> IPv4 Address and Domain Restrictions -> Actions Pane -> Add Deny Entry).

Итоги и выводы

Сегодня сторонние решения, предназначенные для выявления неестественного трафика на сайты и обнаружения ботов, позволяют делать это в режиме реального времени. При этом они умеют анализировать не только IP-адреса и коды юзерагентов, но и параметры HTTP-запроса, поведение робота на сайте и целый ряд других факторов.

Помимо подобных решений, владельцы ряда сайтов всё чаще применяют такой инструмент, как reCAPTCHA. Новая формула защиты от Google еще раз позволяет убедиться, что на сайт приходят реальные пользователи, а не роботы. 

www.searchengines.ru

Сводим риск блокировки аккаунтов во Вконтакте к минимуму

2) По возможности не используйте ссылки на внешние ресурсы в сообщениях. Лучше создайте группу или пост у себя на странице, в которых будет указана внешняя ссылка. А в сообщения кидайте уже сами ссылки на группу / пост.

3) Все уважающие софты для автоматизации VK имеют возможность рандомизации текста, то есть чтобы бот не спамил бесконечно одним и тем же текстом, а проявлял деятельность больше схожую на живого пользователя. Настройте перед рассылкой несколько вариантов текстов с заменой слов, букв (можно заменить кириллические символы, на идентичные символы латиницы).

4) Первую неделю использования аккаунта желательно использовать лишь 60% от общего лимитов возможных действий. То есть, к примеру, ограничение на приглашение в друзья для одного аккаунта в сутки составляет 50, вы же приглашаете только 30 человек. После первой недели стоит зафиксировать на 90% и больше не ставить (в случае с инвайтингом в друзья, приглашаем не 50 пользователей, а 45).

5) Тайминги являются очень важной составляющей того, чтобы ваша страница быстро не канула в лето. Мы советуем вам максимально растягивать промежутки времени между выполнением действий. К примеру, у вас стоит задача пригласить 50 человек в друзья, это максимальная планка лимита в сутки. Почему бы не растянуть это на целые сутки, приглашая по 2 человека в час?

Так же, всегда используйте случайные паузы (обычно подобное есть в настройках). Это сильно сокращает риски потери страницы, ведь будете с большим шансом восприниматься социальной сетью, как реальный пользователь.

7) Желательно не использовать много аккаунтов одновременно с одно IP адреса. По возможности, используйте прокси, к примеру адекватные цены можно найти у proxy6.

vkbot.ru.net

Как заблокировать бота?

Скажите как заблокировать эту гадость можно? уже надоел не могу никак заблочить его...((помогите.compatible; AhrefsBot/5.2; +http://ahrefs.com/robot/

alexakap   11.07.2017 00:47 В robots.txt добавить: User-agent: AhrefsBot Disallow: / На роботс он не реагирует, но пропишите В .htaccess прописать: RewriteEngine On RewriteCond %{HTTP_USER_AGENT} AhrefsBot RewriteRule ^.* - [F,L] Это может помочь

А в роботс это просто ниже добавить под существующим правилом? user...

User-agent: AhrefsBot Disallow: /

больше ничего писать не надо?просто disallow: / или после слеша что то писать еще?

постоянно меняет айпи...при этом...

garik1331   10.07.2017 23:43

Забей это анализатор одной компашки

вот никто не поверит...зашел я значит на сайт к ним так и ввел по названию,в чат им написал хрень какую то...смотрю в логах у меня через время что я написал им в чате отображается это как так???? и что за компашка?они достали уже блин...по 3000 прямых переходов валят!((

garik1331   10.07.2017 23:50   Не понял что и где отображается А компашка даже очень известная

и почему не блочится он?

garik1331   10.07.2017 23:50  

Не там блочишь

а где блочить в роботс? и как?

garik1331   10.07.2017 23:57

Я по этому не специалист, но вроде как в панельке хостинга

я написал у них на сайте Ahrefs....в окне поддержки...через время когда смотрел логи у себя то что им писал оказалось у меня в логах каким то образом

garik1331   11.07.2017 00:04  

Хрень какая то, там что ясновидящие маги что ли сидят ахаха

серьезно...сам не понимаю...

да что за хрень такая то!...что значит он не реагирует на айпи на роботс на запрет...ну держитесь я сйчас буду их сайт тоже хреначить ...

prodgoroda_ru   11.07.2017 15:33 Советую блокировать командами iptables iptables -A INPUT -s 199.168.137.210 -j DROP Для того чтоб заблокировать подсеть надо использовать следующую команду

iptables -i eth2 -A INPUT -s 192.168.1.0/24 -j DROP

pr-cy.ru


Смотрите также