Как использовать Ajax для закрытия ссылок и как задать условие вывода чего-либо в постах нужных рубрик Вордпресса (in_category)

Как использовать Ajax для закрытия ссылок и как задать условие вывода чего-либо в постах нужных рубрик Вордпресса (in_category)

30 Окт, 2013 | Рубрика : Основы WordPress

  1. Как скрыть ссылки от индексации и зачем это делать
  2. Как через Ajax (Аякс) настроить подгрузку данных
  3. Условие вывода в постах определенных рубрик (in_category)

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Хочу сегодня немного развить тему, начатую в первой статье цикла (она называлась Технический аудит и внутренняя оптимизация), а именно в деталях рассмотреть упомянутый там способ, позволяющий закрыть любую ссылку от индексации поисковыми системами. Простое добавление в тег гиперссылки атрибута rel=nofollow уже, по сути, не работает, да и странно будет выглядеть в глазах поиска закрытие таким образом внутренних ссылок на сайте.

Для того, чтобы скрыть ссылки или любой другой фрагмент контента на сайте, нам понадобится подключить библиотеку jQuery и использовать возможности технологии Ajax. Звучит все это устрашающе, но на практике реализуется на раз-два. Зачем нужно закрывать ссылки от индексации поисковиками?

Для того, чтобы получить малую толику надежды на лучшее ранжирование вашего сайта в поиске. Но решение о целесообразности данного действа придется принимать именно вам, а я умываю руки, ибо заключил с вами де факто Пользовательское соглашение, снимающее с меня всякую ответственность за последствия (это в продолжении статьи о копирайте).

В конце статьи я так же описал способ вывода с помощью Ajax разных списков, рекомендованных для прочтения статей, в зависимости от того, к какой рубрике принадлежит данный пост. Реализовано это с помощью функции in_category и прекрасно работает.

Как скрыть ссылки от индексации и зачем это делать

Итак, еще раз о целесообразности использования Ajax (Аякса) для закрытия внешних или внутренних ссылок от индексации Яндексом и Гуглом. Фактически с помощью Аякса мы можем скрыть любой фрагмент из структуры своего сайта. При этом пользователи в браузере будут видеть скрытые фрагменты, а поиск их видеть не будет. Как это происходит я и сам не знаю, но говорят, что это действительно работает.

Вообще, проблема индексации сайтов использующих Ajax существует уже очень давно и до сих пор полностью не решена. Этот самый Аякс позволяет подгружать некоторые фрагменты страницы без ее перезагрузки, что делает эту технологию очень востребованной. Видели, у меня вверху сайдбара живет переводчик Google? Вот он как раз и работает на основе технологии Аякс (осуществляет перевод в реальном времени без перезагрузки страницы) и созданные им переводы, естественно, поисковиками не индексируются.

Но существование возможности скрытия фрагментов сайта от индексации вовсе не говорит в пользу того, что это нужно делать. Давайте подумаем, а зачем это может быть нужно? Мне так кажется, что в основном для того, чтобы убрать из индекса все лишнее, тем самым помочь поиску разгрести ваши авгиевы конюшни. Поясню.

У любого сайта есть обвес — верхнее меню, боковая колонка (или колонки), футер и еще может быть что-то, что присутствует на всех страницах сайта. Все эти вещи служат благим намерениям — сделать сайт прозрачным для посетителя, упростить навигацию и повысить юзабилити. Если убрать обвес, то пользователь просто уйдет с сайта, посмотрев одну единственную страницу (так, кстати, делают МФА сайты, зарабатывающие на Адсенсе и не дающие пользователю другой альтернативы, кроме как жмакнуть по рекламной ссылке).

Но в то же время обвес делает ваши уникальные тексты частично дублированными. Причем, если обвес будет превышать по объему полезное содержимое (например, чудовищных размеров выпадающие списки), то поисковики могут вообще посчитать его спамным и не учитывать такие страницы при ранжировании.

Откройте исходный код любой страницы вашего сайта и оцените размер содержательной части и всего остального, что имеет место быть на всех страницах. Посмотреть код страницы можно, щелкнув правой кнопкой мыши в окне браузера и выбрав пункт контекстного меню «Исходный код» (браузер Opera), либо «Исходный код страницы» (Фаерфокс), либо «Просмотр кода страницы» (Хром), либо «Просмотр HTML-кода» (Эксплорер).

Отсюда следует вывод, что, во-первых, необходимо почистить код сайта. Убрать все упоминания CSS стилей и Java скриптов в отдельный файл (читайте про это в статье Оптимизация CSS в Page Speed) и проверить Html код на валидаторе (можно еще в Html убрать все пробелы, но осторожно). Ну, а во-вторых, попробовать избавиться от обвеса, но таким хитрым способом, чтобы посетители его видели, а поиск — нет.

О, предвижу ваши высказывания в комментариях по поводу клоакинга. Ведь общий смысл тот же. Но, спешу Вас разуверить, ибо есть примеры скрытия ссылок (и даже целых блоков) от индексации в Аякс и делалось это в основном на коммерческих сайтах с высокой конкуренцией. Поэтому неосведомленность поиска о таких фокусах маловероятна (стук среди владельцев и продвиженцев коммерческих сайтов является одним из основных инструментов).

Да и суть клоакинга заключается в подмене абы какого контента (но приятного взгляду посетителей) на другой, насыщенный ключами и не пригодный для взгляда посетителей, но который понравится роботу. Сие действо было актуально, когда большее количество ключей в статье давало более высокую позицию в выдаче. Сейчас такой способ будет давать обратный эффект — бан за переспам, поэтому его использование не целесообразно.

По большому счету, даже закрытие страниц в теге Robts или в файле роботс от индексации, тоже заставляет паука видеть ваш сайт не таким ужасным, каков он есть на самом деле. Ajax же просто является той технологией, с которой поиску трудно работать, но ее использование не запрещено. Так же, как и сайты на фреймах (frame) не могут нормально индексироваться поиском именно в силу технических причин и принципа его работы (во фреймах для разных страниц может использоваться один и тот же УРЛ, что абсолютно не подходит поисковикам).

Кроме этого, известный SEO блогер Сергей Сосновский (его ресурс вошел в мой список лучших SEO форумов и блогов) полностью скрыл свой сайдбар через Ajax, но перед этим списался с техподдержкой Яндекса по поводу их отношения к такому способу скрытия ненужного контента. Яндекс ответил, что такие действия не являются наказуемыми.

Кстати, частичное дублирование контента не является единственной причиной, заставляющей закрывать ссылки от индексации через Аякс. В недавней статье я писал про внутреннюю перелинковку и отмечал ее исключительную важность при продвижении. Дело в том, что внешними ссылками вы статический вес на сайт особо не нагоните (только анкорный — читайте подробнее в статье про различные анкоры для ссылок), а вот внутренняя перелинковка, сделанная грамотно, может сотворить чудо.

перелинковка под НЧ

Вот эту идеальную схему я рисовал, описывая то, что нужно будет сделать лично мне. Эта схема позволяет максимально накачать статическим весом страницы третьего уровня (непосредственно статьи). Обращаю ваше внимание, что таким образом вы лишь помогаете сделать акцент на тех страницах, которые реально несут ответ и поиск будет ранжировать их при прочих равных чуть выше, чем страницы разделов или главную.

Но реализовать такую схему на практике мешает как раз упомянутый выше обвес. Без десятков ссылок на навигационные страницы (рубрики, карта сайта и т.п.) у вас сильно пострадают поведенческие факторы. Но ведь можно оставить ссылки на рубрики только на главной странице (как и показано на схеме), а на других использовать для их вывода Ajax. Пользователи разницы не почувствуют, а поиск получит код страниц, гораздо больше насыщенный новой информацией и не содержащей, по большому счету, муссорный обвес.

Казалось бы, что это просто «чума» и, сделав подобный «финт ушами», мы сразу прыгнем в Топ по всем продвигаемым запросам. А вот и нет. Поиск ведь тоже не лыком шит и прекрасно умеет отделять зерна от плевел. Т.е. он уменьшает влияние внутренних (и внешних тоже) сквозных ссылок практически до значения единичной ссылки, да и частичное дублирование контента в большинстве случаев прощает по описанной выше причине, если размер статьи не теряется на фоне обвеса.

Я еще раз повторяю, что если и будет положительный эффект от всей это скрытности, то он будет незначительным. Много вы получили от того, что мусорные страницы вашего сайта закрыли от индексации в robots.txt. Наверное, не очень. Но поиск все равно оценит вашу помощь и сайт с чистым роботсом (или отсутствующим вообще) будет ранжироваться чуть-чуть хуже, а ваш (с правильным роботсом) — чуть-чуть лучше (но это только как правило и при прочих равных условиях).

Так же и здесь. Если у вас с сайтом все хорошо и вы выполнили все требования технического аудита, то чистая схема внутренней перелинковки может помочь вам подняться еще чуток повыше в выдаче. А если вы на большинство фишечек и рюшечек оптимизации положили, то и такой ерундой тоже заниматься не стоит, ибо будет без разницы. Все это мое ИМХО, однако, подтвержденное мнением некоторых профи. В SEO оптимизации и продвижении вообще нет мелочей. Курочка по зернышку клюет и, пренебрегая этими зернышками из-за их малости, вы рискуете умереть с голоду (не получить желаемого трафика).

В общем, никого не агитирую, а даже, наоборот, отговариваю, ибо на себе пока еще не проверил. Однако метод, позволяющий закрыть ссылки от индексации (и не только их), я сейчас и опишу.

Как через Ajax (Аякс) настроить подгрузку данных

В общем-то, закрытие ссылок и части контента не всегда является причиной использования Ajax, но в нашем случае нам нужно от этой технологии только это, поэтому все будет выглядеть просто и наглядно. Для реализации данного способа потребуется подгружать библиотеку jquery.

Можно будет это делать со своего собственного сервера, но я выбрал вариант загрузки с Google, ибо он отличается высокой стабильностью и никаких проблем с этим возникнуть не должно. Для этого в файл header.php из папки с используемой мною темой (файлы в ней называются шаблонами, о назначении которых можете почитать тут) нужно будет добавить приведенный ниже код.

Шаблон header.php отвечает за формирование шапки, а также в нем прописываются служебные теги в области Head. Ну, и нашей задачей является размещение между открывающим и накрывающим Head вот такой вот простенькой конструкции для вызова jquery:

 <script src="https://ajax.googleapis.com/ajax/libs/jquery/1.7.0/jquery.min.js"></script> 

Я буду использовать подгрузку элементов вебстраницы через Ajax только в постах, хотя, по идее, я мог бы вставить код вызова библиотеки jquery только в тот шаблон, который за это отвечает (single.php), но так будет правильнее, наверное.

Дальше нам нужно будет добавить небольшой фрагмент кода в любой файлик с Java Script, если таковой имеется в папке с вашей темой оформления (его легко узнать по расширению .js). В моем случае он имеет место быть и называется taber.js. Если у вас такого богатства нет, то просто создайте его в любом месте (лучше, наверное, все в той же папке с файликами темы) и обзовите его латинскими буквами.

Далее опять же откройте header.php и добавьте между открывающим и накрывающим Head код, инициирующий подгрузку данного файлика вместе с вебстраницами вашего сайта. Будет выглядеть это безобразие примерно так:

<script type="text/javascript" src="http://ktonanovenkogo.ru/wp-content/themes/Organic/taber.js"></script>

Ладно. Теперь в этот js файлик нужно будет добавить очень простой код. Я буду рассказывать на своем примере, ну а вы уже адаптируете все это под свои нужды.

У меня подгружается через Аякс полтора десятка фрагментов, которые представляют из себя обычный код Html списков, содержимое которых вы сможете увидеть, промотав эту или любую другую страницу со статьей до конца. Там будет написано «Вы также можете ознакомиться с другими статьями на эту же тему:» и приведен соответствующий список.

Для этого мне понадобилось в taber.js добавить код:

 $(document).ready(function() {
$('#seoender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/seoender.php');
$('#hostender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/hostender.php');
$('#progender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/progender.php');
$('#htmlender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/htmlender.php');
$('#cssender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/cssender.php');
$('#intender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/intender.php');
$('#insrtender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/insrtender.php');
$('#obzorender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/obzorender.php');
$('#vmender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/vmender.php');
$('#denender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/denender.php');
$('#zarabender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/zarabender.php');
$('#wpender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/wpender.php');
$('#joomlaender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/joomlaender.php');
});

Первая строка открывает функцию, а последняя ее закрывает. Расположенные посредине строки однотипны и у вас их будет ровно столько, сколько фрагментов вебстраницы вы захотите подгружать через Ajax (она происходит после основной загрузки и в исходном коде этих фрагментов вы не найдете).

Давайте для примера рассмотрим первую строку:

$('#seoender').load('http://ktonanovenkogo.ru/wp-content/themes/Organic/ender/seoender.php');

Слово seoender послужит маркером, по которому потом будет подгружаться фрагмент Html кода, содержащийся в файлике seoender.php (во второй части строки как раз указывается абсолютный путь до него — ttp://ktonanovenkogo.ru/wp-content/themes/Organic/ender/seoender.php). Можете перейти по этой ссылки и посмотреть, если браузер правильно интерпретирует кодировку русских символов.

Название файлика и маркера не обязаны совпадать, но так проще все это дело запомнить и не запутаться. Ну, вот и все, почву мы подготовили, осталось только расставить в коде нашего Вордпресс шаблона элементы вызова подгрузки данных фрагментов через Аякс. Как это сделать? До безобразия просто.

Например, для вызова списка статей по тематике SEO, который я добавил в файлик seoender.php, будет достаточно вставить в нужное место шаблона вот это:

<div id="seoender.php"></div> 

И все так просто. Куда именно вставлять данную конструкцию из открывающего и закрывающего DIV, решать именно вам. Я, например, для это использовал шаблон single.php (он отвечает за формирование вебстраниц постов).

Например, если хотите, чтобы фрагмент, подгружаемый через Ajax, оказался под основным текстом (как в моем случае), то найдите фрагмент:

<?php the_content('Читать полностью'); ?>  

И вставьте дивы после него. В любом случае, пробуйте и смотрите на результат. Метод тыка — он самый увлекательный, ибо не всегда знаешь что из этого получится. Единственное что, пользуйтесь для редактирования чем-то на вроде Notepad++, описанного тут, ибо всегда сможете откатиться назад. Да и бэкап файлов хотя бы папки с используемой темой оформления сделать не помешает.

Подгружать через Аякс некоторые скрипты (не все, ибо счетчики посещений мне удавалось в свое время выводить таким образом) или коды Вордпресса у вас, скорее всего, не получится. Для этого придется гораздо сильнее изгаляться, на что мой куцый мозг пока еще не способен.

Условие вывода в постах определенных рубрик (in_category)

Описанным чуть выше способом я примерно год назад настроил вывод практически всего сайдбара (кроме списка рубрик), всего футера и большей части шапки. Если в то время кто-нибудь удосужился посмотреть исходный код любой вебстарницы моего блога, то он обнаружил бы там фактически только текст статьи, список категорий и комментарии.

Этой весной я попал под санкции (фильтр) Яндекса, после чего привел состояние сайта в исходное, ибо было не понятно за что меня покарали. Однако, за те полгода, что весь «обвес» выводился через Ajax, я никаких изменений не почувствовал (равно, как и Сергей Сосновский).

Тем не менее, у блога в его исходном состоянии не очень хорошо складывается с глубиной и временем просмотра (читайте об этом подробнее в статье про статистику посещаемости сайта). Приходится все приблуды возвращать, в том числе и списки рекомендованных к прочтению статей.

Понимаю, что есть способы реализовать это автоматически. Например, я использую Yet Another Related Posts и самодельный скрипт, позволяющий выводить посты из категории WordPress с миниатюрами. Но вручную составленные списки тоже добавляют свои «пять копеек».

Другое дело, что ссылок со страницы в этом случае получается уж слишком много, как мне кажется, и я решил опять использовать Ajax для подгрузки этих фрагментов. Думаю, что с моей мотивацией и аргументацией можно считать разобрались. Осталось только решить задачку.

Мне нужно выводить больше десятка различных списков на разных страницах постом, да не просто так, а с попаданием в тематику. В статьях про WordPress отображать wpender.php, про Joomla — joomlaender.php. Естественно, что для этого потребуется написать условие и поможет нам в этом тег (функция) in_category.

В качестве ее аргументов могут выступать ID или название рубрики. Лично я использовать первый вариант. Знаете, как узнать ID имеющихся у вас рубрик? Довольно просто. Заходите в админку на вкладку «Записи» — «Рубрики» и подводите курсор мыши к той из них, которая вас интересует.

В строке состояния, расположенной внизу окна браузера, вы увидите «технический» Урл этой рубрики, т.е. тот, который был до того, как вы включили и настроили ЧПУ в своем Вордпресс блоге.

Про синтаксис in_category вы можете подробнее почитать в кодексе Вордпресса. В ней допустимо использовать массивы (array), что мне очень даже подходит, ибо в постах нескольких рубрик нужно выводить одни и те же списки с помощью Аякса.

В результате, я добавил в шаблон single.php сразу после вывода текста статей такой вот код, определяющий условие вывода того или иного списка статей для прочтения в зависимости от того, какой именно рубрике принадлежит данный пост:

 <?php
if ( in_category(array('8','283','93')) ) {
    	 echo '<div id="joomlaender"></div>';
} elseif ( in_category( array( '12','284','57' ) )) {
    	 echo '<div id="wpender"></div>';
} elseif ( in_category( array( '72' ) )) {
    	 echo '<div id="vmender"></div>';
} elseif ( in_category( array( '101','305','351' ) )) {
    	 echo '<div id="zarabender"></div>';
} elseif ( in_category( array( '10','422','344','337','363','389' ) )) {
    	 echo '<div id="seoender"></div>';
} elseif ( in_category( array( '68' ) )) {
    	 echo '<div id="progender"></div>';
} elseif ( in_category( array( '79' ) )) {
    	 echo '<div id="obzorender"></div>';
} elseif ( in_category( array( '3','86','306' ) )) {
    	 echo '<div id="intender"></div>';
} elseif ( in_category( array( '22','290','292','291','404','289' ) )) {
    	 echo '<div id="insrtender"></div>';
} elseif ( in_category( array( '15','213','367' ) )) {
    	 echo '<div id="htmlender"></div>';
} elseif ( in_category( array( '409' ) )) {
    	 echo '<div id="cssender"></div>';
} elseif ( in_category( array( '307' ) )) {
    	 echo '<div id="denender"></div>';
} else {
}  ?>   

Обратите внимание, что в записи echo '<div id="cssender"></div>' не должны использоваться два раза двойные или одинарные кавычки, иначе это вызовет ошибку. Их можно экранировать, либо сделать как я.

Вроде все работает и результатами я доволен, ибо несколько подросла глубина просмотра и время проводимое читателями на сайте. Если будут вопросы, то задавайте, но учтите, что в PHP, Java Script и Ajax я по большому счету нуб. Поэтому не гарантирую, что смогу ответить.

Ну, и так же хотелось бы услышать ваше мнение по поводу использования Аякса для сокрытия ссылок от учета их поисковыми системами.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

23 октября пройдет конфа CyberMarketing по комплексному SEO, контекстной рекламе, аналитике и использованию моб-трафика

23 октября пройдет конфа CyberMarketing по комплексному SEO, контекстной рекламе, аналитике и использованию моб-трафика

14 Сен, 2015

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Этот год выдался довольно-таки неординарным для тех, кто использует каналы интернет-маркетинга для привлечения клиентов (покупателей) в свои проекты. Сам по себе цифровой маркетинг очень привлекателен возможностью четко таргетироваться на нужную аудиторию, анализировать отдачу и делать нужные поправки. Но конкуренция в этой области серьезно растет, поэтому приходится задумываться о том, чтобы повышать отдачу от вложенных средств и оптимизировать затраты.

Конференция CyberMarketing

Именно этой тематике и будет посвящена ежегодная конференция от обучающего центра CyberMarketing. Отличие ее от предыдущих мероприятий будет заключаться в расширенном подходе к продвижению бизнеса в сети. Если раньше это было только SEO, то в этот раз будут охвачены три основных направления (тренда) интернет-маркетинга 2015 года:

  1. Собственно, SEO продвижение (в его современном виде) и поисковая аналитика, позволяющая измерять отдачу от продвижения и, при необходимости, менять вектор приложения усилий
  2. Контекстная реклама, маркетинг и опять же их аналитика, ибо без этой «обратной связи» можно сейчас в два счета вылететь в трубу (высока конкуренция)
  3. Тренд этого года (и, скорее всего, последующих) — стремительный рост мобильного трафика, поэтому отдельная секция на CyberMarketing будет отведена использованию мобильных приложений и мобильной рекламы для нужд бизнеса.

Конференция пройдет 23 октября, но именно сейчас (до 23 сентября) предоставляется возможность купить входной билет со скидочкой. Мероприятие пройдет в Москве (практически в центре) на территории конгресс-парка гостинцы «Украина». Кроме трех параллельных секций с докладчиками будет работать профильная выставка, пройдет «круглый стол,» а также предоставится возможность перекусить и остаться (при желании) на фуршет.

История данной конференции начинается с 2005 года, а с 2009 она проводится ежегодно. Каждый раз собирается очень большая аудитория как профессионалов, так и тех, кому нужно продвигать свой бизнес в сети. CyberMarketing-2015 в этом году ориентировочно посетит более тысячи человек (всего предусмотрено 1200 билетов).

Хотя до начала конференции и осталось более месяца, но о целесообразности ее посещения стоит задуматься уже сейчас, тем более, что до 23 сентября можно будет приобрести входные билеты по ценам со скидкой:

Стоимость билетов на CyberMarketing доя 23 сентября

Еще раз хочу акцентировать ваше внимание, что в этом году конфа существенно расширила свои горизонты. Выступать будут по-прежнему специалисты своего дела, но их будет в три раза больше (представители поисковых систем Google и Mail.ru, руководители крупнейших компаний Рунета и авторы отраслевых блогов), ибо будет проходить три параллельных потока (3 секции в течении одного дня):

  1. SEO: все о продвижении и поисковой аналитике;
  2. Digital: контекстная реклама, маркетинг, аналитика;
  3. Mobile: мобильные приложения и реклама.

Таким образом, среди докладчиков будут представлены не только SEO-оптимизаторы (обсуждающие контент-маркетинг, аналитику, кейсы и т.д.), но и маркетологи, специалисты по качеству поиска (представляющие ведущие поисковые системы, что позволяет взглянуть на продвижение как бы с другой стороны), по контекстной рекламе (обсудят новый аукцион в Директе, способы повышения конверсии и т.д.) и по использованию мобильного трафика для решения бизнес-задач (мобильная реклама, тенденции этого рынка, мобильное SEO и т.д.).

Среди докладчиков (всего их 21) будут такие люди как:

  1. Андрей Липатцев — специалист по качеству поиска Google
  2. Дмитрий Азаренков — руководитель отдела качества поиска компании Mail.Ru
  3. Михаил Сливинский — руководитель отдела маркетинговой и поисковой аналитики
  4. Дмитрий Школьников — руководитель проектов, Таргет Mail.Ru
  5. Александр Митник — руководитель Обучающего Центра CyberMarketing
  6. Дмитрий Шахов — основатель студии «Ремарка»
  7. Владимир Антошин — руководитель отдела продаж iVengo Mobile
  8. Дмитрий Севальнев — руководитель отдела SEO и рекламы группы компаний «Пиксель Холдинг»

В заключении планируется двухчасовой «круглый стол», где будут представлены все докладчики и можно будет послушать их ответы на интересующие посетителей конфы вопросы, а также задать свои, если они появятся. Ну, а затем четырехчасовой фуршет для тех, кто приобрел билет «all inclusive». Зачастую именно на неофициальной части можно узнать что-то такое, что в обычной обстановке не затрагивается (не палится).

Также будет организовано несколько десятков выставочных стендов, где интернет-компании будут представлять свои технологии, помогающие сделать ваши проекты более успешными. Все это будет размещаться на довольно-таки приличной по размеру территории конгресс-парка:

План помещения, где будет проходить конференция CyberMarketing

Суть подобных мероприятий заключается в том, чтобы посетители начали четко понимать куда направлять бюджеты, какие инструменты использовать, как работать с аналитикой, чтобы получать качественный трафик и достигать поставленной цели – роста продаж. В интернет сейчас выходят многие и конкуренция растет. Не будете на пике знаний (не будете знать, как эффективно использовать сеть для рекламы) — считайте, что дали фору конкурентам и, возможно, проиграли.

В общем, знакомьтесь с программой конференции, изучайте и делайте для себя выводы о целесообразности ее посещения. Успехов в продвижении ваших проектов!

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Автоматическая модерация комментариев — способ раскрутки блога на Вордпресс

Автоматическая модерация комментариев — способ раскрутки блога на Вордпресс

28 Авг, 2012 | Рубрика : Плагины для WordPress

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Это очередной пост из серии «не моих». Пару статей я просто купил у профессиональных копирайтеров (это были как раз публикации на актуальные для них темы — биржи Textsale и Етхт). Ну, а еще одну статью (Комментарии для Joomla с автомодерацией и защитой от спама) разместил сам не знаю почему, ибо денег за это не брал, да и с самим продуктом этого стартапа не знаком.

Ну, а это, собственно, вторая и заключительная часть публикации от того же автора, но уже касательно борьбы со спамом в комментах блога на WordPress.

Да, и уж раз «пошла такая пьянка», то хочу посоветоваться с вами по вопросам, которые можно было бы задать представителям славного буржуйского конструктора сайтов Wix. Они тоже хотели получить обзор их сервиса на моем блоге, но я подумал, что компромиссным вариантом будет интервью, на вроде этих. Чуть подробнее напишу внизу статьи в постскриптуме.

Модерация новых комментариев в блоге и проблема Капчи

Добрый день, читатели ktonanovenkogo.ru! Я думаю многие посетители этого сайта введут собственный блог, в том числе с целью заработать, собирая вокруг него постоянную аудиторию. Спустя какое-то время, благодаря вашим непрестанным усилиям по внутренней и внешней SEO оптимизации, наполнению уникальными статьями, у блога появляются постоянные читатели и наиболее активные из них комментируют новые материалы, отвечают на отзывы других посетителей.

С этого момента у вас, как у владельца, появляется новая задача — модерировать комментарии посетителей. А именно, не допускать появление спама, офотопов и личных оскорблений комментов, т.к. подобные сообщения отрицательно могут сказаться на репутации блога и его посещаемости.

Дабы решить эти задачи, большинство бесплатных и платных CMS использует CAPTCHA и премодерацию для фильтрации спама, а компрометирующие материалы либо модерируются после публикации комментария, либо удаляются на премодерации.

У каждого из этих методов есть свои недостатки, поговорим о них.

Капча требует дополнительных усилий со стороны посетителя для написания отзыва. Причем порой бывают Капчи такой сложности, что удается их пройти только с 3-5 попыток. Каждая такая попытка увеличивает шансы того, что посетитель в следующий раз предпочтет промолчать, чем писать новый комментарий. Пример не самой простой CAPTCHA от Google:

В то же время, по исследованиям западных коллег, наличие Капчи снижает конверсию в клиенты, либо количество комментариев в блоге более, чем на 30%! Т.е. это прямые потери качественного контента, который может привлекать трафик на сайт.

Кроме того, использование CAPTCHA это тоже самое, как если бы владелец кафе предлагал посетителям швабры, тряпки и моющие средства при входе в заведение, дабы они подтерли за собой пол и стол после посещения. Т.е. используя Капчу, владелец блога перекладывает решение проблемы спама на посетителей сайта.

Ручная и автоматическая модерация на основе релевантности

Премодерация — позволяет надежно защитить от спама и ненужного контента, если ее не использовать, то к тому же появляется проблема компромата в блоге, если вовремя не уследить, то словесная перепалка между посетителями может серьезно подпортить его репутацию.

Но применение премодерации отрицательно сказывается на количестве полезных комментариев в блоге. Т.к. теряется оперативность, накал страстей, а соответственно и количество обсуждений, а вместе с этим уменьшается количество полезного контента в блоге!

Однако все эти недостатки можно устранить, применив на блоге новый подход к модерации, а именно используя плагин автомодерации сообщений “Клинтолк” для WordPress. Суть его — использование функции анализа релевантности текста коммента относительно текста статьи и предыдущих комментариев к ней для решения задач — модерации в режиме онлайн, наполнения блога отзывами соответствующего его тематике.

Предлагаю перейти от теории к практике. В целях эксперимента я взял статью про Ликпей на этом блоге. Добавил ее в свой локальный блог с установленным плагином Клинтолк, а затем последовательно добавил реальные комментарии оставленные к оригинальной статье на сайте ktonanovenkogo.ru.

В результате 8 из 9 были автоматически опубликованы, т.к. являются 100% релевантными тексту статьи. Один отзыв (сообщение №2 от пользователя Александр) попало в очередь на ручную модерацию, т.к. было не достаточно релевантно и содержало html-ссылку.

Отлично! Продолжим эксперимент. Для демонстрации полезности функции автомодерации оставим комментарий на тему не связанную со статьей, для чего используем первый попавшийся текст из сервиса генерации уникальных текстов Яндекса. К примеру такой отрывок:

Результат — сообщение отправлено на ручную модерацию, т.к. не достаточно релевантно. Автомодератор выдал резюме:

*** Сообщение запрещено к публикации. Не затрагивает тематику материала. Номер запроса 0da84bb441b8e3114fc8a60ac1985d1b. Автомодератор cleantalk.ru. ***

Следующий пример, текст стандартного спам сообщения, коих миллионы, рассылается каждый день на блоги Интернета:

Сообщение так же отправлено на ручную модерацию. Таким образом блог был избавлен не только от офтопа, но и был остановлен очередной спаммер.

Если вы ищете способы увеличения посещаемости блога, работаете над лояльностью существующих читателей или вам хотелось бы меньше времени тратить на ручную проверку новых комментариев, то автоматическая модерация — это один из способов добиться поставленных целей.

Конечно, не стоит рассчитывать на то, что ее применение даст мгновенный, головокружительный результат, но это один из небольших шагов на длинном пути к качественному контентному сайту (СДЛ).

С уважением, Денис Шагимуратов. Руководитель проекта cleantalk.ru

Про интервью с представителем конструктора сайтов Wix

P.S. Немного поясню про свою просьбу помочь придумать вопросы для интервью с представителями конструктора современных сайтов Wix. Дело было так. Как обычно, рекламодатель (их баннер сейчас размещается вторым по очереди вверху всех статей блога) хочет получить несколько больше, чем просто баннер для сайта.

Отписываясь им в ответ о том, что рекламных постов не пишу и не размещаю, вдруг обнаружил, что мне реально интересно поподробнее узнать об этом популярном в буржунете проекте. Задал ряд вопросов о монетизации, хостинге, доменах и прочих вещах. Получил на это довольно общие ответы и в результате предложил им сварганить полноценное интервью с более развернутыми ответами на интересные мне вопросы.

Представителем WIX в общении со мной выступает хорошо говорящая (пишущая) по-русски девушка по имени Алена, которая фактически отвечает за продвижение проекта в рунете (раньше работала в техподдержке этого сервиса). На наш рынок они только вышли и даже на первый взгляд видно, что Wix здорово отличается от популярных в рунете конструкторов сайтов.

Яркий он какой-то, что ли. Шаблоны очень хорошо демонстрируют, какие именно дизайны сейчас популярны в буржунете. В общем, мне это стало интересно и если получится набрать достаточно вопросов, то возможно, в обозримом будущем выкачу интервью. Надеюсь на вас, уважаемые читатели. Да, забыл сказать, конструктор бесплатный, что, собственно, и подогревает интерес.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Большой апдейт в Movebo (и все по делу)

Большой апдейт в Movebo (и все по делу)

15 Июл, 2014 | Рубрика : Как самому раскрутить сайт

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Около полугода-года назад я проводил сравнение имеющихся на тот момент на рынке систем улучшения поведенческих факторов. Участвовали в сравнении Userator, Movebo и SERPClick. Борьба за рынок по-прежнему продолжается и основные игроки вынуждены продвигать свои конкурентные преимущества и стараться нивелировать то, что предлагают оппоненты.

Сегодня я хочу поговорить про нововведения Movebo, связанные с проведенным совсем недавно апдейтом их системы. Самым важным изменением стало то, что было введено ручное выполнение заданий. Заявленная система контроля за выполнением задания не позволяет исполнителям «лениться», а также расстается с теми из них, кто уже подряжается на подобном поприще в других сервисах по работе с ПФ. Также существенно снизилась стоимость автоматического выполнения задний, что не может не радовать.

Что бросилось в глаза

Само собой, что сочетание ручного (более дорого) и автоматического (более дешевого) улучшения поведенческих характеристик вашего сайта должны принести больше отдачи. Кроме этого увеличивается естественность и точность воздействия, что должно приводить к более быстрому приближению и покорению Топа (читайте про Сео термины в приведенной статье).

Система контроля выполняемых вручную заданий ведет запись действий пользователя, выполняющего задание на вашем сайте, и вы можете сами, при желании, досконально проверить качество сего действа и в случае «фейка» высказать свое «фи». Но, насколько я понял, «бракоделы» в Movebo довольно быстро выявляются и с ними прекращается сотрудничество, что, в общем-то, логично.

Вторым значимым, на мой взгляд, нововведением в Movebo стало появление инструментов, способных существенно повысить отдачу от работы с ПФ. Дело в том, что самое главное в этом занятии — достижение эффекта максимальной естественности проводимых на вашем сайте действий. Естественные «пассы» будут засчитаны вам в плюс, но вот неестественные будут либо учтены с меньшим весом, либо не учтены поиском вовсе, что означает для вас не слишком эффективное вложение в продвижение.

Под этими инструментами я имел в виду ряд параметров, которые вы теперь можете задать через настройки системы Movebo:

  1. Тип сайта. Согласитесь, что существует множество градаций ресурсов и поведение пользователей на сайтах разных типов может кардинально отличаться. Например, на сайте подобном моему блогу, работы с ПФ должны вестись в направлении увеличения числа просмотренных пользователем страниц и времени, которое он при этом проведет на блоге (создание эффекта заинтересованности и увлеченности). Для интернет-магазина же важным будет, например, просмотр страниц с товарами, условиями доставки, контактов и, в конце-концов, прохождения всей воронки продаж. Поэтому учет типа сайта при постановке задачи исполнителю крайне важен.
  2. Тематика сайта. Вроде бы параметр похож на рассмотренный выше, но имеется в виду тут несколько другое условие. Дело в том, что за каждым пользователем интернета ведется негласное наблюдение и составляется досье, которое собирает на него поисковая система всеми доступными способами (где был, что делал, какие сайты посещал и что при этом его интересовало).

    В первую очередь поисковикам это надо для показа на нам контекстной рекламы в соответствии с нашими текущими интересами и запросами. Но в том числе эти данные могут служить и мерилом естественного поведения пользователей на вашем сайте. Movebo же при помощи этой настройки будет посылать на выполнение заданий (ручных или автоматических) только тех пользователей, кто и раньше интересовался тематикой вашего сайта, тем самым будет создаваться максимальная естественность поведения.
  3. Распределение суточного трафика. Не для всех сайтов распределение количества посетителей в течении суток будет совпадать. Следуя графику распределения, присущему именно вашему ресурсу при работе с ПФ, вы опять же будете следовать по пути максимальной естественности, ведь увеличение трафика в то время, когда обычно этого не происходит, может вызвать подозрения у поисковиков.
  4. Распределение недельного трафика. Собственно, распределение числа пользователей по дням недели может быть тоже сугубо индивидуальным (например, у кого-то в выходные спад трафика, а у кого-то, наоборот, самый пик). Соответственно и работа с ПФ должна полностью совпадать с вашим недельным графиком активности пользователей, что позволит придать ей максимальную естественность в глазах поисковых систем, ради которых мы и стараемся.

Ну и еще, что мне бросилось в глаза после апдейта произошедшего в Movebo — снижение стоимости выполнения автоматических заданий до пяти рублей за штуку в не зависимости от их характера. Ах, да, еще и добавление новых сайтов на продвижение существенно упростили (уложились в те самые пресловутые три клика-шага). Это бросилось в глаза, но может быть что-то и еще новое не усмотрел.

Данный функционал еще находится в бета-тесте, но если вы тоже хотите принять участие в тестировании этих нововведений — зарегистрируйтесь в Movebo и напишите запрос в поддержку на подключение к тестированию.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

SERPClick: продвижение поведенческими факторами

SERPClick: продвижение поведенческими факторами

28 Май, 2014

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Я уже писал о том, что такое поведенческие факторы в этом посте и приводил сравнительный анализ сервисов, предоставляющих возможность продвижения сайта при помощи поведенческих факторов. Как вы помните, SERPClick позволяет грамотно работать с данным материалом для быстрого продвижения сайта в топ. Сегодня остановимся подробнее на том, как можно использовать этот сервис и в чем состоят его явные преимущества.

Продвижение сайта в топ поведенческими факторами сводится к контенту и поведению пользователя на сайте. И для SEO специалиста это до сих пор было скользкой дорожкой: как оценить качество контента? Как удержать пользователя и заставить его посмотреть несколько страниц? Должен ли этим заниматься SEO или маркетолог?

Однако недавно появился инструмент, который позволяет нам использовать поведенческие факторы для продвижения в топ и удержания лидирующих позиций – то есть использовать эти факторы непосредственно для SEO в автоматическом режиме.

Поведенческие факторы – что это?

Работа специалиста SEO – не сахар. Стоит найти какой-то хорошо действующий на продвижение в топе инструмент, как поисковики обязательно что-нибудь выдумают, чтобы свести «на нет» усилия как минимум за последние полгода-год. Так было с нашумевшим решением Яндекса отменить ссылочное ранжирование по коммерческим запросам с 2014 года, так было с последними апдейтами Google – Пингвин и Панда – которые буквально «утопили» в своё время наши сайты и пришлось потратить немало усилий, чтобы их спасти.

Последние изменения в алгоритмах ранжирования обоих поисковиков, хотя и со своими особенностями, нацелены как раз на «выкашивание» автоматизированного SEO и движение в сторону интернет-маркетинга. Наступает глобальная эра борьбы за контент и за пользователя на сайте: в основу алгоритмов закладываются данные по так называемым поведенческим факторам, которые поисковики стараются собрать со всех сайтов и всех пользователей при помощи системы аналитики и своих браузеров.

Это колоссальные объемы — Big Data во всеоружии. Противостоять подобному технологическому натиску – сложно, практически – бессмысленно. Всё, что мы могли сделать до сих пор – это убрать «лишние» ссылки и стараться избегать чрезмерной оптимизации.

Почти сразу в связи с апдейтами началась шумиха вокруг так называемых «поведенческих факторов», которые зависят от «качества» сайта (читай – контента). Сначала казалось, что это понятие включает в себя просто трафик – люди приходят на сайт, а значит – голосуют за контент. А значит – повышается рейтинг сайта в выдаче.

На деле оказалось всё далеко не так просто. Поведенческие факторы включают в себя минимум 5 основных параметров, которые поисковики учитывают в их совокупности:

  1. CTR
  2. Количество просмотров
  3. Продолжительность сессии
  4. Глубина сессии
  5. Возврат с вашего сайта в поисковую выдачу

Почему именно эти пять? Представьте себе поведение пользователя (user behaviour), когда он нашёл в поиске полезный сайт?

  1. Он кликнул на него в выдаче – CTR
  2. Он оказался не один такой – количество просмотров
  3. Он задержался на сайте, посмотрел несколько страниц – продолжительность и глубина сессии.
  4. Он нашёл то, что ему нужно – возврат с сайта в выдачу или уход на другой сайт не произошёл.

Смоделировать подобное поведение роботами или системой накруток уже практически невозможно. Слишком рандомно поведение человека, слишком легко обнаружить скрипт или накрутки.

Получается, теперь всё, что нам остаётся – это развешивать на сайте полезный контент, улучшать юзабилити и ждать у моря погоды – то есть, пока пользователи придут и оценят это.

«Ждать у моря погоды» никогда не было выгодной тактикой SEO – поэтому компания MegaIndex разработала альтернативный инструмент управления поведенческими факторами – SERPClick. Этот инструмент говорит с поисковыми системами на их языке и позволяет продолжать продвигать свои сайты в топ в условиях заметно усложнённых алгоритмов ранжирования поисковых систем.

Как это работает?

Для того, чтобы работать с поведенческими факторами, вам нужно определить:

  1. По каким запросам сайт виден?
  2. Какова частотность запросов?
  3. Сколько пользователей должно перейти по каждому запросу, чтобы улучшить рейтинг?
  4. Где взять пользователей?
  5. Как при этом выглядеть естественно?

Пункты 1-2 можно воплотить в жизнь при помощи стандартных SEO-инструментов, 3 – можно продумать. Пункты 4-5 ни одним современным инструментом выполнить не получится по ряду причин:

  1. Пользователи должны находиться в определённом регионе.
  2. Поисковая система не должна получать сигнал от пользователя о том, что он пришёл по чьей-то просьбе.
  3. Пользователь должен совершить на сайте ряд действий – а именно, провести там некоторое время, просмотреть несколько страниц, и т.д. – иначе поведенческие факторы не только не улучшатся, а могут и пойти резко вниз, например, если пользователь открыл сайт и сразу закрыл – малое время на странице, открыта только 1 страница (bounce rate).

Таким образом получается, что «неорганизованное» поведение «купленных» пользователей на сайте приводит к плачевным результатам. Именно поэтому приходится слышать отзывы тех, кто попробовал использовать поведенческие факторы не имея достаточных навыков – что они якобы «не работают» или вредят. Да, действительно, если упустить хотя бы одну деталь – ПФ работать не будут.

Система SERPClick учитывает все изложенные выше тонкости и раздаёт пользователям конкретные задания которые улучшают поведенческие факторы и непосредственно влияют на продвижение сайта в топ. Задания основываются на предварительном анализе вашего сайта, который система проводит автоматически, выявляя все запросы, по которым сайт виден и назначая нужное количество кликов для того, чтобы продвижение было естественным для поисковой системы.

Принцип работы SERPClick прост: к вам приходят заинтересованные в вас пользователи и улучшают ваши SEO показатели. Однако, принимая во внимание, сколько этих показателей учитывают теперь поисковые системы – технология SERPClick действительно уникальна, потому что позволяет влиять на все 5 критических параметров поведенческих факторов.

Как начать использовать поведенческие факторы для SEO?

Первым делом убедитесь, что вы уже используете стандартный набор SEO-инструментов.

  1. У вас есть семантическое ядро
  2. Оптимизированный контент
  3. Ссылочная база

Также, пообщайтесь напрямую с маркетологом проекта на тему улучшения юзабилити и способов удержания пользователя на сайте. После начала использования SERPClick к вам на сайт придут и другие пользователи, которых надо будет удерживать, чтобы не сдавать позиций по поведенческим факторам.

Зарегистрируйтесь в системе и введите ваш сайт.

Система SERPClick самостоятельно сделает всё необходимое:

  1. проведёт оценку запросов
  2. распределит количество кликов для сайта
  3. сформирует месячный бюджет
  4. раздаст задания пользователям
  5. соберёт статистику продвижения

Вы можете перевести SERPClick в ручной режим на любом этапе построения или проведения кампании и внести соответствующие корректировки. В случае, если вносимые корректировки противоречат алгоритму поисковой системы и могут негативно сказаться на ранжировании, SERPClick будет предупреждать вас о возможной угрозе и предлагать альтернативы.

SERPClick – готовое решение для управления поведенческими факторами. Помните, стандартные SEO инструменты продвигают вас в топ, но только поведенческие факторы позволяют сохранять позиции. Начните работу с SERPClick прямо сейчас. Регистрация бесплатна, время создания поведенческой компании в автоматическом режиме занимает не более 15 минут и не требует специальных навыков.

ПОПРОБОВАТЬ→

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Послушай Платона и сделай правильно

Послушай Платона и сделай правильно

24 Авг, 2015 | Рубрика : Как самому раскрутить сайт

§1 Платон всегда прав

§2 Если Платон не прав, смотри §1

Данный материал и статистические данные подготовлены командой Wizard.Sape. Эта система оперирует весьма обширной базой сайтов, на которой можно делать вполне себе репрезентативные выкладки.

Сначала виртуально — что говорят о нём представители Яндекса:

  1. Алгоритм, запущенный 15 мая 2015 года, проявляет себя как фильтр, который понижает позиции сайта в поисковой выдаче Яндекса по всем запросам на 10 и более позиций.
  2. Накладывается за большое число «неестественных» ссылок или за их высокую долю в соотношении естественные/неестественные.
  3. Автоматически накладывается и автоматически снимается.
  4. Если сайт не под фильтром, то все ссылки, купленные на биржах, необходимо немедленно снять.
  5. Если сайт под фильтром, то все ссылки, купленные на биржах, необходимо немедленно снять.
  6. Покладистые оптимизаторы, снявшие все ссылки, заслужат сохранение доминусинских позиций.
  7. Фильтр направлен на борьбу с одним из самых эффективных инструментов продвижения — покупные внешние ссылки.

При таких раскладах должны выиграть все, кроме систем по продаже ссылок. Владельцы сайтов направят свои «огромные» ссылочные бюджеты на развитие ресурсов, оптимизаторы, вместо изнурительного отбора ссылок, будут «курить бамбук» и раздавать задания копирайтерам, копирайтеры утонут в работе и купят каждый по «Лексусу» (не нравится «Лексус»? тогда по «Майбаху»), Яндекс получит качественные сайты для формирования выдачи, и все честные оптимизаторы будут премированы резиновыми… впрочем, этого, кажется, не обещалось. Но зато сайты, созданные для продажи ссылок, исчезнут как класс, что сделает Рунет образцом чистоты, бескорыстия и нестяжательства по сравнению с другими национальными зонами.

Гладко было на бумаге, да забыли про овраги

Увы, реальность оказалась сильно отличающейся от райских кущ, обещанных Яндексом. Фильтр утюжит Рунет уже 3 месяца, и за это время у сервисов продажи ссылок накопилась некоторая статистика. Wizard.Sape — система комплексного продвижения сайтов — решил ей поделиться.

Мы, как никто другой, заинтересованы в том, чтобы наши клиенты не попадали под санкции. Чтобы сделать такие случаи единичными, а впоследствии исключить вовсе, наши аналитики после каждого апдейта отслеживают ситуацию со всеми продвигаемыми в системе сайтами: наблюдают, кто попал под санкции, кто из-под них вышел, исследуют все процессы, включая закупку ссылок, в их динамике и т.п. На основании всеохватывающего анализа мы меняем наши стратегии. А если надо, проводим эксперименты.

Еще до запуска Минусинска, кандидатам на попадание под него были разосланы уведомления от Яндекса через сервис Яндекс.Вебмастер. Для пущего пиара о грядущих репрессиях и благах, которые станут альтернативой репрессиям, было объявлено за месяц до первой волны нового фильтра на международной конференции по интернет-маркетингу «Неделя Байнета».

Сайты, получившие уведомления от Яндекса, нами были выделены в отдельную группу для анализа. Важно было понять, почему эти сайты получили письма, а другие, мало чем отличающиеся, нет.

Всего получили оповещения 0,71% от всех проектов в системе.

На основании анализа были сделаны некоторые выводы и для проведения эксперимента созданы две контрольные группы сайтов. Для первой группы были применены новые ссылочные стратегии, для второй группы использовались старые. В результате, первая волна Минусинска не «накрыла» ни один сайт первой группы. После этого мы постепенно стали распространять новые стратегии на остальных клиентов и сразу же использовать их для новых сайтов в системе. Был разработан алгоритм чистки ссылочной массы для сторонних и внутренних клиентов.

Вот как в итоге выглядит динамика попадания под Минусинск сайтов из Wizard.Sape:

Сайты попавшие под Минусинск

С появлением новых данных мы вносим изменения в наши алгоритмы размещения ссылок, тем самым непрерывно улучшая их. Поэтому количество наших клиентов, попавших под новый фильтр, неуклонно снижается.

Клиенты, чьи сайты оказались под Минусинском оказываются перед выбором:

  1. Послушать «Платона» и снять все ссылки.
  2. Послушать аналитиков и ограничиться чисткой ссылочной массы.

Не станем скрывать, некоторые наши клиенты, поверив Яндексу, отказались от продвижения в Wizard.Sape. Но другие остались и с нашей помощью (эта помощь бесплатна) чистят ссылочную массу сайта. Независимые сервисы аналитики и оценки видимости сайтов помогли нам подсчитать, сколько ушедших клиентов избавились от санкций поисковой системы по сравнению с теми, кто стал применять рекомендованные нами методы чистки ссылочного профиля:

Снятие фильтра Минусинск

В результате мы видим, что сайты, оставшиеся в системе, избавились от санкций быстрее. А вот авантюрное снятие всех ссылок, по статистике, вовсе не гарантирует скорый выход из-под Минусинска.

Не менее важно и то, что о заявленном Яндексом восстановлении позиций для сайтов, снявших ссылки, нет и речи. Та же статистика независимых сервисов показала, что сайты, сохранившие часть ссылок, вышли из-под фильтра, сохранив больше, чем снявшие все ссылки:

Восстановление позиций после Минусинска

«Кусок» справа значительно больше, правда? Разумный подход к ссылочной массе позволяет восстановить больше половины того, что было до наложения санкций.

Megaindex за статистику по эффективным показам сайтов.

Подведём итоги

Ссылки, безусловно, остаются важным фактором ранжирования. Аналитики Wizard.Sape не нашли фундаментальных изменений в принципах ранжирования Яндекса. Спешить отказываться от эффективного инструмента не стоит. Снятие всех ссылок отдаляет сроки выхода сайта из под санкций, а у вышедших снижает количество слов, возвращающихся в ТОП.

Успешного продвижения,

команда Wizard.Sape.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Страшилка Яндекса в действии. План Б – комплексное продвижение

Страшилка Яндекса в действии. План Б – комплексное продвижение

16 Апр, 2014 | Рубрика : Как самому раскрутить сайт

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Если посмотреть на недавние события рынка продвижения сайтов, то можно сказать, что мир SEO основательно «струхнул» дважды: в декабре – когда Александр Садовский (руководитель отдела поиска Яндекса) анонсировал готовящуюся отмену ссылочного ранжирования, и в марте – когда объявили о свершившемся изменении алгоритма.

После этого посыпались многочисленные исследования аналитиков – на Серче, в частных блогах и блогах SEO-компаний. Катастрофы никто не заметил. Серьезного коллапса, который повлиял бы на диалог с клиентом – тоже. Впрочем, месяц – это ничто, если говорить о революции, затеянной Яндексом.

Однако — береженого Бог бережет. И беспокойство пользователей и заказчиков заставили разработчиков SEO-продуктов перевести предлагаемые услуги в новое русло – комплексное продвижение.

Комплексное продвижение подразумевает работу по трем направлениям сразу:

  1. Внутренняя оптимизация сайта. Ничего не изменилось, правда? Оптимизация сайта по прежнему рулит и это первое, о чем следует подумать после покупки доменного имени. И главное при этом учитывать потребности пользователей вашего сайта.
  2. Ссылки (арендные и вечные). Даже не думайте снимать ссылки. Обрушите ссылочную массу – обрушите позиции. Эксперимент Яндекса затянется не на один год. А топ нужен сейчас. Поэтому наращивать ссылочное можно и нужно, но предъявите особенные претензии к качеству ссылок. Внимание на вечные ссылки, статейное продвижение, площадки-доноры, внушающие доверие — все, что делает ссылочный профиль сайта максимально естественным.
  3. Поведенческие факторы. Кто-то называет их альтернативой ссылкам, но это в корне неверное мнение. Они способны усилить позиции вашего сайта – подобно эффекту синергии, но надеяться на только на ПФ или СФ не приходится.

Принцип действия ПФ (поведенческих факторов)

Когда пользователи «любят» ваш сайт – поисковые машины это видят. Пользователь прокликал всю выдачу, но остановился на вашем сайте и провел там достаточно времени, чтобы получить ответ на свой вопрос. ПС это фиксируют и помечают: ваш сайт релевантен запросу, а значит, вполне заслуживает хорошего места в выдаче.

Есть одна проблема: нет топа – нет хороших поведенческих. Пользователь вас просто не видит, а значит, не способен оценить контент. Замкнутый круг.

На помощь приходит модный инструмент «продвижение за счет улучшения поведенческих факторов». Изобретен специально под сложившуюся ситуацию.

Предложения на рынке существуют разные. Есть роботы с искусственными профилями и есть реальные люди, которые за деньги готовы благоприятно влиять на ваши поведенческие. За автоматическую накрутку Яндекс планирует жестко карать. А за накрутку живыми людьми сделать это гораздо сложнее – трудно поймать. Ведь способа отследить, делается ли это на заказ или реальная практика, нет.

Механика действий «засланных казачков» проста. Пользователь вводит в поисковую строку нужный вам запрос, просматривает несколько сайтов из выдачи, не задерживаясь на них, и, в конечном итоге, выбирает ваш – как ресурс, решивший все его проблемы. Вас листают, читают, возможно, комментируют. Итог – пометка у поисковика: сайт релевантен запросам пользователя.

Компания Webeffector, которая предлагает эту услугу, любезно предоставила график – динамику позиций сайтов (их урлы приведены под графиками), использующих так называемый модуль ПФ.

Выглядит неплохо. Приведенная ниже кнопочка позволит начать продвигаться ваш сайт с использованием данного метода:

Из ультра последних ноу-хау разработчиков этой компании – инструмент усиления ссылок, в рамках модуля ПФ. Принцип следующий: вы размещаете ссылки, а умный движок организовывает реальные переходы по ним (живые ссылки в глазах Яндекса будут куда как более значимыми и они, скорее всего, будут работать и после анонсированных поисковиком изменений).

Поскольку сервис предложил этот инструмент совсем недавно (около трех недель назад) статистики о результатах пока нет. Как только появятся, надеюсь, у меня будет возможность их опубликовать.

Если вы решитесь сами попробовать модуль ПФ, то буду рад вашим отзывам. Хотелось бы получить максимально полную картину об этом решении.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Ранжирование без ссылок в Яндексе — как это отразится на всех нас

Ранжирование без ссылок в Яндексе — как это отразится на всех нас

15 Мар, 2014 | Рубрика : Как самому раскрутить сайт

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. На днях проходила SEO конференция в Минске, где Александр Садовский (руководитель отдела поиска) в довольно-таки пафосной манере произвел отключение ссылок при ранжировании по некоторым коммерческим запросам в московском регионе.

Затронутыми оказались не все тематики по Москве, а только лишь некоторые из них (недвижимость, туризм, электроника, сео, одежда, красота и юристы).

О том, насколько сильно поменялась выдача по этим тематикам в Московском регионе и стала ли она лучше или хуже, судить, как мне кажется, еще рано (должно пройти несколько апов), хотя на многих SEO форумах идет интенсивное обсуждение этого вопроса, высказывают различные мнения и наблюдения. Думаю, что нужно будет подождать и посмотреть, что из всего этого выйдет.

Что будет с поведенческими факторами

Что примечательно, в тот же самый день (12 марта 2014 года) на той же самой конференции выступал еще один представитель Яндекса с докладом под названием «Ты, робот«. Как вы думаете, о чем там говорилось? Правильно, о поведенческих факторах и о том, как Яндекс умеет отслеживать роботов. Правда почему-то основной упор делался на капчу, а про фильтрацию роботов, имитирующих поведение пользователей, было сказано как-то расплывчато.

В этом плане мне понравился анализ данного доклада размещенный на блоге Movebo (ко мне их рассылка иногда сквозь суровый спам-фильтр Гмайла прорывается), где были подняты довольно-таки правильные вопросы:

  1. Получается, что Яндекс при отделении «зерен от плевел» (реальных пользователей интернета от ботов, которые их имитируют) использует 2000 факторов и вероятность ошибки практически сводится к нулю. Зачем ему тогда банить тех, кого он в этом злом умысле заподозрит? Было бы логичнее, как и раньше, просто нивелировать эти накрутки.

    Дело в том, что таким образом они дают в руки оптимизаторов и вебмастеров мощное оружие по истреблению конкурентов. Закажут вас «спаммерам» и их ботнеты отправят ваш «белый и пушистый» сайт с замечательным функционалом и чудовищно полезный для людей в бан на год в Яндексе. Инструмента по типу гугловского Дисавоу, который бы мог нивелировать подобное воздействие, наверное, сделать не возможно.

  2. Акцент в докладе делался на ботнеты (армии зомбированных компьютеров беспечных пользователей интернета словивших трояна), а перечислены были системы, которые я в конце прошлого года сравнивал между собой (Userator, Movebo и SERPClick). Однако, там ботнеты не используются — либо живые люди ходят, либо программы запущенные на их компьютерах.

В общем, проблем прибавится и тем вебмастерам, кто никогда ни ссылками, ни поведенческими факторами манипулировать не пытался, спать спокойно не получится. Сотня-другая копеечных ссылок с ГС, купленных вашими конкурентами, запросто загонит ваш сайт под Пингвин в Гугле, а аренда ботнета «на часок» гарантированно расчистит путь к Топу в Яндексе. Печалька, однако…

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Оптимизация поведенческих факторов без их накрутки. Возможно? Да, если автоматизировать процесс посредством «прямых рук»

Оптимизация поведенческих факторов без их накрутки. Возможно? Да, если автоматизировать процесс посредством «прямых рук»

11 Ноя, 2014 | Рубрика : Как самому раскрутить сайт

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Что такое поведенческие факторы (ПФ)? Термин последнее время используется повсеместно и его понятие стало несколько размытым. По сути, эти факторы позволяют поисковым системам оценить отношение посетителей к сайту, т.е. использовать «общественное мнение» в ранжировании. Если говорить о способах измерения этого самого мнения, то их всего два:

  1. Подсмотреть за пользователем в поисковой выдаче, чтобы измерить CTR для сайтов по разным поисковым запросам, и посмотреть по какому из них кликнут последним и не вернутся больше в выдачу (так называемый LastClick), найдя полностью исчерпывающий ответ на страницах этого сайта.
  2. Подсмотреть за пользователем непосредственно на сайте. Измерение «общественного мнения» в этом случае происходит по косвенным параметрам: «Показатель отказов», «Глубина просмотра», «Время проведенное на сайте», «Повторные посещения».

Бытует мнение, что первая группа показателей (снятая в выдаче) является более важной. Но с точки зрения здравого смысла, приоритет все же должен отдаваться косвенным параметрам, измеряемым прямо на сайте. Иначе о появлении новых, но сверхинтересных пользователям сайтов поисковые системы будут узнавать одними из самых последних, ибо их видимость в поисковиках равна нулю, а значит ни CTR, ни LastClick для них посчитать не возможно. А вот анализируя внутренние метрики «общественного мнения», поисковики могут очень быстро сделать вывод о значимости данного ресурса для пользователей.

Следовательно, оптимизируя поведение пользователей на вашем сайте, вы улучшаете отношение к нему поисковых систем. Обращу ваше внимание, что именно оптимизируете (стремиться к этому должен каждый владелец сайта), а не накручиваете. Накручивать можно только естественным образом, например, публикуя на своем блоге «сногшибательные» посты, которые принесут и трафик, и улучшат поведенческие. Это накрутка? Да, ведь вы же преследовали корыстную цель. За нее накажут? Нет, скорее похвалят. Но сегодня мы поговорим немного о другом способе.

В чем суть метода оптимизации ПФ без накрутки?

Накручивать поведение пользователей на сайте какими-либо способами, отличными от естественных (улучшение юзабилити, навигации, добавление интересных материалов или сервисов), всегда является несколько рискованным мероприятием. Поисковые системы, имея в своем распоряжении картину всего интернета, очень легко могут заметить отклонения поведения ваших пользователей от поведения тех, кто заходит на другие сайты вашей же тематики. Накажут или нет? Не знаю.

Однако, есть способ оптимизации поведения пользователей на сайте отличный от накрутки, и в то же время не требующий дорогостоящих вложений в улучшении юзабилити (хотя, одно другому не мешает). Он позволяет повысить «среднюю температуру» по больнице. Смотрите, поисковый трафик вашего сайта формируется из посетителей, перешедших как по высокочастотным запросам, так и по средне- , и низкочастотным. Понимаете их отличия хотя бы в общих чертах? Если нет, то перейдите по приведенной ссылке.

Так вот, вам, наверное, понятно, что самые плохие поведенческие характеристики покажут пользователи, пришедшие к вам по ВЧ запросам, ибо они и сами толком не знали, что хотели увидеть в ответ на свой запрос (допустим, «телевизор»). У тех, кто пришел по СЧ запросу, интерес к вашему сайту в среднем будет больше и поведенческие выше. Но, априори, самые няшные посетители это те, кто вводил к поиске НЧ запросы (развернутые) или ультра НЧ.

Понимаете к чему я клоню? Улучшение поведенческих, по сути, это привлечение (а не накрутка) на сайт пользователей, которые реально хотят почитать ваши статьи или хотят по нему полазить, но при этом не будут «подсадными». Понятно, что во всем интернете таких заинтересованных пользователей будет немало, но как их найти и направить в нужное русло? Вот вопрос.

Общее мнение о вашем сайте у поисковых систем складывается из совокупности всех параметров, в том числе и средних показателей поведения пользователей на сайте. Если весь ваш поисковый трафик будет состоять из ВЧ и СЧ, то «отказов» (уходов сразу после захода) будет много, а среднее время и число просмотренных страниц будет наоборот малым. Что делать? Ну, правильно, подключать по максимуму так называемый «длинный хвост» запросов. Кстати, по статистике, процентов восемьдесят посетителей поисковиков вводят именно запросы из длинного хвоста.

Длинный хвост НЧ-запросов (полнота собранного вами семантического ядра) — это вообще замечательная со всех сторон вещь (читайте о его значимости в статьях про смерть SEO и про то, нужны ли ссылки для продвижения). НЧ-запросы, присутствующие в большом количестве, улучшают общую картину поведения пользователей на вашем сайте и ко всему прочему являются гораздо более конвертируемыми (продающими), нежели ВЧ или СЧ. Но есть одно но, о которое разбиваются все благие намерения владельцев сайтов — собрать длинный хвост довольно сложно в техническом плане.

Вот мы и подошли, что называется, к кульминации сегодняшнего поста. На сцене появляется герой, который позволит решить описанную выше ситуацию в пользу владельца сайта, при этом ничем его особо не озадачивая, разве что тратой некоторой дополнительной суммы денег. Но для владельца коммерческого сайта трата средств на продвижение и привлечение целевой аудитории является обычным рабочим моментом. Тут главное, чтобы вложения не были бы напрасными. Собственно, именно в этом мы и постараемся разобраться чуть ниже.

Как работает оптимизация поведенческих факторов в сервисе Rookee?

Наш сегодняшний герой многим из вас хорошо знаком. Это те самые «прямые руки», о которых я упомянул в заголовке статьи. То есть сервис автоматического продвижения сайтов Rookee, который читается именно как «руки». Конечно же, в первую очередь «руки» это ссылочный агрегатор (закупает вечные и временные ссылки по выбранной вами стратегии), но вы можете активировать в его настройках функцию ОПФ (оптимизации поведенческих факторов).

Правда, подключать ОПФ имеет смысл только в том случае, если у вас на сайте установлена Метрика. Это необходимо для того, чтобы Яндекс своевременно получал информацию о ваших замечательных и постоянно улучшающихся поведенческих факторах (он, конечно же, и по альтернативным каналам что-то собрать может, но так вы гарантируете его стопроцентную осведомленность).

Кроме этого, следует дать сервису Rookee доступ к собранной Метрикой или Аналитиксом информации. Это нужно не просто так, а чтобы все заработало как часы. Смотрите сами.

Именно для отбора нужных НЧ запросов (перспективных), а также для отслеживания ситуации с поведением пользователей по ним переходящим и понадобится доступ к статистике вашего сайта. НЧ-запросы из длинного хвоста, кстати, берутся далеко не все, а именно те, которые:

  1. Уже вплотную подобрались к Топу и закинуть их туда можно будет «одним движением»
  2. Не являются шибко конкурентными, чтобы не усложнять осуществление первого пункта
  3. Уже сейчас по ним переходят пользователи (на ваш сайт или на сайты других пользователей, добавленных в систему Rookee), которые «хорошо себя ведут»

Т.е. ОПФ позволяет продвигать в Топ наиболее эффективные запросы из длинного хвоста. Ну и как любой запрос из длинного хвоста они обладают хорошими конверсионными свойствами, что поможет и продажи повысить, и в глазах поисковиков начать выглядеть просто раем для пользователей (хорошая глубина переходов и большое время на сайте). Фактически, это все очень похоже на трафиковое продвижение.

Эти самые отобранные запросы (обычно, их несколько сотен) «руки» начнут продвигать путем простановки ссылок с ресурсов схожей тематики. В качестве анкоров (текста ссылок) будут использоваться слова подобранных НЧ-запросов, что в свою очередь позволит расширить анкор-лист вашего ресурса и его видимость в выдачах поисковиков, что опять же есть «гуд».

Кстати, не ссылками едиными живет ОПФ. «Руки» активно используются для привлечения заинтересованных пользователей (особенно в первые месяцы, когда ссылки, проставленные на нужные НЧ-запросы, еще не дали эффекта — SEO, как вы понимаете, имеет некоторую инерцию) используют RTB (относительно новая технология в индустрии онлайн-рекламы, которая представляет собой аукцион рекламных объявлений в реальном времени).

Используя подключенные к системе Rookee сервисы статистики (Метрику или Аналитикс, установленные у вас на сайте), модуль ОПФ осуществляет постоянный мониторинг продвигаемых НЧ-запросов и анализирует поведение приходящих по ним посетителей. На основе этих данных система принимает решение:

  1. О снятии с продвижения неперспективных НЧ-запросов, которые по той или иной причине в Топ упорно не лезут. Зачем попусту упираться и сливать бюджет, тем более, что длинный хвост по любой тематике получается огромным и всегда можно найти альтернативу.
  2. О снятии с продвижения НЧ-запросов, которые после попадания таки в Топ не послужили на благо улучшения поведенческих факторов вашего сайта. Для этого сравнивают ПФ (время на сайте, глубина просмотра и показатель отказов) пользователей, приходящих с конкретного канала или запроса, и если их поведение лучше, чем средний ПФ по сайту, то это те самые пользователи. Если нет, то такие каналы и запросы отсеиваются.
  3. О сборе и добавлении нового блока НЧ-запросов, когда система видит, что еще не достигнута желаемая планка среднестатистического поведения поведения пользователей на вашем сайте. Оптимальные поведенческие факторы рассчитываются для каждого сайта индивидуально на основе данных о поведенческих показателях ресурсов таких же тематик, успешно продвигающихся в поисковых системах по аналогичным запросам.

Кстати говоря, именно данная функция является одной из ключевых особенностей ОПФ в сервисе Rookee: то, что заняло бы у вас несколько рабочих дней (или недель), сервис делает быстро и регулярно. Автоматизация процесса, и этим все сказано.

Но у дотошного читателя уже наверняка в голове зреет вопрос: нужно ли создавать новые страницы на сайте под те дополнительные НЧ-запросы, что подобрали «руки» для оптимизации ПФ? Для сотен запросов это будет достаточно утомительно и накладно. Спешу вас уверить, что система печется о вашем душевном равновесии, поэтому все дополнительные запросы подбираются исходя из уже существующего у вас на сайте контента (например, могут использоваться подзаголовки в качестве источника этих самых дополнительных НЧ).

Если достаточного количества уникального и полезного контента у вас на сайте нет (при этом вы наверняка не читали мою статью про то, как гибнут сайты без текста), то и покупка ссылок, и оптимизация ПФ вам попросту не нужны. Только деньги понапрасну потратите. Продвигать можно только сайты, а они для поиска прежде всего текст. Нет текстов, нет сайта, нет продвижения.

Какова цена вопроса и каких результатов следует ожидать от оптимизации?

Собственно, после того, как мы в общих чертах разобрались с используемыми для оптимизации поведенческих факторов методами, стоит сказать пару слов про ценообразование. Цена за услугу ОПФ напрямую зависит от количества страниц вашего сайта в индексе. При индексации новых страниц она будет изменяться, но не чаще, чем раз в три месяца, и после согласования с вами. Не совсем понятно? Тогда давайте чуток поподробнее.

Расценки за ОПФ (оптимизацию поведенческих факторов) в Rookee формируются:

  1. На основании конкурентности вашей тематики и региона продвижения. Понятно, что в зависимости от тематики стоимость привлечение посетителей может существенно отличаться.
  2. На основании размера (количества страниц) сайта. Если сайт имеет несколько страниц, то много НЧ-запросов для него не придумаешь.
  3. В зависимости от посещаемости сайта. Ведь чем больше будет у вас посещалка, тем больше качественного трафика придется привлекать, чтобы положительные изменения в поведении пользователей стали заметны Яндексу на общем фоне. Сколько понадобится привлечь пользователей, чтобы улучшить поведенческие характеристики вашего сайта до уровня конкурентов в поиске? Тут нужно понимать, что поисковые системы учитывают не количество трафика, а его качество. Rookee приводят как раз тех пользователей, которые улучшат средние показатели времени на сайте, отказов и глубины просмотра. То есть именно те показатели, которые учитывают поисковики при определении позиций сайта.

Кстати, получается, что оптимизация ПФ молодого сайта в «руках» обойдется достаточно дешево, потому что к вам на сайт нужно привлечь не так уж и много «хороших пользователей», чтобы изменения стали заметны Яндексу (посредством установленной у вас Метрики). Такое небольшое количество пользователей найти и проще, и дешевле. В общем, некоторый стимул получается для владельцев молодых проектов, у которых денежных средств по началу не так уж и много.

Кроме этого молодые сайты, с еще достаточно низким или практически нулевым уровнем трафика, после подключения услуги ОПФ получат и существенный прирост посещаемости (аж в два раза, если судить по данным, приводимым сервисом Rookee по истечении нескольких месяцев после запуска этого модуля).

При этом трафик увеличивается за счёт реальных посетителей (которые будут совершать конверсионные действия), пришедших либо из поиска по НЧ-запросу из длинного хвоста (неосновному семантическому ядру, собранному «руками»), либо тех, кто пришёл из RTB. В общем, живые посетители (побочный продукт оптимизации Пф), которые с высокой долей вероятности могут конвертироваться в покупателей.

Что примечательно, происходит рост позиций и по основному семантическому ядру сайта. Позиции в среднем улучшаются на 20 пунктов в Яндекс и на 10 пунктов в Google в течение первого месяца. А это очень даже прилично.

Подытоживаем

Наверное, для многих уже стало очевидным фактом, что сейчас рулит комплексное продвижение, ибо нет такого фактора ранжирования, который бы вытащил сайт в Топ при полном провале по всем остальным фронтам. Раньше таким фактором были ссылки, но сейчас они лишь один из многих инструментов продвижения. Нужно и внутренней оптимизацией заниматься (контент, навигация, дизайн), и поведенческие подтягивать, и про ссылки не забывать. Важна сейчас буквально каждая мелочь.

Резюмируя предыдущий абзац — максимальный результат дает совмещение оптимизации поведенческих факторов со ссылочным продвижением и оптимизацией текстов. По поводу ПФ. Их лучше оптимизировать (привлекая именно тот трафик, который показывает хорошие поведенческие), а не накручивать (накликиванием выдачи, посещением сайтов роботами или людьми по определенным заданиям).

Оптимизация предложенная в Rookee хорошо отразится не только на ПФ, но и на общей конверсии сайта и его SEO. Сводится она к подбору и продвижению перспективных НЧ, к привлечению целевого трафика с RTB и корректировки первых двух составляющих по фактическим результатам для конкретного сайта, взятых из данных, собранных Метрикой или Аналитиксом. Подобную работу очень трудно выполнять вручную, поэтому автоматизация предложенная сервисом стоит тех денег, что вы за это заплатите.

Благодаря использованию RTB, эффект от оптимизации ПФ наступает практически сразу, а своего максимума достигает через полгода, когда полностью учтутся все купленные на НЧ ссылки и эти самые запросы запрыгнут в Топ. Эффект этот обещает быть продолжительным, ибо позиции в Топе будут подкреплены не только ссылками, но и хорошими ПФ. Плюс вы получаете дополнительный поток целевых посетителей, которые могут окупить ваши затраты на продвижение. Ну и улучшение позиций по всем продвигаемым запросам (основному ядру) тоже стоит упомянуть.

По сути, в ОПФ за минимально возможную цену вы получаете естественное улучшение поведенческих факторов, рост по позициям и прирост целевого трафика. Полных аналогов услуги нет, в основном все предлагают именно накрутку поведенческих факторов, которая не может дать таких результатов. ИМХО.

По сему рекомендую на собственном опыте ознакомиться с системой ОПФ (оптимизации ПФ) в сервисе Rookee и сделать свои собственные выводы. Надеюсь, что поделитесь ими в комментариях.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс

Добро пожаловать в Минусинск!

Добро пожаловать в Минусинск!

22 Май, 2015

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. В конце прошлой недели был запущен новый алгоритм Яндекса «Минусинск», призванный понижать в поисковой выдаче сайты за использование SEO-ссылок.

Минусинска

О планирующемся запуске Александр Садовский говорил еще месяц назад на Неделе Байнета и обещал, что на этот раз санкции коснутся всех сайтов (любых тематик и регионов), активно использующих покупные ссылки для продвижения.

Однако многие участники SEO-сообщества, привыкшие к частым «страшилкам» от Яндекса поначалу восприняли угрозу скептически, но, судя по активности на специализированных ветках на форумах, на этот раз Садовский не шутил. Многие из тех, кому за месяц до раскатки высылались уведомления в аккаунте webmaster.yandex.ru, уже потеряли свои позиции в ТОПе.

Что делать?

В первую очередь логично было бы последовать совету Яндекса и оптимизировать ссылочную массу, т.е. избавиться от «мусорных» ссылок, дешевых временных ссылок, бэклинков, размещенных на пессимизированных и не трастовых сайтах, ссылок вне текста, не по тематике вашего ресурса и т.п.

Однако, в случае значительного резкого «похудания» ссылочного профиля, сайт так же может потерять позиции и не только в Яндексе, но еще и в Google, т.к. ссылочная масса и по сей день является основным показателем популярности ресурса и органические внешние бэклинки по-прежнему значительно влияют на ранжирование.

Решением в данном случае может стать усиление «правильных» ссылок — увеличение трафика на сайт с трастовых доноров по качественным вечным ссылкам. Таким образом можно попытаться «добрать» общий «вес» ссылочного профиля после удаления плохих бэклинков. Данная услуга на сегодня предоставляется несколькими SEO-сервисами, можете воспользоваться, к примеру, инструментом «Усиление ссылок» в Movebo.

Однако очевидно, что после раскатки «Минусинска» расстановка сил в поисковом ранжировании неизбежно изменится. По многим коммерческим тематикам ТОПы уже обновились, старые лидеры откатились назад, а на первые страницы попали более подготовленные к изменениям новички.

И сейчас, как никогда важно, чтобы не потерять возможность выбраться на вершину поисковой выдачи, вовремя озаботиться подключением и настройкой безопасных альтернативных методов продвижения. Один из таких методов — продвижение за счет социальных сигналов и в данном посте я бы хотел провести обзор нового функционала «Социальные факторы» в Movebo.

Теперь при помощи Movebo Вы можете влиять на позиции Вашего сайта в выдаче, используя социальные сигналы, — упоминания о Вашем ресурсе в социальных сетях. Данный вид продвижения становится наиболее актуальным в свете понижения уровня влияния обычного ссылочного продвижения.

Как это работает?

Социальные факторы

Пользователи с подтвержденными социальными профилями (в Movebo реализована двухэтапная система модерации страниц исполнителей) делятся информацией о вашем сайте на своих страницах и создают активность в комментариях (непосредственно на сайте или в социальных сообществах), тем самым быстро наращивая ссылочную массу и увеличивая естественный трафик из соц. сетей, что косвенно влияет и на внутрисайтовые поведенческие.

На данный момент для накрутки в системе доступны три основных для России социальных сети: ВКонтакте, Одноклассники и Facebook, а в самое ближайшее время будут так же добавлены Twitter, Instagram и G+.

В качестве основных преимуществ перед остальными аналогичными сервисами в функционале Movebo можно выделить следующие особенности:

  1. Реальные пользователи с реальными профилями в соц. сетях (каждый профиль проходит модерацию);
  2. Различные источники трафика: серферы выполняют задания, как со стационарных компьютеров, так и с мобильных устройств;
  3. Система отчетности — подробные отчеты со скринами по каждому заданию;
  4. Двухэтапная система модерации отвечает за то, чтобы репосты и комментарии оставались на страницах исполнителей именно столько, сколько вам нужно.

Инструмент «Социальные факторы» только что прошел стадию бета-тестирования и теперь доступен всем пользователям системы. Создатели обещают оказать помощь в настройке кампании всем обратившимся и одарить бонусами и скидками первых пользователей функционала.

Поделиться в соц. сетях

Опубликовать в Facebook
Опубликовать в Одноклассники
Опубликовать в Яндекс
Страница 4 из 99« Первая...23456...102030...Последняя »