Сайт рискует попасть под фильтр только потому, что у него слишком большой процент трафика поступает из поисковиков, хотя на самой площадке все идеально?
А. Ш.: Да. Что такое идеальный сайт с точки зрения поисковой машины? Никто не знает. Приведу еще один пример. Сайт компании в сфере недвижимости, и на нем огромные базы – десятки тысяч страниц. На нем реализован механизм – то ли AJAX, то ли что — то другое, – благодаря которому человек заходит на сайт, просматривает один объект недвижимости, щелкает на другом, тот подгружается, притом висит один и тот же URL. С точки зрения робота, человек находился на одной странице с неизменным URL. Сайт работает, посетители выполняют нужные им действия, все сделано для людей. Что видит поисковая машина? То, что изо дня в день сотни человек ходят на одну и ту же страницу сайта, а на остальные страницы не заглядывают. Закономерный вопрос: а зачем эти страницы в индексе?
Но ведь «Яндекс» декларирует, что с некоторых пор прекрасно понимает AJAX?
А. Ш.: Не берусь судить, AJAX там или не AJAX. Да, мне говорили, что и JavaScrip понимает, и Flash подгружает. Но факт: как только была дана рекомендация использовать тупой GET — запрос, чтобы каждая страничка имела свой адрес, сайт начал очень хорошо индексироваться, вошел в индекс заново. Правда, по — моему, после письма Платону Щукину12, где ситуация была объяснена.
А как быть в таком случае, когда действительно, казалось бы, невинная, с точки зрения владельца сайта, мелочь приводит к попаданию под фильтр? Например, то же самое использование тизерок, избыток рекламы.
А. Ш.: По — моему, у «Яндекса» это даже где-то написано. Даже если нет, у «Бегуна»13 четко продекларировано. Если вы прочтете пользовательское соглашение «Бегуна» и будете его неукоснительно выполнять, шансы попасть под фильтр за арбитраж трафика, за слив трафика в сети контекстной рекламы у вас будут минимальными. Например, тот же самый «Бегун» никогда не примет ваш сайт в свою систему, если у вас «моновходящий» трафик. Допустим, на 90 % – с тизерок. Ваш сайт даже не рассматривают, одного упомянутого факта хватит, чтобы сайт не был принят в «Бегун». Так почему же политика поисковиков должна быть иной?
Один из хороших способов уйти от информационного шума – черпать знания не из SEO — источников, а из других, близких: документации поисковиков, документации систем контекстной рекламы. Profit — Partner14 дает, например, очень хорошую инструкцию. У меня был случай, когда я сам не мог понять, в чем дело, но, поскольку сайт участвовал в «Яндекс» — «вертушке», я просто позвонил знакомому специалисту из Profit — Partner, и тот мне
объяснил на пальцах, как именно структура трафика повлияла на ситуацию.
Мы вновь возвращаемся к поведенческим факторам. Почему я говорю, что поведенческие факторы не равны статистике? Еще и потому, что значительная часть поведенческих факторов вообще лежит за пределами вашего сайта. До того как человек к вам пришел, он отслеживается. Человек в поиске кликнул на одном сайте – ушел, на другом сайте – ушел, заглянул на ваш – остался. Вам плюс. Где, на чем он кликает до вашего сайта, вы не в силах проконтролировать. Мало того, вы это естественно и сымитировать не сумеете. Человек провел на вашем сайте три минуты – вроде как много. Дальше он ушел на другой сайт той же тематики, провел там 15 минут, заполнил форму, сделал заказ. Это все отслеживается. Хотя у вас, казалось бы, нормальная глубина просмотра, но у вас будет плохая поведенческая характеристика, а у владельца конкурирующего проекта – хорошая.
Способ избежать наказания – делать сайт интересным для людей. Попробую сформулировать правила.
Во — первых, попробуйте вылезти из информационного белого шума. Когда вы видите, что перед вами двадцать «Марий — искусниц», не выбирайте между ними, идите и ищите другой источник знаний. В сказке мальчик вышел за дверь, и ему девочка шепнула, что от настоящей мамы теплом повеет. Лучше выйдите за дверь, и найдете место, где вам шепнут правильно.
Во — вторых, возьмите на вооружение то, о чем «Яндекс» говорит, хотя никто никогда его не слушает: делайте ваш сайт интересным людям, развивайте его. Маленький секрет. Если у вас хороший трафик с поисковых машин, есть трафик из контекста, на вас ссылаются форумы, к вам переходит тьма народа с ссылок, значит, у вас нормальный входной «мультитрафик», ваш сайт очень хорошо отслеживается поисковыми машинами. Но если ваш сайт притом не заносится в «Закладки», вы заметите, что трафик начинает потихонечку падать просто потому, что раз сайт действительно нравится людям, то хоть один из ста человек его к себе в «Закладки» да внесет. Не заносят? Стало быть, сайт не нравится людям, плохой он. Это тоже поведенческий фактор, и все именно так и происходит. Одно время было поветрие: существовали всякие хитрые механизмы, которые заносили сайт в «Закладки», либо побуждали занести сайт в «Закладку», либо заносили его без ведома пользователя. Потом эти методики завяли. Механизмы имитации очень быстро раскалываются.