В этот знаменательный будний день хочется поблагодарить Яндекс за признание.
Сначала нас пугали объявлениями в
директе, теперь в ход пошла новая страшилка.
Вчера на конференции "Неделя Байнета" в Минске Кирилл Николаев (Яндекс) выступил с
докладом "Ты, робот" . Кирилл рассказал о том, как именно Яндекс отслеживает поведение различного вида роботов в сети Интернет.
Доклад ознаменован борьбой с продвижением поведенческими факторами и рассказывает о трех степенях фильтрации роботов Яндексом.
И если
первая ступень - русскоязычная капча описана подробно, красочно и понятно (не вполне правда понятно, как связана капча и поведенческие факторы=), то о второй и третьей ступенях "чистки" сказано совсем немного и как-то мельком.
Вторая ступень – легкая чистка от накруток (роботов) в персонализации и поисковых подсказках. Из того что мы видим, накручивается это действительно очень просто и многие компании пользуются этим. Т.е. очистка на этом этапе либо практически отсутствует либо действительно учитывает только какие-то совсем явные показатели.
Наибольший, конечно, интерес представляет
третья часть доклада, в которой говорится о "крупном, хорошо развитом алгоритме, использующей огромное количество данных, учитывающий большое количество пользовательских распределений".
Приведенные дальше цифры вызывают, при первом взгляде, конечно уважение:
• 2000 факторов (распределений); (Больше чем в мартикснете? Яндекс, вы серьезно? Звучит очень забавно)
• 200 функций очистки;
• Правда тут же пишут, что используют в основном 34 фактора.
Если же абстрагироваться от больших и якобы страшных цифр, что можно увидеть? Подробное описание алгоритма действия капчи, а все остальное - обтекаемые слова о каком-то большом количестве каких-то факторов, благодаря которым Яндекс может распознавать роботов. И в конце - предупреждение о том, что продвижение поведенческими факторами будет караться "сроком от...".
Возникает несколько вопросов.
Почему в докладе о поведенческих факторах основное внимание уделяется методу работы капчи?
Почему не описаны также подробно как капча эти замечательные 2000 факторов вычислений роботов или хотя бы более подробно не расписан алгоритм? Примеры, приведенные в докладе, откровенно странные.
Ну и самое главное -
почему, если Яндекс может так просто распознавать действия роботов, он просто не отфильтрует их? Ведь если описанная в докладе ситуация реальна, пора запускать биржи по уничтожению конкурентов. При санкциях "на довольно длительный период, где-то около года", от желающих «потопить» конкурентов отбоя не будет.
PS: В целом же
действия Яндекса по фильтрации ботнетов принесут развитию Рунета лишь пользу т.к. таким образом выдача станет чище.
Как мы не устаем говорить, продвигать ГС поведенческими факторами бессмысленно, даже если ваш сайт выйдет в ТОП, плохие естественные поведенческие или ассесор от Яндекса отправит вас обратно.
У нас остается вопрос: почему к сервисам, использующим ботнеты, отнесены уже зарекомендовавшие себя на рынке проекты, среди которых Movebo.ru.
В сервисе Movebo.ru поисковые сессии осуществляются с компьютеров реальных пользователей интернета.
Мы не используем и не использовали накрутку поведенческих факторов с помощью ботнетов. И то, что сессии наших серферов видны во всех счетчиках аналитики, будь то Метрика, Вебвизор, Google Analytics или LiveInternet является дополнительным свидетельством качества сессий от наших пользователей.