Что такое ранжирование сайтов в поисковой выдаче?

Поисковая выдача.

Ответ поисковой системы, предоставленный на запрос пользователя, сформированный в виде списка сайтов, отсортированных по ряду параметров.

Все уже давным-давно пользуются той или иной поисковой системой, используют для этого различные браузеры и прекрасно знают, как ими пользоваться. Процесс отработан до автоматизма. Мы решаем, что будем искать в данный момент, пишем это слово или словосочетание в строку поиска в браузере, нажимаем кнопку «Найти» или «Enter» и попадаем на страницу со списком сайтов, которые максимально релевантны запросу. Или если сказать проще, наиболее близко отвечают на тот вопрос, который был задан.

Если ответ на вопрос не получен, мы переформулируем запрос и процесс повторяется.

Следует понимать, что сайтов, которые могут содержать информацию, в той или иной мере релевантную запросу, могут быть тысячи. Если учесть, что каждая страница с результатами поиска, может содержать всего лишь десять ресурсов, таких страниц могут быть сотни.

Так же следует понимать, что по статистике, количество переходов на сайты, расположенные на второй и последующих страницах, неуклонно стремиться к нулю. То есть, люди, которые ищут информацию, по большому счету, находят ее на первой странице, и дальше поиск не продолжают. Конечно же, это актуально в том случае, если они нашли, что искали.

Да что там говорить, первый сайт на первой странице поисковой выдачи, получает более 50% посетителей. Вот так-то.

Что такое ранжирование.

Вот здесь и возникает вопрос — как можно упорядочить, отсортировать эти тысячи интернет ресурсов, таким образом, чтобы любой человек, смог найти интересующую его информацию с наименьшими затратами сил и времени.

Очевидно, что этот вопрос возникает перед компаниями, которые являются собственниками поисковых систем. А какие у нас самые распространенные ПС? Правильно, это Google и Yandex.

Этот процесс сортировки называется ранжированием, и основывается на работе определенных алгоритмов, которые получают входящие данные от специально обученных людей (асессоров). Проще говоря, алгоритм работает чисто механически и делает, скажем так, черную, массовую работу.

Направление, куда ему надо двигаться, в любом случае задает человек. Люди решают, как должны выглядеть сайты, какая информация должны быть на них предоставлена, как она должна быть оформлена и т.д. То есть люди определяют список параметров, которые потом вводятся в программу, и учитываются при дальнейшем ранжировании.

Это и правильно, ведь так или иначе в каждом сайте присутствуют элементы творчества, и машина сама не может адекватно воспринять и оценить красоту дизайна, или глубину и своеобразие статьи.

Кстати, сотрудники Yandex заявляют, что факторов, которые учитываются при ранжировании используется больше тысячи. И мне кажется, чем больше будут расти вычислительные мощности, тем будет больше этих факторов учитываться, тем сложнее будут алгоритмы. Эх! Знать бы что в итоге они хотят получить, соломки бы подстелил.

То есть получается, что ПС, заботятся о том, чтобы поиск был максимально эффективным для пользователя, им это очень важно, они постоянно работают над этим, делают алгоритмы все лучше и лучше, принимают какие-то решения, вносят какие-то изменения.

Возникает резонный вопрос – зачем им это нужно.

Ответ, который лежит на поверхности прост и очевиден как молоток. Google и Yandex – это в первую очередь самые обычные сайты, которые размещены на хостинге, имеют доменные имена, в общем обладают всеми характеристиками обычного интернет ресурса. И как для обычных сайтов, для них важна посещаемость. Чем больше она будет, тем лучше. И тут ключевое слово — «Тем больше денег они заработают»

Да это исключительно коммерческие проекты, практически монопольные. Один является монополистом в России, другой в США. Основная статья заработка – реклама. Контекстная реклама Яндекса и контекстная реклама Google.

Очевидно, что при той сумасшедшей посещаемости, которая у них есть, никак не использовать это, как минимум, грешно.

И здесь уже напрашивается другой вопрос — «а был ли мальчик?» Я хочу сказать, объективное ли ранжирование используется в выдаче или все окрашено денежной составляющей, которая является еще одним параметром алгоритма. А так оно видимо и есть, чем больше денег вы можете потратить на продвижение, тем выше вы будете в рейтинге по тому или иному поисковому запросу. И все другие 999 факторов отодвигаются на второй план. А по-другому никак, иначе ПС начнут терять доход. Может быть я и не прав, и зря делаю такие выводы, может быть, не знаю.

Тем не мене все не так плохо. И в ТОП продвинуться можно, и денег заработать можно. По крайней мере пока можно. Опять же, знать бы тренд, соломки бы подстелил.

Основные факторы ранжирования.

Кстати факторов ранжирования у Google поменьше, и они используют больше ручные механизмы. Yandex же пытается, по всей видимости все автоматизировать до нельзя. Что же, как говорится — каждому свое.

Тем не менее существую основные моменты, фундаментальные, я бы сказал, которые необходимо знать каждому вебмастеру обязательно.

Релевантность.

Если коротко, то содержание статьи наиболее полно должно соответствовать поисковому запросу, то есть быть релевантным. Допустим статья называется «Как выбрать хостинг» а вы пишите про золотых рыбок. Сравнение, конечно то еще, но зато смысл понятен.

Уникальность.

Текст должен быть уникальным. Это значит, что, если вы скопируете текст статьи с какого-либо блога – поисковая система вас за это не похвалит. Понятно да! Воровать контент – это плохо. Можно взять за основу материал с ресурсов со смежной тематикой, прочитать его, осмыслить, дополнить, углубить и тогда публиковать.

Проверить уникальность можно как с помощью программных средств, так и с помощью специализированных ресурсов.

Естественность.

Вот просто представьте себе, текст состоящий на 30% из ключевых слов. Это же кошмар. Это нечитабельное, неудобоваримое произведение. Опять я несколько утрировал, но все ради того, чтобы было понятнее.

Такое положение вещей, спокойно отслеживается поисковыми системами и выносятся определенные санкции к нарушителю. В алгоритмах которые анализируют этот момент используются математическая лингвистика.

Ненормативная лексика.

Если нет желания попасть под фильтр, лучше не использовать. Сюда же относим и адалт-лексику.

Возраст сайта.

Чем больше возраст сайта, тем ресурс считается более доверенным, тем выше в результатах поиска будет находится.

Молодым сайтам будет довольно проблематично выйти в ТОП. Это и понятно, ведь сложно сказать так сходу, будет ли проект качественно развиваться, обновляться или умрет через полгода. А сайты пустышки, поверьте не особо востребованы.

Четких сроков окончания такого положения нет, но предварительно, в выдаче сайт начинает расти где-то через год.

Тем не менее, по низкочастотным и низкоконкурентным запросам продвинуться вполне реально.

PR/ТиЦ (пузомерки).

«Page Rank» в Google и «Тематический индекс цитирования» в Yandex. Статические параметры, которые чем выше, тем лучше. Максимальный Lv для Google – 10, для Yandex предела нет.

Входящие ссылки.

Это ссылки со сторонних ресурсов, которые ведут на ваш сайт. Помимо того, что эти ссылки могут обеспечить трафик с ресурса донора, они опосредованно влияют и на ранжирование. Почему опосредованно, потому что нет прямой взаимосвязи между количеством ссылок и позицией сайта или статьи в выдаче. С помощью ссылок, сайту акцептору передается определенный вес, который уже в дальнейшем, влияет на его позиции. Скажем так, передается кусочек авторитета сайта донора. Соответственно, чем авторитетнее ресурс, тем больше веса будет передано.

Поведенческие факторы.

К ним относится: кликабельность (CTR), посещаемость, поведение пользователей. Что такое первые два фактора я думаю понятно, а вот про последний можно рассказывать довольно долго. Например, есть такой понятие как «Отказ». Это когда пользователь пришел на ваш сайт по ссылке из поисковой системы, понял, что не туда попал и сразу ушел. Это сразу же звоночек ПС, что возможно содержание статьи не соответствует поисковому запросу. То есть представленный материал скорее всего не релевантный. Или, например, очень приветствуется, когда посетитель долго находится на сайте, переходит по внутренним ссылкам, пишет чего-то в комментариях и т.д.

Опять же позиция поисковиков, вполне объяснима. Если пользователю ресурс не интересен, информация не обновляется, дизайн скучный, автор с аудиторией не общается, значит не стоит такой сайт повышать в выдаче.

Технические факторы.

Аптайм.

Сайт должен быть доступен в любое время дня и ночи, как для пользователей, так и для поисковых роботов. Мониторится этот параметр с помощью различных сервисов.

Скорость загрузки.

Все должно работать быстро и качественно. На скорость загрузки, помимо всего прочего, влияет хостинг, на котором расположен проект, размер кода, наличие скриптов, наличие плагинов кэширования. Сервис для проверки скорости:

Ошибки в коде.

Код должен быть валидным и не содержать ошибок. Сервис для проверки расположен по адресу — validator.w3.org. На ранжирование влияет не значительно поэтому слишком заморачиваться не стоит.

Кроссбраузерность.

Сайт должен быть качественно сверстан и одинаково хорошо отображаться на всех браузерах.

По каждому параметру можно общаться довольно продолжительное время.