05 июля 2012 в 13:31

Основы поисковой оптимизации и поискового продвижения

Этой статьей мы начинаем цикл публикаций о поисковой оптимизации и поисковом продвижении, но будем говорить не о том, как продвигать клиентские сайты, а о том, как на свои сайты добывать поисковый трафик. Согласитесь, большая разница — продвигать клиентские сайты и получать за это деньги согласно каким-то договоренностям, которые могут закончиться так же, как и начались.

И совсем другое — продвигать свои собственные сайты и ни перед кем не отчитываться. Тут есть и другая мотивация — получив на свои сайты поисковый трафик и сумев его сконвертировать в деньги, в том числе и через Admitad, вы четко будете понимать, чего стоят ваши усилия и сумма заработанных денег будет зависеть только от вас.

В рунете доминируют две поисковые системы: Yandex и Google. У каждой из них свои заморочки, например у Yandex четко выраженная региональная выдача, у Google не очень четкая, местами выраженная, местами нет. Но общие принципы продвижения страниц своих сайтов под поисковые системы одинаковы.

Я специально отметил, что продвижение страниц сайтов, а не сайтов. Сайты состоят из страниц. Именно страницы необходимо оптимизировать под поисковые запросы, именно страницы сайта, как главная, так и внутренняя, могут быть видны по запросам, под которые они оптимизированы.

Общие принципы работы поисковых систем

У вас есть сайт с определенным количеством страниц, которые содержат определенную информацию. Чтобы страницы сайты были видны в результатах поиска, поисковые системы должны знать о них — другими словами, страницы сайта должны быть проиндексированы поисковыми системами.

Поисковые системы хранят в своих базах данных кешированные страницы сайтов — тот образ, которые сохранил поисковый робот на момент посещения страницы. При вводе  запроса поисковики на основе большого количества факторов (о них будет сказано ниже), в первую очередь релевантности (соответствия поискового запроса тексту страницы) производят выборку наиболее релевантных страниц и затем упорядочивают их на основе своих принципах ранжирования и упорядоченно выводят в результатах поиска.

Различают внутренние и внешние факторы ранжирования поисковых систем.

Внутренние факторы ранжирования

Большой список внутренних факторов и их влияние представлено на сайте топэксперт.рф. Для расширения кругозора и в принципе чтобы понять, сколько их на самом деле, рекомендую ознакомиться. Мы же с вами остановимся на основных, которые важны для добычи поискового трафика.

Условно любую html страницу сайта можно разделить на следующие блоки, на которые стоит обратить внимание для задач поисковой оптимизации:

  • значение тега <title>;
  • значение тега <h1>;
  • текстовый контент на странице;
  • графический контент на странице;
  • значение тегов <h2-h3>;
  • ЧПУ;
  • значения мета тегов keywords и description.

Рассмотрим их поподробнее.

Значение тега <title> самое важное с точки зрения релевантности. Оно имеет наибольший вес при ранжировании. Крайне желательно делать его значение минимум в 7-8 слов, причем это должна быть вдумчивая и понятная фраза или набор фраз, передающих смысл данной страницы. На скриншоте видно, как выглядит тег title в результатах поиска.


Значение тега <h1> имеет меньшее влияение, чем <title>, но все равно достаточно высокое. Текст внутри тега <h1> должен быть более лаконичным, не должен частично или полностью пересекаться со значением атрибута <title>, но должен дополнять его смысл или в крайнем случае синонимизировать. Полезно в него включить неточное вхождение ключевых слов, по которым будет продвигаться данная страница в поисковых системах. На скриншоте видно, как может выглядеть значение тега h1 на странице.

 

Текстовый контент на странице должен в полной мере отвечать на вопрос, с которым пользователь может попасть на данную страницу. Сейчас уже не работают так называемые SEO тексты, которые раньше на полуавтомате штамповали различные студии контента. Поисковые системы уже научились отличать реально полезный контент, удовлетворяющий информационную потребность пользователей (именно за этим они пришли на ваш сайт), от контента, написанного для того, чтобы попасть в индекс поисковых систем.

Конечно, есть методы и способы «загнать» и SEO тексты в индекс поисковых систем (о них мы поговорим отдельно), но во-первых, там он продержать недолго, а во-вторых даже если и продержится, продвигать его будет сложнее, чем нормальные тексты.

Графический контент на странице может и отсутствовать, но его наличие в большинстве будет только плюсом. Во-первых, графический контент в некоторых случаях позволяет быстрее и нагляднее продемонстрировать пользователю ответ на вопрос. Кроме того, уникальный графический может дать дополнительный поисковый трафик с поиска по изображениям.

Графический контент по возможности должен быть уникальным и оптимизирован для задач SEO, об этом мы поговорим с вами отдельно.

Значение тегов <h2-h3> должно частично перескаться с семантикой (смыслом), либо логично его добавлять. Если значение тега <h1> — это по сути дела заголовок «документа», который представляет собой содержимое страницы, то значение тегов <h2-h3> — это его подзаголовки. При этом исходя из практического опыта рекомендуется на странице использовать не более 3-4 тегов <h2> на странице и не более 7-10 тегов <h3>, дабы не вводить поисковые системы в заблуждение.

Значения мета тегов keywords и description еще на этапе возникновения поисковых систем использовалось для ранжирования. Но после того как ими стали пользоваться спаммеры, поисковики перестали использовать данные этих тегов при ранжировании. Тем не менее, эти нужно использоваться, потому что google использует их при формировании сниппетов, которые влияют на переходы с результатов выдачи на сами сайты. Об этом так же поговорим отдельно.

В keywords необходимо перечислить все ключевые слова, которые относятся к смыслу документа, который представляет собой html страница. Содержание description одним предложением должно отражать смысл всего того, что размещено на странице. При необходимости там может быть призыв к действию, телефон или другие контакты.

На примере страницы http://blog.admitad.com/?p=1336:

<meta name="description" content="Амбициозные планы admitad по внедрению инновационных европейских технологий в России" />
<meta name="keywords" content="admitad, Александр Бахманн, Сергей Греков, Zanox, маркетинг, заработок" />

ЧПУ или человекоподобные URL так же в той или иной мере влияют на ранжирование, если ключевое слово или транслит заголовка находится в URL. Пренебрегать этим фактором не стоит.

Так же к внутренним факторам, влияющим на ранжирование, относят

  • возраст сайта и возраст домена;
  • наличие плохой истории домена;
  • хостинг и его настройки;
  • перелинковка;
  • CMS;
  • наличие карты сайтов;

и другие.

Замечено, что старые сайты проще продвигать, чем молодые, при условии, что раньше они не были замечены поисковыми системами в запрещенных методах продвижения и оптимизации и не получали санкции со стороны поисковиков.

Если у вас плохой хостинг и сайт бывает недоступен, то в одно из посещений поисковый робот может сайт не найти, в результате чего это негативно может сказаться на текущих позициях сайта. Если поисковый робот регулярно не будет видеть содержимое сайта, то есть хостинг будет «лежать», то сайт может совсем пропасть из результатов выдачи.

Перелинковку эффективно использовать, когда на сайте уже есть от 100 страниц и более. За счет того, что каждая страница имеет свой ненулевой вес, даже если на нее нет внешних ссылок с других сайтов, можно беслплатно улучшать позиции сайта в результатах поиска за счет внутренних ресурсов не прибегая к внешним.

По некоторым наблюдениям сайты на одних CMS продвигаются лучше, чем на других. Идеальный вариант — статические html страницы. К сожалению, это применимо к очень ограниченному количеству сайтов, поэтому от оптимизации работы CMS зависят и результаты продвижения. Обращайте на это внимание. По наблюдениям экспертов, популярный и бесплатный движок WordPress при должной оптимизации продвигается без лишних сложностей, при условии соблюдения правил оптимизации под поисковые системы, а так же при условии высокого качества контента.

Карта сайтов в sitemap.xml облегчает поисковым системам поиск и индексацию страниц, поэтому ей не стоит пренебрегать. Многие CMS имеют собственный функционал  для создания карт сайтов. При необходимости можно воспользоваться сторонними бесплатными сервисами.

Внешние факторы ранжирования

К внешним факторам ранжирования относят не только внешние ссылки, как может показаться на первый взгляд. Перечислим эти факторы:

  • внешние ссылки;
  • наличие сайта в авторитетных каталогах;
  • поведенческие факторы;
  • аффилированность (для яндекса).

Внешние ссылки можно покупать, можно добывать (получать искусственно), а можно делать такой ресурс, ссылки на страницы которого будут появляться естественным образом. Покупать ссылки просто, для этого есть много бирж ссылок, наиболее популярные sape.ru, gogetlinks.net, rotapost.ru и другие. Добывать или получать естественным образом подразумевает какие-то действия, в результате которых вы можете оставить ссылки на свой сайт: комментирование блогов, регистрация на сайтах и заполнение профилей, сообщения в подписях на форумах и тд. Получать естественные ссылки — это сигнал того, что у вас качественный сайт с полезным контентом для пользователей, который отвечает на те или вопросы либо сам по себе несет полезную и актуальную информацию.

Как правило для добычи поискового трафика ссылки приходится покупать на биржах ссылок, меняться с другими сайтами или добывать через регистрации на тех или иных ресурсах. Вопрос получение внешних ссылок — тема отдельной статьи.

Под авторитетными каталогами в рунете понимаются яндекс каталог и каталог DMOZ. В яндекс каталог достаточно просто попасть на платной основе, при условии что сайт удовлетворяет требованиям каталога. В каталог DMOZ можно попасть только на бесплатной основе, но туда берут далеко не все сайты. Кроме того, DMOZ модерируется редакторами-добровольцами и у определенных разделов может и не быть редакторов, а так же редакторы не обязаны напрямую добавлять именно ваш сайт в каталог. Основным плюсом наличия сайта в DMOZ раньше являлось то, что на его основе делал свой каталог сайтов Google, что при прочих равных условиях давало бонус при ранжировании. Сейчас Google каталога нет, поэтому вытекает мнение, что особых бонусов наличие в DMOZ не дает. Наличие сайта в каталоге яндекса дает бонус для показателя ТИЦ, который напрямую на ранжирование не влияет. Особых бонусов при ранжировании это тоже не дает, есть много примеров, когда сайты не в каталоге по коммерческим тематическим запросам ранжируются выше, чем их конкуренты, описанные в тематическом разделе яндекс каталога. В целом же наличия описания в яндекс каталоге только в плюс.

Поведенческие факторы — это была бурная тема для обсуждения в 2011 году, когда  Яндекс выкатил новый алгоритм с дырой, которой пользовались многие SEO компании, за счет чего без покупки ссылок и толковой оптимизации контента вылезали в топ по высококонкурентным коммерческим запросам. После того, как Яндекс эту дыру прикрыл и весной-летом 2011 года очень многие из «накрутчиков», в том числе и топовые SEO конторы Москвы от этого пострадали. Пострадали скорее всего потому, что крутили внаглую. Как показывает практика сегодняшних дней, крутить факторы можно, но аккуратно. Подробнее поведенческие факторы разберем в отдельной статье.

Аффилированность в приципе достаточно редкое явление в среде вебмастеров, но в коммерческом и клиентском SEO это явление встречается. В двух словах про фильтр аффилиатов: компания делает несколько сайтов, чтобы с бОльшей вероятностью занять топ 10 или сразу несколько позиций в топ 10 поисковой выдачи. Такие сайты могут быть с похожим дизайном, похожей версткой, похожей структурой и много чем еще похожим, прежде всего контактными данными, а так же данными whois, одинаковым хостингом и тд. Прежде всего за одинаковые контакты яндекс может наложить фильтр аффилиатов на два и более сайтов. По мнению поисковике — в результатах поиска коммерческой выдачи одна компания физически не должна присутствовать более одного раза, то есть не должны показываться одновременно несколько сайтов, за которыми стоит одна физическая компания. В нашем случае если мы к примеру делаем несколько псевдо интернет магазинов под поисковый трафик, чтобы получить его и сконвертировать на офферах admitad, то необходимо обратить внимание на то, чтобы не схватить фильтр аффилиата. Подробнее об этом фильтре мы поговорим в отдельной статье.

Надеемся, что это информация была полезна. Подписывайтесь на наш twitter.

Поделиться с друзьями