Ktonanovenkogo.ru исполнилось 10 месяцев — что влияет на популярность и посещаемость (контент, оптимизация, перелинковка)

Эксперимент: влияние перелинковки сайта на позиции

Здравствуйте, уважаемые читатели блога. Особо полезным данный пост будет марафонцам и людям, пришедшим из поисковых систем. Поэтому читайте материал внимательно и применяйте его на практике. Матерые (хотел написать старые 🙂 сеошники вряд ли найдут здесь что-то новое, разве что подтвердят, что все работает, все так и есть. Ну и поставят ретвит, в качестве вердикта.

Суть эксперимента

Вы все, наверняка, слышали о влиянии внутренней перелинковки сайта на рост позиций. Слышали, что это сказывается хорошо на ранжировании сайта.

Собственно, это я и решил проверить: посмотреть, насколько сильно влияет, сколько ссылок оптимально проставлять на каждую статью сайта (или чем больше, тем лучше?).

Давайте обо всем по порядку.

Как вы знаете, я в данный момент времени «пилю» сайтик под РСЯ. Даже марафон мы запустили – подробнее тут.

Вот, когда пришло время линковать очередную пачку статей, я и захотел посмотреть влияние перелинковки. Точнее хотел уже давно, но руки все как-то не доходили.

Было выбрано 20 статей.

И я начал их линковать.

Кое-где тематических статей не находилось, поэтому и ссылок проставлено не было – в соответствующей графе стоит «0». Однако, большинство статей было слинковано – в табличке стоит количество проставленных на ту или иную статью ссылок.

Мне казалось, что чем больше ссылок – тем лучше. Так ли это на самом деле? Читайте до конца. Ответ будет.

После очередного апдейта (09 января) я с нетерпением прочекал позиции. Получилась довольно интересная картинка. Давайте рассмотрим ее на конкретных примерах (выбирал те, где движение позиций было наиболее активным).

Анализ запросов, на которые проставлено по три ссылки

По три ссылки было проставлено на следующие запросы (их порядковый номер в таблице): 3 ,5, 9, 12, 15, 16.

Вот что я увидел после АПа.

Минутку внимания 🙂

Анализ 3 запроса

Ощутимое падение в Гугле как по основному запросу, так и по менее частотным.

Можно подумать, что ничего не работает, столько времени потрачено зря.

Что ж, идем к следующему запросу.

Анализ 5 запроса

Здесь все уже куда веселее: рост в Гугле и Яндексу по основному запросу.

Анализ 9 запроса

Самая приятная ситуация: когда есть движение вверх и по основному запросу и по НЧ запросам. Причем, как видим, это движение есть в обеих поисковых системах.

Вот всегда бы так.

Анализ 12 запроса

Как видим, в Гугле движение вверх более красивое, нежели в Яндекс. К тому, же в Яндексе основного запроса вообще нет в ТОП-50.

Рост позиций по ним похож: небольшое движение в обоих ПС.

Анализ 15 запроса

Анализ 16 запроса

Давайте посмотрим несколько запросов, где было проставлено по 2 ссылки на страницу

Анализ 4 запроса

Наблюдаем небольшой рост по НЧ запросам в Гугле, Яндекс упорно не хочет видеть в ТОПе выдачи мой сайт по этому запросу.

Анализ 7 запроса

Примерно тоже самое: рост по НЧ в Гугле, и появление страницы в индексе Яндекса.

По остальным запросам, на которые проставлено по две ссылки – минимальное движение вверх. Не буду загромождать пост скриншотами.

Анализ 19 запроса

А вот здесь наблюдается интересная картина: рост позиций в одной поисковой системе, и падение в другой. Что ж, и так бывает.

Хотя, признаться, мой проект под РСЯ больше пока что любит Гугл, чем Яндекс.

Делаем выводы

Надеюсь, что не сильно вас загрузил этими цифрами, ростом/падениями, индексами и прочим.

Сделаем некоторые выводы этого эксперимента:

  1. Грамотная схема перелинковки достаточно хорошо работает. Наблюдается рост (пусть и не всегда сильный) по большинству из продвигаемых запросов.
  2. Большее количество ссылок передает продвигаемой странице бОльший вес, и страница поднимается выше в выдаче.
  3. Перелинковка страниц помогает вгонять их в индекс поисковых систем.
  4. Нет правил без исключения 🙂

Что ж, резюмируя данный эксперимент, можно сказать, что он удался.

Я на собственном опыте убедился в том, что все работает, перелинковка проекту крайне необходима.

И вам рекомендую не лениться, уделять время перелинковке сайтов. Тем самым вы увеличите позиции запросов в поисковых системах, а, следовательно, и трафик на сайте.

Но это уже другая история. О ней я напишу в следующих экспериментах.

Спасибо, что дочитали пост до конца. Надеюсь, что он был вам полезен.

Если это так – понажимайте, пожалуйста, на кнопки социальных сетей, поделитесь ссылкой на этот мини-эксперимент.

Искренне вам благодарен Дмитрий Гинцевич (он же dimokfm).

До скорого, да прибудет с вами seo, да минет вас АГС.

Как взлететь в топ-10 поисковой выдачи с помощью перелинковки?


Сайт застрял на второй странице выдачи? Это частая проблема в работе SEO-специалиста. Но мы знаем способ, как решить ее с помощью перелинковки. И сегодня с вами поделимся решением.

Что такое перелинковка, и для чего она нужна?

Перелинковка — связывание страниц сайта гиперссылками. Она не только экономит время пользователю, — с помощью качественной перелинковки поисковые роботы быстрее проиндексируют страницу.


Обратите внимание на популярные сайты (например, та же Википедия) — на каждой из страниц присутствует масса ссылок на другие страницы. Соответственно, перелинковка — неотделимая часть стратегии продвижения успешного сайта.

Как перелинковка влияет на статический и динамический вес страницы

Отметим, с точки зрения поисковых систем, перелинковка генерирует статический и динамический вес между страницами.

Разберем, что это такое:

  • статический вес — мера авторитетности определенной страницы в поисковой системе. Чем больше страниц ссылаются на другую страницу, тем выше ее статический вес. Обратите внимание, что каждая последующая ссылка передает меньше веса странице. Этот показатель напрямую влияет на позицию в поисковой выдаче;
  • динамический вес — мера авторитетности страницы в соответствии с запросами пользователей. Чем больше пользователей перешли по соответствующей ссылке на страницу, тем выше ее динамический вес. Естественно, этот показатель колеблется, но поддается влиянию, если следить за релевантностью анкоров ключевым запросам.
Читать еще:  Олимп трейд — подробный обзор торговой платформы

Внешняя перелинковка, и с чем ее едят

Организовать внешнюю перелинковку при наличии сайтов-сателлитов (вспомогательные сайты, которые перенаправляют пользователей на основной сайт компании) или равноправного тематического ресурса — не проблема. Определитесь, какая она будет — равноправная или нет, и смело действуйте.

Неравноправная перелинковка позволит сливать трафик с менее трастовых сайтов на продвигаемый. Принеся в жертву посещаемость сателлитов, происходит поднятие запросов продвигаемого сайта за счет статического веса ссылок и использования анкоров.

Равноправная (или двухсторонняя) предполагает наличие нескольких тематических ресурсов, которые ссылаются друг на друга. Они обладают приблизительно одинаковым количеством страниц, ссылок и схожей тематикой.

Два выше описанных метода самые действенные. Существуют другие виды внешней перелинковки, как случайная, сделанная через партнерские или покупные ссылки. Однако, их использование не дает предсказуемый результат.

Внутренняя перелинковка, и как ее настроить

С точки зрения поисковых систем, главной целью перелинковки является передача статического и динамического веса между страницами. То есть если на какую-то страницу ведут ссылки, то ее вес по заданному ключевому слову будет намного выше.

Отсюда вытекает, что если правильно подобрать фразы-анкоры и поставить ссылку на какую-ту страницу, ее вес “в глазах” поисковиков увеличится. И она возможно поднимется в топе!

Чтобы найти такие фразы воспользуемся сервисом Serpstat. Переходим на главную страницу сайта и вводим в поиск адрес домена (в нашем примере это eldorado.ru), и выбираем поисковую систему. Далее переходим в раздел поисковые запросы.


После получения всех ключевых запросов, по которым ранжируется сайт в поиске, переходим во вкладку “Фильтры”. В полях “Позиция домена по фразе” прописываем с 10 по 20.

Чтобы определить, по каким фразам ранжируется та или иная страница, переходим в режим отображения деревом.

Экспортируйте полученную информацию в таблицу удобного формата. Следующий шаг — связать эти страницы с другими страницами сайта, которые ранжируются по таким же запросам. Далее корректно вписываем ключевые фразы-анкоры в контент страниц.

Следуйте следующим принципам составления анкоров, и перелинковка даст свои плоды:

  • анкоры должны быть разными;
  • делайте ссылки полезными, соответствующими тематике;
  • не вставляйте анкоры в заголовки, особенно уровня Н1;
  • с одной страницы должно идти не более одной-двух ссылки на продвигаемую страницу.

Внимательно изучив статью, вы научитесь следующему:

  1. проводить внутреннюю и внешнюю перелинковки;
  2. подбирать нужные ключевики для анкоров;
  3. поднимете позиции страниц своего сайта, которые немного упали в выдаче!

Проведите перелинковку, и узнаете, насколько высоко ваш сайт поднимется в поиске. Удачи!

SEO-мифы: 10 вещей, которые не влияют на ранжирование сайтов

Каждый уважающий себя SEO-специалист знает, что нужно делать для того, чтобы попасть на верхние строчки поисковой выдачи. А знаете ли вы, какие действия на самом деле не оказывают никакого влияния на место сайта в Google? Об этом я и хочу рассказать в этой статье.

1. Время создания домена

Существует мнение, что более старые сайты ранжируются выше, чем более молодые. Да, это может быть так – но не из-за того, что сайту 5-7 лет, а из-за того, что за время своего существования сайт успел обзавестись хорошей репутацией, различными ссылками и т.д. – всем тем, что напрямую влияет на ранжирование.

А вот сама дата регистрации домена не влияет (и об этом в Твитере заявил представитель Google). Поэтому даже если сайт создан полгода или год назад, он уже имеет шансы вылезти в топ. Но о чем важно помнить – к более молодым сайтам поисковые боты более придирчивы: они проверяют, нет ли на сайте некачественной ссылочной массы или дублей – и попасть под фильтр новым сайтам проще, чем старым.

2. Количество лайков и репостов страниц

Сейчас уже сложно найти страницу без возможности сделать репост в одну из социальных сетей. Многие ставят такие счетчики, потому что это модно и современно; другие уверены, что это поможет продвижению в поисковиках. Но на самом деле само количество репостов и лайков на позицию сайта в Google никак не влияет – влияют последующие действия пользователей, которые увидели репост. Поэтому иметь кнопки шеринга на сайте полезно, а вот покупать репосты и лайки – нет.

3. На чем создан сайт

Для бота Google неважно, какие именно технологии используются на сайте. Главным все равно остается контент, который видят пользователи – и который сканируют поисковые боты. Конечно, есть движки, более заточенные под SEO, а есть менее – поэтому появилось понятие «SEO-friendly СMS». Это не значит, что Google как-то особенно выделит сайт на этом движке – просто система поможет оптимизировать сайт для продвижения: можно использовать мета-теги и ЧПУ, кэширование (для увеличения скорости работы сайта) и т.д. Все это положительно влияет на SEO, однако сам движок отдельно Google не оценивает как положительный или отрицательный фактор.

4. Вид хостинга

Google все равно, где вы расположите сайт – на виртуальном хостинге или на собственном отдельном сервере. До тех пор, пока это не влияет на скорость работы сайта и его доступность. Поэтому выбирайте тип хостинга и тариф, исходя из нагрузки и других характеристик, а не в надежде получить повыше место в поисковой выдаче.

5. Количество страниц сайта

Все тот же представитель Google Джон Мюллер сообщил, что прямой связи между количеством страниц на сайте и его местом в поисковой выдаче нет. Здесь, опять же, нужно понимать, что больше страниц – это больше контента, статей, больше внутренних ссылок и других полезных для оптимизации элементов. То есть нет смысла искусственно увеличивать количество страниц только ради ранжирования, но есть увеличивать количество полезного контента.

6. Показ сайта в Сети знаний и блоке ответов

Сеть знаний (Knowledge Graph) отображается при поиске информации о каком-либо предмете в виде краткой информации об этом объекте. А блок ответов появляется, если пользователь задал какой-то вопрос (и Google нашел, какой ответ можно ему предложить). Само отображение сайта в подобной области никак не влияет на место сайта в поиске – просто по данному запросу наиболее релевантным оказался этот сайт.

Читать еще:  Временная почта и одноразовые email-адреса без регистрации, а также бесплатные анонимные почтовые ящики

И, кстати, тут есть один нюанс: получая информацию прямо в поисковике, пользователь потом не заходит на сайт, который предоставил эту информацию. То есть когда сайт попадает, например, в блок ответов – это почетно, но… лишает сайт потенциальных посетителей. Поэтому существует совет: не выкладывайте сразу всю информацию, а оставьте что-то, ради чего пользователь может зайти на ваш сайт.

7. Индексирование всех страниц

Веб-мастера переживают, если Google индексирует не все страницы их сайта. Однако на самом деле если в индексе не все страницы – это нормально. Если Google-бот видит, что на сайте есть две страницы, содержание которых очень похоже, то он может добавить в индекс только ту страницу, которая имеет более качественные и полезные материалы.

8. Ошибка 404

Принято считать, что наличие страниц с 404 ошибкой негативно влияет на индексирование и ранжирование сайта в поисковиках. Однако специалист Google Гэри Иллиес заявляет, что неверно полагать, что ошибки 404 влекут за собой какие-либо санкции для сайта.

Определенная логика в этом прослеживается, ведь если бы 404 ошибка действительно влияла на SEO, то можно было бы легко потопить сайт конкурента при помощи несуществующих ссылок.Джон Мюллер также заявлял, что Google-боты не обращают внимания на ссылки, которые никуда не ведут; битые ссылки никак не влияют на ранжирование, даже если их будет очень много.

Впрочем не стоит забывать о том, что даже если 404 ошибки не влияют на ранжирование, они могут негативно восприниматься посетителями, поэтому от неработающих ссылок лучше все равно избавляться.

9. Длинный список ключевых слов

До сих пор существует мнение о том, что, во-первых, нужно включать максимальное количество ключевых слов в тег , а во-вторых, нужно размещать максимальное количество ключевых слов на странице. И то, и другое неверно: тегу поисковые боты уже не придают большого значения, а большое количество слов на странице (да и в теге, кстати, тоже) бот посчитает как перенасыщение и спам. Поэтому здесь нужно помнить о правиле, что больше – это не значит лучше.

Обычно рекомендуют делать плотность ключевых слов в 5% — то есть ключевые слова должны составлять в районе 5% от всего текста на странице. Меньшее количество может привести к понижению релевантности, а большее – к спаму.

10. Платная реклама

Наконец, бытует мнение, что платная реклама может повысить позиции сайта и в органической выдаче. Однако какого-либо подтверждения на практике она не нашла. Маркетологи, работающие с Google, отмечали, что позиции их сайтов в поисковой выдаче никак не изменились даже несмотря на то, что они тратили на рекламу по несколько тысяч долларов.

Эти 10 мифов – не единственные мифы, существующие в SEO-сфере. Некоторые SEO-специалисты до сих следуют правилам, которые уже потеряли свою актуальность – в мире поисковых систем все меняется очень быстро. Поэтому следите за последней информацией в официальных блогах компаний, пробуйте и делайте выводы.

Повторная оптимизация контента: пошаговое руководство и советы (перевод)

20 января 2020 года. Опубликовано в разделах: SEO за рубежом, SEO инструкция, SEO самостоятельно, Перевод. Время чтения

В одном из прошлых постов на Moz мы говорили, что в течение нескольких минут после повторного попадания статьи в индекс, может увеличиться органический трафик.

Почему это происходит? Вероятно, из-за сочетания нескольких факторов:

  • Возраст. В предыдущем исследовании мы наблюдали связь между временем нахождения страницы в индексе и эффективностью ключевого слова / URL (при отсутствии обратных ссылок).
  • Полнота контента. Предположительно, при повторной оптимизации контента вы добавляете глубину раскрытия темы, а также контекстную широту. На данны й момент Google понимает, когда контент полностью покрывает тематический кластер.
  • Ценность. Если оптимизировать и без того ценный контент, его выгоды для сайта будут увеличиваться кратно.

В этом руководстве я расскажу, как найти тот контент, который нужно переоптимизировать, чтобы увеличить его эффект.

Как все работает

Сайт Brafton — площадка, для нашей маркетинговой команды, где мы пробуем и обкатываем новые решения. Это имеет смысл: если что-то идет не так, мы не тратим клиентские деньги.

Именно на нем мы применили стратегию переоптимизации контента, о которой я буду рассказывать. Она приносит непосредственно выгоду. Вот одна из статей, которую мы повторно оптимизировали. Посмотрите на трафик из поиска:

Во многих случаях повторная оптимизация контента — это не случай «сделал и забыл». Мы часто сталкиваемся с ситуациями, когда это превращается в гонку вооружений. Мы оптимизируем статью, но она теряет рейтинг через некоторое время в ПС. Приходится делать еще одну итерацию. На второй картинке изображен как раз такой случай.

Шаг 1. Находим первичные ключи

Если контент не присутствует в выдаче по целевому ключу, от него нет смысла.

Нам нужно выяснить, какие ключи нужны для вывода уже существующей статьи в топ. Т. е. мы ищем худшие ключи. Но чтобы не брать запросы с совсем низкой частотностью, установим ограничение на их рейтинг в выдаче.

Таким образом, мы отсекаем ключи с 11 страницы выдачи, например. Так, для нашего тестового ресурса такой порог — от 6 до 29 позиции на SERP.

Для этой операции подходит любой SEO-инструмент. Просто выгрузите список всех запросов своего сайта, отфильтруйте таким образом, чтобы видеть интересующие позиции (в нашем примере — от 6 до 29).

Вот как это может выглядеть:

Шаг 2. Фильтруем ключи по частотности

Нет смысла оптимизировать контент под запрос с нулевой частотностью. Нам нужны только частотные запросы, которые указывают на вероятность успеха.

Читать еще:  Binance — биржа криптовалют с отличными отзывами, низкой комиссией и высокой скоростью работы

Я беру ключи с минимальной частотностью 100. Я выбрал именно такое значение, потому что в лучшем случае (при достижении первой позиции) я получу

31 визит по этому запросу при условии отсутствия расширенного сниппета. В конце концов, написание статей стоит денег, и мне нужно оправдать эти вложения в контент.

Теперь у нас есть в списке только ключи с достаточной частотностью. Их уже можно использовать для переоптимизации.

Шаг 3. Фильтруем запросы по сложности

Лучший вариант, когда вы возьмете в работу высокочастотные ключи с низкой конкурентностью. Я всегда ищу быстрые варианты побед с наименьшими затратами.

Однако, сделаю отступление. Если вы у вас на предыдущем шаге в список попали высококонкурентные запросы, которые вы ну уж очень хотите использовать, вам придется дополнить стратегию весьма агрессивным линкбилдингом. Также можно превратить страницу в «столп контента».

Как установить границы по частотности и конкурентности

Сложность в том, что у разных инструментов — свои алгоритмы подсчета конкурентности — или «сложности» — запросов. И в разных сервисах отличаются параметры того или иного ключевого слова.Но вот несколько рекомендаций, которые помогут вам разобраться. Подойдут в случае доменов с рейтингом от 30 до 55.

В качестве примера возьму Moz Keyword Explorer. У инструмента есть предопределенные диапазоны, поэтому точных лимитов мы не достигнем, но будем достаточно близки к ним.

Итак, на этом шаге в нашем списке должны остаться только ключевые слова с достаточной частотностью и разумными показателями конкурентности.

Шаг 4. Фильтрация для блоговых статей (опционально)

По своему опыту скажу: обычно блоги растут быстрее, чем посадочные страницы. Хотя описываемый мною процесс можно применять для любого типа страниц, я хочу рассказать именно про информационный контент.

Если сайт подчиняется определенной структуре, статьи на нем находятся в подкаталоге “/blog”. Это позволяет легко сегментировать запросы.

Получим список запросов, которые подойдут для оптимизации информационного раздела сайта.

Шаг 5. Выбираем релевантные ключи

Важный вопрос, который также нужно решить перед началом переоптимизации контента — определение релевантности запросов. Каждый сайт ранжируется по релевантным ключам, а вместе с ними — и по некоторым нерелевантным запросам. Вот пример:

Я рекомендую экспортировать список в таблицу, чтобы сразу сортировать запросы.

Просто оцените список и решите, что нужно, а что — пустая трата времени.

Теперь, когда у нас список релевантных ключевых слов, мы должны быть уверены в том, что каждый запрос имеет достаточную частотность и адекватную степень конкурентности, при этом подходит в качестве темы для статей в блог.

Далее — очень важный параметр, которым должны обладать запросы. К сожалению, многие специалисты забывают про каннибализацию ключевых слов.

Шаг 6. «Каннибализации здесь не место»

Специалист может забыть, что URL обычно ранжируется по нескольким ключевым словам. Если не собрать их все, вы можете повторно оптимизировать запрос с низким потенциалом и убить весь органический трафик по ценным ключам.

Некоторые инструменты дают рекомендации по изменению тех частей контента, которые не нужно трогать вообще. Поэтому перед началом работы нужно составить представление: что изменить нужно, а что лучше не трогать.

Вот пример. Страница есть в поиске, к ней идет рекомендация улучшить часть контента для запроса “internal newsletter”.

Вроде рекомендация выглядит адекватной. Но давайте проверим, нанесем ли мы ущерб повторной оптимизацией под этот запрос.

Конечно, мы занимаем первую позицию по этому запросу. При этом, прогнозируемый месячный трафик — от 501 до 850 в месяц. Я вообще не хочу этот ключ трогать.

С другой стороны, этот же инструмент рекомендовал мне повторно оптимизировать статью “How long should a blog post be”. Я зашел в инструментарий Moz, и увидел, что в этом случае повторная оптимизация нужна.

Поэтому проверяйте все собранные запросы заранее, а только потом отдавайте в работу именно те ключи, ситуацию с которыми действительно нужно улучшить.

Шаг 7. Обновляем и отправляем на переиндексирование

У вас больше шансов на ранжирование по целевому ключу, если вы увеличите широту и глубину того раздела контента, к которому запрос относится. Есть много инструментов, которые решают эту задачу.

В Brafton мы используем MarketMuse, Ryte и Clearscope.

Что делать по шагам:

  • Обновите контент в вашей CMS.
  • При этом сохраните исходный URL, иначе вся работа пойдет насмарку.
  • Обновите дату публикации. Теперь это новый контент, который нужно переиндексировать. Можно воспользоваться ODF.
  • Отправить запрос в Google на переиндексацию, чтобы не ждать естественного обхода.

Шаг 8. Смотрим на результат

Приятно опережать конкурентов в выдаче, не правда ли?

Обычно я смотрю на эффективность проделанной работы несколькими способами:

  • Количество посещений страницы в Search Console — ведущий индикатор..
  • Инструмент мониторинга ключевых слов на странице — смотрите за состоянием переоптимизированных ключей в панели мониторинга позиций.
  • Мультивариантность ключевых слов. Если добавите контента глубину, есть хороший шанс ранжироваться по большому количеству вариантов одного запроса.

Заключение

Повторная оптимизация контента — одна из тактик, которая поможет получить больше органического трафика. Если вы сделаете все согласно алгоритму и отсечете ненужные запросы для переоптимизации, вы точно увидите рост посещаемости повторно оптимизированных страниц.

  • Собрать первоначальную семантику, по которой вы продвигаетесь, но пока не вышли в топ.
  • Отсечь ключи с низкой частотностью, которая вам не подходит.
  • Убрать ключи с высокой конкурентностью.
  • Можно выделить только информационные запросы, если оптимизируете только старые статьи.
  • Взять только релевантные запросы.
  • Проверить, стоит ли брать запросы в работу: не случится ли так, что вы только нанесете вред трафику (если страница уже находится в топе по какому-либо другому запросу, например).
  • Обновить контент, отправить запрос на его переиндексацию.
  • Отследить результат.

– Только качественный трафик из Яндекса и Google
– Понятная отчетность о работе и о планах работ
– Полная прозрачность работ

Ссылка на основную публикацию
Adblock
detector