Как удалять плохие ссылки на сайт с помощью xtool в эпоху минусинска?

Как выйти из-под «Минусинска», не удаляя важные ссылки

Почему это важно

Многие разработчики и оптимизаторы сайтов сталкиваются с проблемой вывода своих проектов из-под фильтра «Минусинск», запущенного Яндексом в мае 2015 года. Чаще всего вебмастера начинают удалять все ссылки, при этом не анализируя их. Как следствие, сайты начинают резко терять органический трафик из поисковых систем. В свою очередь снижение посещаемости целевыми пользователями прямо сказывается на падении продаж с сайта.

«Минусинск» призван понижать в выдаче сайты, имеющие признаки продвижения с помощью некачественных, «мусорных» ссылок. Это автоматический фильтр, и когда количество таких ссылок становится меньше определённого процента, он снимается автоматически.

Что делать, если сайт попал под фильтр

Разберём работу фильтра более подробно на примере сайта Teploformat.ua. Когда команда Promodo получила этот проект в работу, он уже находился под фильтром «Минусинск», и первоначальная задача стояла в том, чтобы вывести сайт из-под фильтра.

Выбранная стратегия выглядит следующим образом: с помощью RDS API собрать, отсортировать и найти те ссылки, которые вредят вашему сайту.

Фильтр на сайт Teploformat.ua был наложен в феврале 2016 года, и до сентября никаких изменений в пользовательском трафике не происходило.

Одновременно с этим Яндекс.Вебмастере было получено сообщение о том, что на сайте используются некачественные ссылки:

После того, как клиент сообщил, какие сервисы для размещения ссылок были задействованы, мы провели анализ ссылочной массы. Для этого было использовано приложение RDS API, с помощью которого можно проанализировать сайты с обратными ссылками по многим параметрам.

Работа с RDS API

RDS API – это небольшая локальная программа, разработанная под Windows. Она является очень простым и удобным инструментом для оперативного и массового анализа показателей сайтов и их страниц, поскольку не отягощена баном поисковиков, поиском прокси-адресов и другими сложностями, Это приложение ориентировано по большей части на вебмастеров и оптимизаторов.

Для работы на Linux и Mac существуют аналоги вроде Site-Auditor, Website Auditor, а также частично бесплатная утилита Screaming Frog SEOSpider, предоставляющая расширенный функционал при покупке платного аккаунта.

Приступаем к работе с RDS API:

1. Для начала работы нужно установить приложение себе на компьютер:

2. Далее необходимо зайти в аккаунт сервиса, который использовался для размещения обратных ссылок. Для данного проекта была подключена ссылочная биржа Sape, через которую размещались вечные ссылки.

Всего через этот сервис было проставлено порядка 500 обратных ссылок:

3. Выгружаем все размещенные ссылки, чтобы провести их анализ. Причём не важно, в какой именно бирже они были размещены, так как основная цель этого действия – получить ссылки и загрузить их в RDS API.

4. Далее выбираем только параметры, по которым хотим оценить качество доноров. В нашем случае они следующие:

5. Проводим анализ загруженных ссылок по выбранным параметрам:

6. После завершения проверки, необходимо выгрузить полученные данные. Для этого нажимаем кнопку «Сохранить» в левом верхнем углу. В результирующем документе получаем ссылки с параметрами, по которым и будем их в дальнейшем сортировать.

В данном случае основными параметрами, по которым выбирали ссылки для удаления, были следующие:

• сайт находится под АГС;

• RU-домены, так как сайт продвигается под Украину;

• сайты с большим количеством исходящих ссылок;

Что делать дальше

Для лучшего понимания, какие площадки Яндекс посчитал некачественными, можно написать письмо в службу поддержки Яндекса «Платон» с просьбой подсказать ссылки, которые являются некачественными. В случае с данным сайтом Яндекс прислал несколько ссылок:

После фильтрации по этим параметрам выбранные ссылки начали удаляться.

В бирже Sape есть возможность заплатить вебмастерам и снять ссылку на ваш сайт. Но в данном случае у сайта Teploformat.ua также были некачественные ссылки, которые были размещены другими способами. Для работы с ними были собраны email-адреса с данных площадок и разосланы письма владельцам сайтов с просьбой снять конкретную ссылку, на конкретной странице. Из выбранных 70 площадок 15 ответило и сняло ссылки, а еще 10 попросили за это деньги, остальные не ответили. В итоге из всех размещенных в Sape ссылок было снято порядка 250.

В процессе снятия ссылок, были размещены безанкорные ссылки взамен снятым, в соотношении 3 к 1. Три ссылки были удалены, одну из них ставили – это было необходимо для того, чтоб поддерживать позиции в поисковой системе Google.

Результат

После того, как были выявлены некачественные обратные ссылки, которые привели к попаданию под фильтр, они были сняты и переиндексированы поисковыми системами. По истечению двух месяцев сайт вышел из-под «Минусинска». При этом были сохранены качественные обратные ссылки, а трафик в Googleне только не просел, но даже вырос на 292%:

Вывод

Качество сайтов-доноров ссылок, их контент и соответствие тематики вашему ресурсу – очень важные факторы, на которые поисковые системы все больше и больше обращают внимание. Такие ссылки нарушают рекомендации для вебмастеров не только Яндекса, но и Google. Их массовое применение может привести к попаданию сайта под действие фильтров, что в свою очередь повлечет значительное сокращение трафика, а значит – и объёма продаж. Кроме того, на содержание такой ссылочной массы тратится существенная доля рекламного бюджета.

Однако попадания вашего сайта под фильтр Яндекса можно избежать. Для этого при выборе площадок для размещения ссылок на ваш сайт следует их фильтровать по следующим признакам:

• площадки должны быть из вашего региона и желательно из вашей доменной зоны;

• донор ссылки и сам не должен быть под фильтром («Ты спамный», АГС, «Минусинск» и т.д.);

• так как фильтр был наложен Яндексом, желательно не использовать сайты с параметром ТИЦ 0 (тематический индекс цитирования, который Яндекс использует для оценки сайтов);

• количество входящих и исходящих ссылок должно быть примерно равно.

При попадании сайта под фильтр следует помнить, что одного только удаления некачественных ссылок недостаточно. Поскольку необходимо будет дождаться, чтобы их критическая часть выпала из индекса поисковиков, вывод сайта из-под фильтра может затянуться надолго. Если же изначально подходить к выбору площадки с должной тщательностью, вам в дальнейшем не придётся беспокоиться о возможных санкциях.

Роман Лазуренко

Специалист по продвижению web-проектов в компании Promodo.

Более 4 лет работает в профильных интернет-агентствах и интернет-магазинах в качестве SEO-специалиста и специалиста по контекстной рекламе. Эксперт по SEO-методикам. Автор нескольких статей по оптимизации и аналитике YouTube-канала. Преподавал курс SEO в обучающем центре I-Marketing School.

Читать еще:  Linkedin — что это такое и как линкедин может помочь в поиске работы вашей мечты

Читайте также

NPS: измеряем лояльность клиентов правильно на примере Promodo

Как правильно интерпретировать результаты NPS и увеличить индекс лояльности клиентов? Инсайты от руководителя отдела маркетинга Promodo

Алексей Горовенко

Руководитель отдела маркетинга компании Promodo

«Amazon я бы мог отдать долю в проекте бесплатно». Интервью с Василием Хмельницким, основателем UFuture

Каким будет бизнес будущего, как создать экосистему успеха и кого Хмельницкий точно не возьмет на работу

Как найти плохие внешние ссылки и избавиться от их влияния на ранжирование сайта

Ссылки являются фактором ранжирования, часто используются оптимизаторами и в зависимости от качества могут принести как пользу при раскрутке сайта, так и вред.

MegaIndex анализирует найденные в интернете ссылки применяя множество факторов, робот MegaIndex проводит автоматическую разметку на токсичные (спамные) и органические ссылки.

Сервис позволяет провести выгрузку плохих ссылок для последующего дополнительного анализа и загрузки в Google Disavow Links Tool или отправки для дезавуирования в Яндекс.

  1. Используя приложение Внешние ссылки, Вы находите потенциально опасные ссылки;
  2. Вы анализируете список из потенциально опасных ссылок и определяете опасные;
  3. Вы отправляете отобранные опасные ссылки в Google Disavow Links Tool или в Yandex по форме обратной связи.

Как итог:

  • Продвигаемый сайт будет в безопасности от штрафных санкций Google и Яндекс за ссылочный спам;
  • И после дезавуирования опасных ссылок позиции сайта могут вырасти.

Какие ссылки плохие

Плохими ссылки считаются спамные ссылки, предназначенные для манипулирования результатами поисковой выдачи.

Анализ ссылочного профиля сайта по внешним ссылкам проводится с целью выявления спамных ссылок и их оперативного дезавуирования.

Если сайт продвигается белыми методами, навряд ли правильно отказываться от мониторинга ссылочной массы. Размещать спамные ссылки и ссылки со спамом в анкорах на сайт могут конкуренты.

Аналитика ссылочного профиля проводится:

  • На старте работ по внешней оптимизации сайта с целью очистки ссылочного профиля продвигаемого сайта;
  • При выводе сайта из-под санкций поисковых систем;
  • При поступлении бесплатных уведомлений об опасных ссылках. Уведомления приходят от MegaIndex каждый месяц, если добавили сайт в систему.

В MegaIndex разработаны специальные методы API для получения информации о ссылках.

Пример использование API. Запрос информации про изменения ссылочной массы для домена indexoid.com.

Используя API можно получать данные о внешних ссылках используя следующие методы:

  • backlinks — метод API позволяющий получить обратные ссылки. Стоимость запроса: 1.00 Units/запрос, 0.20 Units/строка
  • backlinks/total — метод API позволяющий получить сжатые данные по обратным ссылкам. Стоимость запроса: 20.00 Units/запрос
  • backlinks/subdomains — метод API позволяющий получить обратные ссылки на поддомены. Стоимость запроса: 1.00 Units/запрос, 0.20 Units/строка
  • backlinks/changes — изменение ссылочной массы. Стоимость запроса: 5.00 Units/запрос
  • backlinks/url_counters_total — социальные шаринги в видимости, ссылки в видимости. Стоимость запроса: 10.00 Units/запрос
  • backlinks/counters — метод позволяет просмотреть общие данные по домену, Yandex каталог, обратные ссылки. Стоимость запроса: 20.00 Units/запрос

Пример ответа по API

Цены на API

Стоимость запроса: 1 unit за 1 запрос.

  • 20 000 units — 500 рублей (0.025 рублей за 1 unit)
  • 50 000 units — 1 000 рублей (0.02 рублей за 1 unit)
  • 200 000 units — 3 000 рублей (0.015 рублей за unit)
  • 500 000 units — 6 000 рублей (0.012 рублей за 1 unit)
  • 1 000 000 units- 10 000 рублей (0.01 рублей за 1 unit)

Например, при покупке 1 000 000 units за 10 000 рублей, проверка позиции сайта по запросу будет стоить 1 копейку (за 1 рубль можно проверить 100 запросов в выдаче).

Используя API, вы можете получать данные о балансе units:

Страница для пополнения units — https://ru.megaindex.com/api/payd. Страница отображается после входа в аккаунт.

Дезавуирование плохих ссылок

Рекомендуется избавиться от всех опасных и подозрительных обратных ссылок обнаруженных при проверке ссылочного профиля сайта, чтобы продвигаемый сайт был в полной безопасности от штрафных санкций поисковых систем Google и Яндекс за манипулирование ранжированием сайта.

  1. Проанализируйте потенциально опасные ссылки отобранные MegaIndex и выберите опасные;
  2. Импортируйте плохие внешние ссылки из MegaIndex;
  3. Загрузите файл в Google Disavow Links Tool или в Яндекс по форме обратной связи.

Определенная доля плохих ссылок в ссылочном профиле допускается, но максимальный порог зависит от тематики и поисковой системы. Общий отчет по ссылкам выводит долю плохих и естественных ссылок. Пример — https://ru.megaindex.com/backlinks/gazeta.ru

Сравнение ссылочного профиля с средним среди сайтов конкурентов полезно для определения допустимой доли токсичных ссылок и определения вероятности попадания под фильтр. Рекомендуется держать долю плохих ссылок на уровне не выше основных конкурентов.

Алгоритмы анализа внешних ссылок в SEO

Выбранный MegaIndex подход подразумевает единственное решение — обучение алгоритма на базе множества факторов, аналогично поисковым алгоритмам.

Как MegaIndex определяет плохая ссылка или нет:

  • Задается два множества, которые используются для обучения алгоритма: плохие ссылки, естественные ссылки
  • На вход подается размеченная выборка, где заранее известно, какие ссылки SEO, а какие нет
  • Аналитическая команда MegaIndex потрудилась над выработкой различных критериев для ссылок, используемых для обучения алгоритма разметки. Всего критериев 100, хотя реально полезных не более 30
  • Сервис не считает определенный сайт на 100% плохим или хорошим. На сайте могут быть естественные и SEO-ссылки
  • Сервис не загружает всем известные базы сайтов из бирж ссылок, чтобы алгоритм одинаково работал для всех известных и закрытых сервисов получения SEO-ссылок

Работа с проектами в MegaIndex — Видео

Как найти плохие ссылки — ВИДЕО

Удаляем низкокачественные входящие ссылки на сайт

Обратные ссылки — это ссылки, что ставят на своих ресурсах другие вебмастера, ссылаясь на Вас как на дополнительный источник информации. Входящая ссылка на Ваш сайт повышает эффект от общей оптимизации ресурса в поисковых системах. Увидеть закономерность крайне просто – чем выше количество ссылающихся доноров, тем ближе Ваш сайт становиться к вершине поисковой выдачи. Поисковые машины включают в свои алгоритмы ранжирования осведомленность о количестве входящих ссылок на сайт.

Таким образом, благодаря большому количеству бэков, поисковики больше доверяют данному ресурсу. Чем больше ссылок, тем легче проходит оптимизация и продвижение. Правда и тут имеются свои нюансы. Давайте с ними разбираться.

Зачем проверять обратные ссылки на свой сайт?

Первым же вопросом, которым Вы можете задаться, будет звучать примерно так: а зачем вообще необходимо проводить проверку обратных ссылок?

Многим из Вас известно, а кто нет — узнает, что существует вероятность попадания под фильтры поисковых систем из-за плохих ссылок, в самом печальном варианте. В менее печальном, низкокачественные ссылки негативно повлияют на позиции сайта. Анализ ссылочной массы не всегда нужен только ради изучения конкурентов и поиск возможностей улучшения своего ссылочного портфеля. Из-за того, что поисковые системы решили ввести фильтры типа Penguin от Google и АГС от Яндекса, учитывающие качество бэков, появилась необходимость в поиске и отборе «опасных ссылок». Другими словами следует убрать ссылки, что могут навредить ресурсу.

Читать еще:  Дополнительный заработок в свободное время (сидя дома в интернете)

Безусловно, Вы можете продвигать свой проект в Топ исключительно полезным контентом, добавляя уникальные оптимизированные статьи и совершенно не тратя время на работу по накапливанию ссылок. Но вероятность успеха гораздо ниже, нежели у вебмастеров занимающихся увеличением количества обратных ссылок на сайт.

! Самая лучшая ситуация, когда прирост входящих ссылок происходит естественным путем – посетители на других ресурсах оставляют ссылки на Ваш сайт или вебмастера ссылаются в своих статьях на Вас, как на дополнительный источник информации.

Но откуда могут появиться пользователи на новом проекте, когда он еще не раскручен? Решений несколько:

Покупать ссылки на биржах. О том, какие биржи бывают и как с каждой из них работать читайте на моем сайте.

Добавлять бесплатные ссылки. Хотите знать, как отобрать релевантные форумы своим запросам, переходите сюда .

Правда, со временем даже самые хорошие ссылки «теряют свое лицо». Доноры, которые были отобраны по самим строгим критериям, через определенное время могут превратиться в ГС, соответственно и ссылки с них станут низкокачественными. Этот процесс абсолютно нормальный и от него никуда не деться. Поэтому у Вас всегда будут идти два этапа параллельно:

  1. Набивка новых хороших ссылок;
  2. Удаление старых (превратившихся в плохих) ссылок.

Как происходит отбор плохих входящих ссылок?

  1. Собираем в файле все входящие ссылки;
  2. Проверяем ссылки, составляем черный список;
  3. Снятие ссылок.

Вытягиваем бэклинки

Для того чтобы собрать полный список входящих ссылок достаточно воспользоваться системами, которых в наше время развелось большое количество, как платных, так и бесплатных. О том, какие бывают ресурсы по сбору данных я писал в статье анализ ссылочной массы конкурентов .

Фильтрация входящих ссылок

Я уже описывал, как следует фильтровать доноров в статье отбор сайтов в биржах, поэтому не вижу смысла повторяться, разводя дубли контента. Для нас будут интересны пункты 2-9 с той статьи.

Плохие сайты заносим в черный список, а что касается оставшихся — придется пройтись по ним и проверить на тематичность, дублирующий контент и спамерские комментарии.

Уже не раз мною было отмечено, что тематика сайта-донора и сайта-реципиента должна быть одинаковой либо очень схожей. У Гугла пунктик по поводу релевантности, поэтому если на Вас ссылается сайт совершенно иной тематики, то это приведет к плохому сигналу.

Сайты, имеющие дублирующий контент обычно низкого качества, поэтому если они не отсеялись на предыдущих уровнях, то их также стоит занести в ЧС.

Как избавиться от нежелательных обратных ссылок на сайт?

Снимаются подобные ссылки обычно вручную – Вы отправляете запрос владельцам сайтов, где размещены ссылки на Ваши ресурсы, об удалении таковых с публикаций, аргументируя это тем, что они наносят вред репутации вашего проекта.

! Правда, ручное удаление эффективно не каждый раз, точнее Вы порой просто не в состоянии связаться с владельцами (вебмастерами) тех ресурсов, на которых размещены нежелательные обратные ссылки. А бывают случаи, когда они и вовсе отказываются выполнять Вашу просьбу и перестают отвечать на сообщения. В таком случае нет другого выхода, как обратится к альтернативным методам борьбы с некачественными входящими ссылками, дабы снизить их негативное влияние.

Как убрать ссылки в Google

Избавление сайта от плохого влияния внешних ссылок является одним из множества пунктов оптимизации продвигаемого ресурса.

Понимая, что оптимизаторам, работающим над белым SEO, следует помочь, разработчики Гугл добавили функционал, благодаря которому появилась возможность уведомить ПС о том, что определенные ссылки, ведущие на сайт, не следует учитывать. В своем официальном блоге товарищ Google поделился информацией о новом инструменте, позволяющем «отключить» неугодные оптимизатору ссылки.

Данный инструмент получил название «Отклонение ссылок» и функционирует следующим образом – Вы собираете черный список (ссылки, от которых желаете избавиться), а потом, используя форму загрузки файла, отдаете Гуглу на съедение ссылки, с которыми уже мысленно попрощались. Google же, как демократичный парень, обязательно Вас предупредит о том, что ссылки следует фильтровать крайне осторожно, так как «отключение» нормальных ссылок, может плохо сказаться на сайте. А именно, ресурс может быть пессимизирован в поисковой выдаче.

Хочу отметить, что Google не дает гарантий о немедленном улучшении результатов после работы с инструментов Disavow Links. Как говорят представители Гугл: загрузка файла с ссылками в исключение является скорее рекомендацией для поисковых роботов, нежели прямой директивой. Но спустя какое-то время, после повторной переиндексации, уже без влияния тех страниц, с которых были запрещены ссылки, Вы можете заметить положительные изменения.

Как удалить ссылку в Яндексе

А вот Yandex подобного функционала не имеет и в ближайшее время разработчики данной поисковой системы не намерены добавлять подобный функционал в Вебмастер Яндекса. При попытке связаться с техподдержкой и объяснить ситуацию приходит ответ следующего содержания: «типа не переживайте, на ваш сайт эти линки никак не влияют…».

В то же время Минусинск активно бьет по сайтам, на которые ссылаются ГС. На вебинаре от Yandex, куратор отдела по внедрению в жизнь Минусинска, открыто заявила, что «спасение утопающих дело самих утопающих». Другими словами вебмастера должны сами находить пути как убрать ссылку в Яндексе, чтобы не попасть под этот зловредный фильтр. Так что не остается ничего иного, как снять их с тех сайтов, на которых эти бэки стоят.

Как удалить входящие ссылки на сайт (видео)

Понравилась статья? Пожалуйста, оцените и поделитесь:

Как удалять плохие ссылки на сайт с помощью xtool в эпоху минусинска?

Покупка обратных ссылок далеко не всегда обеспечивает авторитетность сайта и даже может привести к применению фильтров от поисковых систем. Кроме правильного наращивания ссылочной массы, необходимо чистить свой сайт от «плохих» бэклинков, чтобы не столкнуться с неприятностями. Как понять, что вы получили именно «плохую» обратную ссылку? Как найти такие ссылки и избавиться от них? На эти вопросы я отвечу в данном посте.

1. Какие обратные ссылки считаются плохими, и чем они могут грозить

Есть несколько факторов, которые определяют плохую ссылку:

  1. Главное отличие — плохие ссылки ведут с низкокачественных и спамных сайтов.
  2. Их получают со страниц и сайтов, которые массово продают ссылки, что не относится к белому SEO.
  3. Ссылки с сайтов с низкими показателями качества Domain Rating (метрика Ahrefs), Domain Authority (метрика Moz).
  4. Ссылка получена со страницы, которая ссылается на другие спамные страницы, или с сайта с неразбавленной и неорганической ссылочной массой.
  5. На сайте, который ссылается на ваш, присутствует множество нетематических ссылок.
Читать еще:  Как продвинуть сайт самостоятельно, улучшая внутреннюю оптимизацию под ключевые слова и удаляя дубли контента

Поисковые системы могут отследить практически все эти факторы и применить фильтры к сайтам, на которые ведут низкокачественные ссылки. Google, например, накладывает ручные санкции или применяет алгоритм Пингвин.

В обоих случаях последствия наносят большой ущерб — резкое ухудшение ранжирования. Выйти из-под санкций и вернуть прежние позиции сайта в выдаче — достаточно сложная работа. Иногда легче создать новый сайт, чем пытаться «воскресить» тот, что оказался под санкциями.

Даже владельцы сайтов, которые используют белые методы SEO, не застрахованы от штрафов поисковых систем, поэтому я советую регулярно проверять качество обратных ссылок.

2. Как найти плохие бэклинки

2.1. Собираем обратные ссылки

Процесс поиска и сбора бэклинков я покажу на примере нескольких сервисов.

  1. Откройте инструмент.
  2. Выберите тип области поиска «Главный домен», вставьте в строку начальный URL, выберите поисковую систему и нажмите «Найти».
  3. Перейдите в раздел «Анализ ссылок» → «Ссылающиеся домены» и «Ссылающиеся страницы».
  4. Экспортируйте отчёт с помощью кнопки «Экспорт».

В сформированном отчёте вы можете отфильтровать домены по таким метрикам, как Alexa Rank (рейтинговая система оценки сайтов), а также по метрикам Serpstat Page Rank и Serpstat Trust Rank.

  1. Войдите в сервис и выберите инструмент «Сайт Эксплорер».
  2. Введите домен сайта и нажмите на кнопку поиска.
  3. В разделе «Ссылочный профиль» кликните на пункт «Бэклинки». Перед вами откроется список всех внешних ссылок запрашиваемого сайта. В правом углу нажмите кнопку «Экспорт» для выгрузки отчёта по обратным ссылкам.

В отчёте представлена метрика от Ahrefs, которая называется «DR» (Рейтинг домена). Она показывает ссылочную популярность сайта в сравнении с остальными по шкале от 0 до 100.

Сразу после сохранения вы можете открыть отчёт в таблице Excel и отсортировать домены по показателям DR, определив самые низкие. Особое внимание уделите сайтам, чьи рейтинги ниже 20, — это достаточно низкий показатель и, возможно, стоит избавиться от таких ссылок.

Netpeak Checker

  1. Откройте программу Netpeak Checker и перейдите в инструмент «Парсер поисковых систем».
  2. В окне ввода поместите поисковой запрос:example.com -example.com, (где example.com — домен вашего сайта).
  3. В настройках анализа данных в разделе «Google» возле пунктов «Страна» и «Язык» выберите «Все». В пункте «Дата и время» вы можете обозначить желаемый период, в который были получены обратные ссылки.
  4. Сохраните настройки и приступите к сканированию кнопкой «Старт».
  5. По итогу вы получите список бэклинков, которые можете выгрузить при помощи кнопки «Экспорт», или перенести их хосты в основную таблицу инструмента и приступить к анализу показателей качества.

Google Search Console

  1. Откройте сервис.
  2. В правой боковой панели выберите раздел «Ссылки» и в окне «Сайты, ссылающиеся чаще всего» кликните «Дополнительно», чтобы увидеть полный список всех внешних ссылок.
  3. Нажмите на значок экспорта данных, чтобы сохранить отчёт.

2.2. Проверяем качество доменов

После того как вы собрали все внешние ссылки, пора заняться проверкой их качества. Я буду проверять ссылочных доноров по ряду таких критериев:

  • количество внешних ссылок;
  • видимость и суммарный трафик по Serpstat;
  • Domain Authority от Moz;
  • Domain Rating от Ahrefs;
  • Majestic Trust Flow;
  • рейтинг по Alexa;
  • индексация и упоминания в Google SERP;
  • ИКС Яндекса;
  • возраст домена (с помощью сервиса WHOIS).

Все эти параметры позволяет проверить вышеупомянутый Netpeak Checker. Программа позволяет подтягивать данные из внешних сервисов сразу в одну таблицу, поэтому не придётся собирать их для каждого URL по-отдельности.

Чтобы проанализировать домены, выполните следующие действия:

  1. Запустите программу.
  2. В «Параметрах» на боковой панели отметьте нижеперечисленные пункты:
  • В разделе «On-Page»: внешние ссылки.
  • В разделах «Serpstat», «Moz», «Ahrefs», «Majestic», «Alexa», «Google SERP», «Яндекс Вебмастер» и «Whois» отметить вышеперечисленные параметры, которые мы используем как критерии качества доменов.
  1. Загрузите список страниц, которые ссылаются на сайт. Для этого на верхней панели нажмите «Список URL» и выберите удобный для вас вариант вставки списка страниц, которые необходимо проанализировать: «Ввести вручную», «Загрузить из файла» или «Вставить из буфера обмена».
  2. Приступите к анализу, нажав кнопку «Старт».
  3. По завершении в основной таблице ознакомьтесь с содержанием колонок параметров, которые были мы анализировали.
  4. Нажмите «Экспорт», чтобы сохранить и обработать результаты и выявить подозрительные домены.

3. Как избавиться от плохих бэклинков

После обнаружения плохих ссылок необходимо как можно быстрее от них избавиться.

Самый лёгкий способ — связаться с владельцами сайтов, с которых стоят ссылки на ваш ресурс. Однако нужно понимать: нет точных гарантий, что на вашу просьбу откликнутся.

Более сложный, но верный способ — отправить ссылки одним файлом в Disavow Links Tool.

Схема действий следующая:

  1. Создайте файл формата .txt с кодировкой UTF-8.
  2. Вставьте туда все внешние ссылки, каждая из которых будет начинаться с новой строки.
  3. Сохраните файл.
  4. Откройте Disavow Links Tool, нажмите кнопку «Отклонение ссылок» и выберите сгенерированный вами ранее файл, после чего нажмите «Отправить».

Стоит уточнить, что после добавления ссылок в Disavow они не будут удалены, а просто будут игнорироваться поисковиками при ранжировании.

Подводим итоги

Бороться с проблемой гораздо сложнее, чем её предотвратить. Это напрямую касается и ссылочной массы. Аккуратное и правильное наращивание принесёт хорошие плоды, но в любой тактике могут случиться сбои. Именно поэтому я советую регулярно проводить проверку своего сайта на наличие плохих обратных ссылок, особенно в случаях, когда наблюдается резкий спад ранжирования.

  1. Найти все бэклинки на свой сайт и выгрузить по ним отчёты вы можете с помощью сервисов Ahrefs, Serpstat, Google Search Console. Также в поиске бэклинков вам может помочь встроенный инструмент «Парсер поисковой выдачи» в Netpeak Checker.
  2. Чтобы определить, какие из них вредят сайту, составьте список критериев качества домена, многие из которых также поможет проанализировать Netpeak Checker.
  3. Затем требуется снять влияние плохих ссылок через прямое обращение к владельцам доменом и с помощью Disavow Links Tool от Google.

А как вы боретесь с плохой ссылочной массой?

Это гостевой пост от Юлии Телижняк, контент-маркетолога в Netpeak Software.

Ссылка на основную публикацию
Adblock
detector