Azotirovanie.ru

Инженерные системы и решения
1 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Убираем лишние внешние ссылки со счетчиков

Убираем лишние внешние ссылки со счетчиков

Для тех, кто продает ссылки в Sape или использует другие способы заработка, где важно количество внешних ссылок, то, конечно, имеет смысл их оставлять у себя как можно меньше. Вес ссылок и, соответственно, их стоимость больше, чем меньше их количество на сайте:) Да и, в принципе, за такими вещами лучше следить. Всегда после создания нового блога / сателлита просматриваю шаблон и закрываю от индексации ненужные ссылки – это может быть ссылка в блогролле на сайт wordpress в виде благодарности (хотя я бы такое сразу удалял). В футере оставляю всегда копирайт автора, но ссылку закрываю – ему то главное траф и признание (если, конечно, он просто ссылками не барыжит:). Кроме того, сразу удаляю спонсорские всякие там хостинги, payday loans от партнерки T3Leads и тому подобное.

Также для СДЛ проектов и любых других «нормальных» сайтов вполне естественно наличие всяких счетчиков и кнопочек из рейтингов, конечно, если у вас имеется хоть какая-то адекватная посещаемость и красивые показатели. Тем не менее, все это тоже внешние ссылки, но необходимые. Лично я на все свои проекты стараюсь ставить счетчик Liveinternet, Рамблера и Mail.ru. Помимо циферок или кнопочок вы при этом участвуете в соответствующих рейтингах. Как говорят некоторые вебмастера, да и немного подсказывает личная практика, по крайней мере Рамблер любит когда на сайте есть его счетчик. Был у меня один «псевдосайт», который невзлюбили Яша и Google, зато стабильно ежедневно шел трафик с Рабмлера по 100-200 уников.

Так вот раньше, конечно, с такими ссылками было проще. Для закрытия индексации от Яши использовался тег <noindex>, а для Google rel=’nofollow’. Выглядело это приблизительно так

<noindex> <a rel="nofollow" href="http://top100.rambler.ru/home?id=1813083" target="_blank"> <img src="http://top100-images.rambler.ru/top100/b0.gif" alt="Rambler’s Top100" width="88" height="31" border="0" /> </a> </noindex>

А потом случилась такая штука, что Google перестал учитывать атрибут nofollow и хоть вес страницы другим не передавал, но от общего значения для страницы его все же отнимал. То есть, что закрывай сейчас nofollow, что нет – величина внешнего веса ссылок будет одинаковая. Поэтому некоторые оптимизаторы просто начали убирать лишние счетчики, кнопочки и все тому подобное.

И тут недавно совершенно случайно наткнулся на один очень интересный метод. Захожу, значит, в один из блогов, смотрю хорошая посещаемость – и дай думаю узнать что как откуда, но каково же было мое удивление, что вместо классического счетчика я видел только картинку! Связался с автором и он мне поведал, что мол подсмотрел такое на одном из западных сайтов и поставил у себя. На работоспособность не жаловался.

Собственно, что мы делаем: заходим в коды своих счетчиков, находим там тег <a> и аккуратненько удаляем, оставляя одну картинку. Внешней ссылки нет, а счетчик каким-то дивным образом работает. Непонятно как к этому отнесутся те или иные сервисы статистики и каталоги, тут нужно проверять на практике. Пока что вроде как нормально работает для Liveinternet, Рамблера и Mail.ru, ЯндексБлоги и некоторых других рейтингов блогов.

Что думаете по этому поводу? Буду ли проблемы, если убрать обратную ссылку? Хотя опять же ее всегда можно поставить:)

Как закрыть контент от индексации: руководство

Иногда возникают такие ситуации, когда нужно Закрыть от индексации часть контента. Далее рассмотрим все на примерах.

Часто необходимые вещи, которые необходимо скрыть от индексации Яндексом и Google:

  • Скрыть от поиска техническую информацию
  • Закрыть от индекса не уникальный контент
  • Скрыть сквозной,повторяющийся внутри сайта, контент
  • Закрыть мусорные страницы, которые нужны пользователям, но для робота выглядят как дубль

Как закрыть от индексации домен и поддомен

Для того, чтобы закрыть от индексации домен, можно использовать

1. Robots.txt

Для этого прописываем в нем следующие строки:

При помощи данной манипуляции мы закрываем сайт от индексации всеми поисковыми системами.

При необходимости Закрыть от индексации конкретной поисковой системой, можно добавить аналогичный код, но с указанием Юзерагента.

Читайте так же:
Счетчик населения земли реальном времени

Иногда, же бывает нужно наоборот открыть для индексации только какой-то конкретной ПС. В таком случае нужно составить файл Robots.txt в таком виде:

Таким образом мы позволяем индексировать сайт только однайо ПС. Однако минусом есть то, что при использовании такого метода, все-таки 100% гарантии не индексации нет. Однако, попадание закрытого таким образом сайта в индекс, носит скорее характер исключения.

Для того, чтобы проверить корректность вашего файла Robots.txt можно воспользоваться данным инструментом просто перейдите по этой ссылкеhttp://webmaster.yandex.ru/robots.xml.

2. Добавление Мета-тега Robots

Также можно закрыть домен от индексации при помощи Добавления к Код каждой страницы Тега:

Куда писать META-тег “Robots”. Как и любой META-тег он должен быть помещен в область HEAD HTML страницы:

Данный метод работает лучше чем Предыдущий, темболее его легче использовать точечно нежели Вариант с Роботсом. Хотя применение его ко всему сайту также не составит особого труда.

3. Закрытие сайта при помощи .htaccess

Для Того, чтобы открыть доступ к сайту только по паролю, нужно добавить в файл .htaccess, добавляем такой код:

После этого доступ к сайту будет возможен только после ввода пароля.

Защита от Индексации при таком методе является стопроцентной, однако есть нюанс, со сложностью просканить сайт на наличие ошибок. Не все парсеры могут проходить через процедуру Логина.

Закрываем от индексации часть текста

Очень часто случается такая ситуация, что необходимо закрыть от индексации Определенные части контента:

  • меню
  • текст
  • часть кода.
  • ссылку

Скажу сразу, что распространенный в свое время метод при помощи тега <noindex> не работает.

Однако существует альтернативный метод закрытия от индексации, который очень похож по своему принципу, а именно метод закрытия от индексации при помощи Javascript.

Закрытие контента от индексации при помощи Javacascript

При использовании данного метода текст, блок, код, ссылка или любой другой контент кодируется в Javascript, а далее Данный скрипт закрывается от индексации при помощи Robots.txt

Такой Метод можно использовать для того, чтобы скрыть например Меню от индексации, для лучшего контроля над распределением ссылочного веса. К примеру есть вот такое меню, в котором множество ссылок на разные категории. В данном примере это — порядка 700 ссылок, если не закрыть которые можно получить большую кашу при распределении веса.

Данный метод гугл не очень то одобряет, так-как он всегда говорил, что нужно отдавать одинаковый контент роботам и пользователям. И даже рассылал письма в средине прошлого года о том, что нужно открыть для индексации CSS и JS файлы.

Однако в данный момент это один из самых действенных методов по борьбе с индексацией нежелательного контента.

Точно также можно скрывать обычный текст, исходящие ссылки, картинки, видео материалы, счетчики, коды. И все то, что вы не хотите показывать Роботам, или что является не уникальным.

Как закрыть от индексации конкретную страницу

Для того, чтобы закрыть от индекса конкретную страницу чаще всего используются такие методы:

  • Роботс txt
  • Мета robots noindex

В случае первого варианта закрытия страницы в данный файл нужно добавить такой текст:

?Таким образом данная страница не будет индексироваться с большой долей вероятности. Однако использование данного метода для точечной борьбы со страницами, которые мы не хотим отдавать на индексацию не есть оптимальным.

Так, для закрытия одной страницы от индекса лучше воспользоваться тегом

Для этого просто нужно добавить в область HEAD HTML страницы. Данный метод позволяет не перегружать файл robots.txt лишними строчками.

Ведь если Вам нужно будет закрыть от индекса не 1 страницу, а к примеру 100 или 200 , то нужно будет добавить 200 строк в этот файл. Но это в том случае, если все эти страницы не имеют общего параметра по которому их можно идентифицировать. Если же такой параметр есть, то их можно закрыть следующим образом.

Читайте так же:
Как узнать посещаемость чужого сайта без счетчика
Закрытие от индексации Раздела по параметру в URL

Для этого можно использовать 2 метода:

  • Txt
  • Meta robots

К примеру, у нас на сайте есть раздел, в котором находится неуникальная информация или Та информация, которую мы не хотим отдавать на индексацию и вся эта информация находится в 1 папке или 1 разделе сайта.

Тогда для закрытия данной ветки достаточно добавить в Robots.txt такие строки:

Также можно закрыть определенное расшерение файла:

Данный метод достаточно прост в использовании, однако как всегда не гарантирует 100% неиндексации.

Потому лучше в добавок делать еще закрытие при помощи

Который должен быть добавлен в секцию Хед на каждой странице, которую нужно закрыть от индекса.

Точно также можно закрывать от индекса любые параметры Ваших УРЛ, например:

Однозначно самым простым вариантом является закрытие от индексации при помощи Роботс.тхт, однако, как показывает практика — это не всегда действенный метод.

Опасные методы закрытия индексации в robots.txt

Также существует достаточно грубый метод Закрытия чего — либо от роботов, а именно запрет на уровне сервера на доступ робота к конкретному контенту.

1. Блокируем все запросы от нежелательных User Agents

Это правило позволяет заблокировать нежелательные User Agent, которые могут быть потенциально опасными или просто перегружать сервер ненужными запросами.

?

В данному случае плохим ботом можно указать Любую поисковую машину, парсер либо что либо еще.

Подобные техники используются например для скрытия от робота Ахрефса ссылки с сайта, который был создан/сломан, чтобы конкуренты сеошники не увидели истинных источников ссылочной массы сайта.

Однако это метод стоит использовать если вы точно знаете, что хотите сделать и здраво оцениваете последствия от этих действий.

2. Использование HTTP-заголовка X-Robots-Tag

Заголовок X-Robots-Tag, выступает в роли элемента HTTP-заголовка для определенного URL. Любая директива, которая может использоваться в метатеге robots, применима также и к X-Robots-Tag.

В X-Robots-Tag перед директивами можно указать название агента пользователя. Пример HTTP-заголовка X-Robots-Tag, который запрещает показ страницы в результатах поиска различных систем.

Заключение

Ситуации, когда необходимо закрыть контент от индексации случаются довольно часто, иногда нужно почистить индекс, иногда нужно скрыть какой-то нежелательный материал, иногда нужно взломать чужой сайт и в роботсе указать disalow all, чтобы выбросить сайт зеркало из индекса.

Основные и самые действенные методы мы рассмотрели, как же их применять — дело вашей фантазии и целей, которые вы преследуете.

Дата публикации: 07 апреля, 2016

    Отзывы и комментарии:

Лично я люблю землянику со сливками, но рыба почему-то предпочитает червяков. Вот почему, когда я иду на рыбалку, я думаю не о том, что люблю я, а о том, что любит рыба.
© Дейл Карнеги

Супер-предложение!

Подпишитесь на интересные обновления моего блога, чтобы быть в тренде последних тенденций разработки и продвижения сайтов:

Прячем партнерские ссылки на главной странице сайта от индексации

Привет, друзья! Сегодня предлагаю обсудить вопрос – как прятать партнерские ссылки от индексации на главной странице сайта.

Дело в том, что многие начинающие блоггеры, которые активно размещают на своем ресурсе партнерские и прочие внешние ссылки, совершенно забывают об этом моменте. А между тем, любые исходящие с главной страницы линки (в баннерах, виджетах, картинках и статьях) снижают вес вашего сайта в глазах поисковиков. То есть, распыляют его, передавая тем сайтам, на которые вы ссылаетесь.

Он запрещает поисковому роботу переходить по ссылкам (то есть, сканировать их), но при этом никак не влияет на их работоспособность. Они также подсвечиваются при наведении курсора и остаются кликабельными для читателей. Так что, об этом можете не волноваться. Подробнее о значении «nofollow» читайте здесь.

Ниже я подготовила для вас скриншоты с детальными объяснениями по использованию этого атрибута.

Итак, для того чтобы закрыть от робота ссылку в тексте статьи, анонс которой отображается на главной сайта, нам нужно просто зайти в редактор записи и переключиться в текстовый (html) режим. Там мы находим нашу ссылку и помещаем в нее указанный атрибут. Взгляните на скрин:

Читайте так же:
Поверка счетчиков косгу 2017

прячем ссылку от индексации

Аналогичным образом прячем линк в картинке, которая находится в начале статьи и тоже попадает на главную:

ссылка, которая не индексируется

Не забудьте закрыть от индексации исходящие ссылки в баннерах и виджетах (реклама, формы подписки, счетчики, твиттер-ленты, др.):

закрываем ссылку от индексации в баннере

Также избавьтесь от лишних ссылок в футере, которые шли в придачу с вашим шаблоном. Например, от этих:

лишние ссылки на сайте

Сделать это можно, зайдя в Консоль, Внешний вид, Редактор, файл footer.php. В файле мы просто находим нужный нам линк и удаляем его. Как это сделать, я показала на скриншоте:

удаляем лишние ссылки на главной

В зависимости от вашей WordPress-темы в футере могут находиться другие ссылки, как это было у меня. Их можно удалить в настройках темы, в той же вкладке «Внешний вид». Посмотрите:

лишние ссылки в теме

Но здесь будьте аккуратны, так как ссылки могут быть «вшиты», тогда нарушится работа темы . Поэтому хорошо, если у вас для любых экспериментов с шаблоном будет «тестовый сайт» на поддомене. Ну и, конечно же, не забывайте делать резервные копии, если этого не делает ваш хостинг.

А для того, чтобы удалить лишнюю Вордпресс-ссылку в панели администратора, можно воспользоваться плагином «Сustomize Meta Widget». Введите его название в строку поиска новых плагинов, установите и активируйте. После этого прежний виджет «Мета» исчезнет, а вам потребуется зайти в виджеты и заново перетащить его в сайдбар. Вот, что у вас получится после:

как удалить ссылку с панели администратора

удаляем лишнюю ссылку в панели администратора

Вот и все, мы почистили главную страницу от ненужных линков, а также замаскировали все те, которые не хотим индексировать.

Кстати, для проверки сайта на наличие внешних ссылок с главной, рекомендую сервис dinews.ru, который я использую сама. Для этого просто перейдите в раздел «SEO Tools», введите адрес своего сайта и нажмите «Анализировать»:

проверка внешних ссылок

сервис dinews для проверки внешних ссылок

P.S. И на последок хочу посоветовать вам хороший плагин «Прятатель ссылок» для размещения партнерских линков на своем блоге, в соцсетях и где угодно. Вы просто устанавливаете его, как обычный вордпресс-плагин, и меняете внешний вид любой ссылки (включая линки с utm-метками) на такой, который вам нравится.

При этом новый линк будет включать в себя ваш домен и любое окончание, которое вы допишете. Вот, как работает плагин:

плагин для маскировки ссылок

Кстати, бесплатную версию плагина можно получить здесь.

Если у вас возникли вопросы по теме поста, задавайте их в комментариях – с удовольствием отвечу

Друзья, также рекомендую вам посмотреть видеоурок моего коллеги Максима Зайцева о том, как закрывать ссылки от индексации с помощью скрипта. Данный способ на сегодняшний день более актуален:

Как закрыть сайт от индексации? Закрываем через файл robots.txt

Каждый SEO-специалист обязан знать основы составления правил для файла robots.txt. Иногда требуется полностью закрыть сайт от индексации (например, тестовую копию или сайт, который находится в разработке), а также постоянно требуется следить за актуальностью файла и закрывать от индексации мусорные и технические страницы.

Начнём с основ, спецсимволы для файла robots.txt:

  • * — любое кол-во любых символов
  • $ — отменяет * и фиксирует строку

Важно отметить: если в конце правила нет знака $, то ПС считают, что там стоит *

​Как полностью закрыть сайт от индексации?

Это можно сделать при помощи создания в корне сайта текстового файла robots.txt. В этом документе требуется прописать следующий код:

Имена основных роботов:

  • Yandex основной индексирующий робот Яндекса;
  • YandexImages индексирует изображения;
  • YandexMetrika робот Я.Метрики;
  • YandexMobileBot анализирует верстку страницы для мобильного поиска;
  • Googlebot основной индексирующий робот Google;
  • Googlebot-Image отвечает за индексацию изображений;
  • Googlebot-Video индексирует видео;
  • Slurp робот Yahoo!;
  • MSNBot отвечает за поиск в системе Bing, разработанной корпорацией Microsoft;
  • И пр.

​Закрытие отдельной папки от индексации поисковыми роботами

Если требуется скрыть от поисковых систем отдельную папку Например, https://site.ru/blog/, то нужно указать:

User-agent: *
Disallow: /blog/

Если же какие-то файлы, содержащиеся в закрытой папке, требуется оставить открытыми для индексации, то можно одновременно применить правила Allow и Disallow:

Читайте так же:
Как отключить счетчик кофемашины

User-agent: *
Disallow: /blog/
Аllow: /blog/file.php

Как закрыть от индексации отдельную страницу?

Предположим, что нам нужно закрыть страницу https://site.ru/blog/ от индексации, но при этом вложенные страницы (т.е. страницы вида https://site.ru/blog/story1/ и https://site.ru/blog/topic1/story/ и пр.) должны быть доступны для индексации, для этого добавляем в файл:

User-agent: *
Disallow: /blog/$

Закрытие отдельного файла в поисковых системах

Чтобы временно закрыть какой-то файл от индексации в ПС, необходимо в документе robots.txt сделать следующую запись:

User-agent: *
Disallow: /blog/file.php

Закрытие от индексации изображений

При необходимости можно скрыть от поисковых систем не только документы, но и изображения в популярных форматах .jpg, .png и .gif. Для этого в файле robots.txt прописываем дополнительные данные:

User-Agent: *
Disallow: *.jpg
Disallow: *.png
Disallow: *.gif

Хотя, мы наоборот советуем открывать изображения для индексации, если по ним вас могут найти в Яндекс или Google картинках и перейти на сайт, для этого используем директиву «Аllow».

User-Agent: *
Allow: *.jpg
Allow: *.png
Allow: *.gif

Закрытие от поисковых систем поддомена

Все поддомены, находящиеся на сайте, имеют собственные файлы robots.txt. Как правило, такие файлы располагаются в корневой папке. Если такого файла нет, то его нужно создать. Если же такой файл есть, то нужно скорректировать его, указав следующий код:

Дополнительные директивы в файле robots.txt

Поисковая система Яндекс поддерживает целый ряд дополнительных директив, которые тоже можно использовать во время внесения изменений в файл robots.txt:

  • «Crawl-delay:». Данная директива задает минимальный период времени в секундах. Это время обозначает отрезок между окончанием загрузки одной и началом загрузки следующей страницы для поисковых роботов.

Например,
Crawl-delay: 1

  • «Clean-param:». Используя эту директиву, можно указывать GET-параметры, не влияющие на отображение контента сайта. Это могут быть UTM-метки или ref-ссылки.

Например,
Clean-param: utm /dir/blog.php

  • «Sitemap:». С помощью этой директивы, можно указывать путь к XML-карте сайта.

Например,
Sitemap: https://site.ru/sitemap.xml

Использование мета-тега name=»robots» для закрытия сайта

Существует еще один эффективный способ закрыть сайт или заданную страницу от индексации. Речь идет о применении мета-тега robots, для закрытия от индексации внутри зоны документа нужно прописать следующий код:

<meta name=»robots» content=»noindex, nofollow»/>

Кроме того, при помощи данного мета-тега можно обращаться напрямую и к одному из роботов, используя вместо name=»robots» имя робота, а именно:

Для Google: <meta name=»googlebot» content=»noindex, nofollow»/> Для Яндекса: <meta name=»yandex» content=»none»/>

Как закрыть сайт от индексации на WordPress?

Все описанные ранее правила подходят для всех cms сайта, в некоторых можно сделать это через админку. Мы рекомендуем работать непосредственно с файлом robots.txt.

Проверка корректности составления файла robots.txt

Рекомендуем всегда проверять корректность составленного файла robots.txt через Яндекс Вебмастер — https://webmaster.yandex.ru/tools/robotstxt/

анализ robots.txt

Это позволит минимизировать ошибки и не допустить проблем с индексированием сайта.

Robots.txt и запрет индексации всего сайта

как запретить индексацию сайта через robots.txt

Хотите узнать, как запретить индексацию сайта в robots.txt и с помощью других инструментов? Тогда представленный материал – именно для вас.

Безусловно, владельцы сайтов борются за то, чтобы их ресурс как можно быстрее проиндексировался поисковыми системами. Но бывают случаи, когда необходимо, чтобы поисковый бот на какое-то время не посещал ресурс и не добавлял в свой индекс материалы с вашего web ресурса. Такими случаями могут быть:

  • недавнее создание ресурса, когда на нем еще нет никакой полезной информации;
  • необходимость внесения обновлений (например, смена дизайна сайта);
  • наличие скрытых или секретных разделов или полезных ссылок, которые не хотелось бы передавать поисковым ботам.

Можно закрыть весь сайт целиком или же его отдельные части:

  • отдельный абзац или ссылка;
  • формы для ввода информации;
  • админская часть;
  • страницы пользовательских профилей и регистраций;
  • дубликаты страниц;
  • облако тегов и пр.

Есть много способов, с помощью которых можно закрыть сайт от индексации. Редактирование файла robots.txt – один из них. Мы рассмотрим этот способ и еще два наиболее популярных и простых.

Как закрыть сайт от индексации для Яндекса, Google и всех поисковых систем в robots.txt

Редактирование файла robots.txt – один из самых надежных и быстрых способов установить этот запрет для поисковых системам на какое-то время или же навсегда. Что для этого нужно сделать:

  1. Создание файла robots.txt. Для этого нужно создать обычный текстовый документ с расширением .txt, присвоить ему имя «robots».
  2. Созданный файл загрузить в корневую папку своего блога. Если сайт создан на движке WordPress, то эту папку можно найти там, где находятся папки wp-includes, wp-content и пр.
  3. Непосредственно установка запрета индексации для поисковиков.
Читайте так же:
Приложение для ios счетчик калорий

Запрет индексации в robots.txt сайта можно устанавливать как для конкретных поисковых систем, так и всех поисковиков. Мы рассмотрим разные варианты.

директивы файла robots.txt

Чтобы закрыть сайт от индексации поисковыми ботами Google, потребуется в файле robots.txt написать следующее:

  1. User-agent: Googlebot
  2. Disallow: /

Для того, чтобы проверить, закрылся ли сайт от индексации, создается аккаунт и добавляется нужный домен в Google Webmaster. Здесь предусмотрена функция проверки.

После этого будут показаны результаты. Если сайт запрещен для индексации, то будет написано «Заблокировано по строке» и указано, какая строка блокирует индексацию. Если же какие-то действия по запрету индексации поисковыми ботами Google были выполнены некорректно, то будет подписано «Разрешено».

Следует учесть, что невозможно с помощью robots.txt поисковой системе Google на 100% запретить индексацию. Это своего рода рекомендация для Гугла, так как он сам решит, выполнять ли ему индексацию отдельного документа, или нет.

Чтобы закрыть материалы сайта от индексации Яндексом, в файле robots.txt нужно ввести следующее:

  1. User-agent: Yandex
  2. Disallow: /

Для проверки статуса ресурса его нужно добавить в Яндекс Вебмастер, где затем нужно ввести несколько страниц со своего сайта и нажать кнопку «Проверить». Если все получилось, в строке будет высвечиваться надпись «Запрещен правилом».

Можно также установить запрет на индексацию вашего сайта одновременно для всех поисковых систем. Для этого, опять же, открываем файл robots.txt и прописываем в нем такую строку:

  1. User-agent: *
  2. Disallow: /

Проверка запрета индексации для Гугла и Яндекса выполняется по вышеописанной схеме в Google Webmaster и Яндекс Вебмастер соответственно.

Чтобы увидеть свой файл robots.txt, нужно перейти по адресу Вашдомен.ru/robots.txt. Здесь будет отображаться все, что было прописано. Бывает так, что появляется ошибка 404. Это говорит о том, что было выполнено что-то не так при загрузке своего файла.

robots allow disallow

Запрет индексации ресурса при помощи панели инструментов

Способ закрытия сайта от индексации с помощью панели инструментов подойдет только для тех ресурсов, которые были сделаны на Вордпресс.

Порядок действий простой и быстрый:

  • Откройте «Панель управления», пройдите в «Настройки» – «Чтение»;
  • Выставьте галочку в окошке «Рекомендовать поисковым машинам не индексировать сайт».
  • Сохранить изменения.

Выполнение данных действий – всего лишь рекомендация для поисковых машин. А то, будут ли индексироваться или не индексироваться материалы ресурса, они решают самостоятельно. В настройках видимости сайта даже присутствует специальная строка: «Поисковые машины сами решают, следовать ли Вашей просьбе». Отметим, что Яндекс обычно «слушается», а Гугл может поступать по своему усмотрению и все равно в некоторых случаях индексировать сайт, несмотря на рекомендацию.

Закрытие сайта от индексации вручную

В исходном коде при закрытии страницы или всего ресурса от индексации появляется строка <meta name=”robots” content=”noindex,follow” />

Именно эта строка подсказывает поисковым машинам, что не нужно индексировать отдельные материалы или ресурс. Можно вручную в любом месте сайта прописать данную строчку. Главное, чтобы она отображалась на всех страницах.

Этот способ подойдет также для того, чтобы закрыть какой-либо ненужный документ от индексации.

После выполнения обновлений нужно проверить, все ли получилось. Для этого нужно открыть исходный код с помощью клавиш CTRL + U и посмотреть, есть ли в нем нужная строчка. Ее наличие подтверждает успешную операцию по закрытию от индексации. Дополнительно можно осуществить проверку в Яндекс Вебмастер и Google Webmaster.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Adblock
detector