Дублирование контента. Часть 2

Это продолжение статьи Дублирование контента

duplicate_contentЧто же делать, если в итоге вашего исследования по просторам интернета дубли в итоге существуют? Удалить другие страницы вы не сможете, да и не зачем, придется вам заняться вплотную своим ресурсом. Проведите «генеральную уборку» на своем сайте с полным уничтожением всего того, что имеет дубли на просторах интернета. Не можете удалить ту или иную часть контента – просто скройте его от индексации поисковиками, для чего можно воспользоваться следующим:

Следует отметить, что качественное продвижение интернет сайтов невозможно без использования мета-тегов. Мета-тег «robots», что находится в коде html. Атрибуты у него могут быть и index (индексировать) и noindex (не индексировать), помимо этого может быть all (когда всё подвергается индексации) и none (абсолютно ничего не будет индексироваться). А вот теперь что касается ссылок – follow (ссылка подвергается учету) и nofollow (не подвергается учету). Таким образом, вы сами решаете, что у вас будет индексироваться и учитываться в поисковых системах, а что поисковые системы будут обходить стороной и совершенно не замечать.

Есть еще такой тег как noindex от Яндекса. Воспользовавшись этим тегом, вы закрываете от индексации любые текстовые сообщения в любом количестве. Робот этот текст разглядит, но к себе в блокнотик не запишет.

Вы наверняка уже слышали о файле под названием robots.txt, так что здесь просто напоминаем о его существовании и говорим, что это – текстовый документ, что лежит в пределах корневой папки вашего сайта. Что в нем есть такого интересного? Обычный инструктаж для поисковых роботов. Параметры этих самых инструкций вы можете задать самостоятельно. Разобраться в нем вовсе не сложно.

Отзывы

Выразите свое мнение

Скажите нам, что вы думаете...
Если ты хочешь видеть аватарку рядом со своим комментарием, используй сервис Граватар!

ТИЦ и PR блога
a101 aktuel porno Telegraaf mavi yolculuk