Являются ли дублирующиеся страницы, которые никогда не связаны с плохой для SEO?

Я использую WordPress, и я добавил некоторые функции перезаписи, чтобы определенные сообщения, которые обычно имеют ссылку вроде:

http://example.com/category/post-name

Теперь посмотрите:

http://example.com/special/path/post-name

Но если вы должны были посетить любую ссылку, то тот же контент будет обслуживаться. Работая над исправлением этого, но мне любопытно, нужно ли мне настраивать перенаправления или каноники.

На моем веб-сайте нет абсолютно никаких ссылок на исходную ссылку, только на вторую ссылку. Я предполагаю, что до тех пор, пока нет ссылок, указывающих на старую ссылку, Google не знает об этом и не найдет волшебства, сделав 301-е или канонические больше «на всякий случай».

Правильно ли я думаю?

5 голосов | спросил John_911 14 WedEurope/Moscow2016-12-14T03:21:18+03:00Europe/Moscow12bEurope/MoscowWed, 14 Dec 2016 03:21:18 +0300 2016, 03:21:18

2 ответа


5

Вы думаете, что вы думаете, что это правильно, но на самом деле это не так.

Я работал на многих сайтах, а некоторые URL-адреса, которые не имеют каких-либо физических ссылок на них (или ничего, о которых мы знали), всегда могли индексироваться в Google.

Кто знает, где Google находит ссылки, но неизменно. Так что это то, что вы должны обязательно исправить.

Если вы можете 301 перенаправить дубликаты страниц на один URL, который был бы лучшим решением, или если вам нужен повторяющийся URL-адрес для жизни по какой-либо причине, установите канонический тег по дублирующему URL, ссылающемуся на один URL.

<link rel="canonical" href="http://example.com/special/path/post-name" />

Если по какой-либо причине вы не можете установить канонический тег, вы можете установить файл robots.txt , используя что-то вроде:

<META NAME="ROBOTS" CONTENT="NOINDEX, FOLLOW">
ответил Max 14 WedEurope/Moscow2016-12-14T06:35:46+03:00Europe/Moscow12bEurope/MoscowWed, 14 Dec 2016 06:35:46 +0300 2016, 06:35:46
5

Внутреннее дублирование редко бывает плохо для SEO. В наши дни Googlebot очень хорошо разбирается в дублировании и правильно обрабатывает его.

Да, Googlebot, скорее всего, найдет и сканирует дубликаты URL-адресов. Однако в случае, если Googlebot находит два URL-адреса на одном сайте с одним и тем же контентом, он просто выбирает один для индексации. Тот, который он выбирает, будет либо тем, который был найден первым, либо тем, у кого выше Pagerank. Во всех случаях, которые, вероятно, будут связаны с вами.

Google не выдаст никаких санкций за внутреннее дублирование. Самое худшее, что может случиться, - это то, что Google будет иногда индексировать страницу по URL-адресу, который вам не нужен. Также возможно, что Googlebot будет использовать большую полосу пропускания и обход бюджета, сканируя дубликаты разделов вашего сайта, которые не будут индексироваться.

Другие ответы правильно говорят вам, как исправить эту проблему, но я хотел дать реалистическое ожидание о том, как это может быть «плохо».

См. также: Что такое дублированный контент и как я могу избежать наказания за него на моем сайте?

ответил Stephen Ostermiller 14 WedEurope/Moscow2016-12-14T14:10:09+03:00Europe/Moscow12bEurope/MoscowWed, 14 Dec 2016 14:10:09 +0300 2016, 14:10:09

Похожие вопросы

Популярные теги

security × 330linux × 316macos × 2827 × 268performance × 244command-line × 241sql-server × 235joomla-3.x × 222java × 189c++ × 186windows × 180cisco × 168bash × 158c# × 142gmail × 139arduino-uno × 139javascript × 134ssh × 133seo × 132mysql × 132