Что лучше для SEO robots.txt или динамически созданного URL-адреса robots.txt?

Я полагался на наш динамически созданный пакет robots.txt пакета WordPress для нескольких сайтов, но его не удостаивали Google или Bing (URL-адреса плагинов индексировались, несмотря на правило Disallow /wp-content в robots.txt ). Я ждал пару недель и загрузил фактический файл в корне с теми же правилами, и он сработал.

Означает ли это, что фактический файл лучше, чем динамически сгенерированный файл robots.txt , или это только я, связанный с некоторыми случайными событиями?

1 голос | спросил vDog 2 AMpWed, 02 Apr 2014 06:07:06 +040007Wednesday 2014, 06:07:06

2 ответа


2

Нет никакой разницы между поисковыми системами между этими двумя методами. Вы можете генерировать его, как хотите.

Кроме того, вам нужно знать, что блокирование страницы с помощью robots.txt не является идеальным способом предотвращения индексирования страниц. Вы можете прочитать этот вопрос для получения дополнительной информации.

ответил Zistoloen 2 AMpWed, 02 Apr 2014 11:45:21 +040045Wednesday 2014, 11:45:21
0

Никакой разницы в том, что сканеры могут получить к ним доступ (со всеми вашими действительными правилами) с ответом HTTP 200.

ответил Sachin Dhir 3 PMpThu, 03 Apr 2014 14:45:31 +040045Thursday 2014, 14:45:31

Похожие вопросы

Популярные теги

security × 330linux × 316macos × 2827 × 268performance × 244command-line × 241sql-server × 235joomla-3.x × 222java × 189c++ × 186windows × 180cisco × 168bash × 158c# × 142gmail × 139arduino-uno × 139javascript × 134ssh × 133seo × 132mysql × 132