Googlebot и другие поисковые роботы способны обнаруживать, что элемент скрыт после загрузки страницы JavaScript?

Итак, мы все знаем, что Google ненавидит скрытые элементы, и это правильно. Но мне любопытно, что, если элемент присутствует в DOM обычно в статической форме, но после загрузки страницы он скрыт JavaScript?

AFAIK Googlebot (и другие боты, если на то пошло) не могут интерпретировать JavaScript, поэтому они не должны обнаруживать этот подделка, не так ли?

И рассмотрим случай, когда это не очевидная набивка ключевых слов и спам, но, вероятно, скрытый текст будет вставлен в другую часть страницы в какое-то релевантное и запрашиваемое пользовательское событие.

3 голоса | спросил The Law 29 thEurope/Moscowp30Europe/Moscow09bEurope/MoscowThu, 29 Sep 2016 21:29:27 +0300 2016, 21:29:27

1 ответ


2

Googlebot теперь отображает страницы и просматривает страницу, когда пользователь видит ее при загрузке, включая использование CSS и запуск JavaScript. Google обнаружит скрытый текст, используя CSS или JavaScript.

Google будет наказывать сайт за скрытый текст с ключевым словом, который не может быть просмотрен пользователями. Они называют практику клоакинг : показ контента для поисковых роботов, но не для пользователей.

Обратите внимание, что скрытый текст, который может отображаться при взаимодействии с пользователем, не будет наказываться. Есть много законных причин, чтобы скрыть текст изначально, но показывать его, когда пользователь этого требует. Популярные интерактивные устройства, такие как карусели, световые короба и выходы, должны сначала скрыть некоторый контент.

Когда текст изначально скрыт, но может быть просмотрен пользователями через взаимодействие, Google может не индексировать слова в этом тексте. Если он индексирует их, это может дать им меньший вес релевантности, чем слова, показанные пользователям при загрузке.

В последние несколько лет, когда Googlebot получил возможность рендеринга страниц, Google изменил свои рекомендации относительно AJAX. Раньше считалось, что если вам нужен сайт AJAX для сканирования, вам придется реализовать URL-адреса «hash bang» с моментальными снимками HTML . Теперь Google может сканировать веб-сайты AJAX, которые реализуют «push state» для изменения URL-адресов по мере изменения содержимого на странице. Push-состояние намного проще реализовать, чем моментальные снимки HTML, поскольку для него не требуется создание HTML на стороне сервера, которое имитирует JavaScript на стороне клиента.

Несмотря на то, что Google теперь может хорошо обходить AJAX, если вы хотите, чтобы сайт AJAX был хорошо проиндексирован, вы должны указать другой URL для каждой части контента. Приложения с одной страницей, где URL-адрес никогда не изменяется, по-прежнему не являются дружественными к SEO, потому что у Google нет способа глубокой ссылки на контент, соответствующий поисковым запросам.

ответил Stephen Ostermiller 29 thEurope/Moscowp30Europe/Moscow09bEurope/MoscowThu, 29 Sep 2016 22:39:21 +0300 2016, 22:39:21

Похожие вопросы

Популярные теги

security × 330linux × 316macos × 2827 × 268performance × 244command-line × 241sql-server × 235joomla-3.x × 222java × 189c++ × 186windows × 180cisco × 168bash × 158c# × 142gmail × 139arduino-uno × 139javascript × 134ssh × 133seo × 132mysql × 132