Cоветы интернет-магазинам по настройкам индексирования от платона щукина

Многие вебмастера, трудясь над оптимизацией вебмагазинов для индексирующих роботов, задаются одними и теми же вопросами, на каковые решил ответить в собственном блоге небезызвестный Платон Щукин.

1. Применять ли ЧПУ-адреса на сайте?

Индексирующий робот посетит и включит в страницу и результаты поиска по адресу сайт.рф/?категория=1подкатегория=6 , и по адресу сайт.рф/ромашки/большие независимо от формата их URL-адресов, но необходимо задуматься, какой тип адресов лучше подойдёт для эргономичного ориентирования клиентов, по какой ссылке пользователи форумов либо социальных сетей будут чаще переходить и делиться ею со собственными привычными. Понятная и читаемая структура URL-адресов не только разрешит визитёрам стремительнее ориентироваться на сайте, но и окажет помощь роботу организовать корректные навигационные цепочки, что сделает сайт более заметным в поиске.

2. Что делать со страницами сортировки и пагинации товаров?

В случае если в какой-либо категории на сайте вебмагазина находится много товаров, смогут показаться страницы пагинации (порядковой нумерации страниц), на которых собраны все товары данной категории. В случае если на такие страницы нет трафика из поисковых совокупностей и их контент во многом аналогичен, то необходимо настраивать атрибут rel=canonical тега link на аналогичных страницах и делать страницы второй, третьей и предстоящей нумерации неканоническими, а в качестве канонического (главного) адреса показывать первую страницу каталога, лишь она будет принимать участие в поиске.Cоветы интернет-магазинам по настройкам индексирования от платона щукина

К примеру, страница сайт.рф/ромашки/1 — каноническая, с неё начинается каталог, а страницы вида сайт.рф/ромашки/2 и сайт.рф/ромашки/3 — неканонические, в поиск их возможно не включать. Это не только предотвратит вероятное дублирование контента, но и разрешит указать роботу, какая как раз страница обязана пребывать в выдаче по запросам. Наряду с этим ссылки на товары, каковые находятся на неканонических страницах, кроме этого будут известны индексирующему роботу.

Довольно часто вместо пагинации сайты применяют динамическую прокрутку, в то время, когда для визитёра, пролиставшего каталог до определённого момента, посредством JavaScripts загружаются другие товары в данной категории. В таковой ситуации нужно проследить, дабы целый контент таких страниц отдавался индексирующему роботу (к примеру, посредством инструмента в Яндекс.Вебмастере), или дабы роботу становилась дешева статическая пагинация товаров.

Вторая часть вопроса связана со страницами сортировки, к примеру, по цене, популярности либо чертям. Дабы разобраться с данной частью, нужно осознать, необходимы ли такие страницы в поиске, отвечают ли они полностью на запросы пользователей. В случае если страницы не отвечают на запросы пользователей поисковой совокупности, их лучше закрыть посредством соответствующих правил в robots.txt, покинув для визита роботом лишь вправду нужные страницы.

3. Один товар в нескольких категориях, как исключить дублирование?

С таковой обстановкой сталкиваются вебмастера, в случае если одинаковый товар логично разместить в нескольких категориях. К примеру, ромашки смогут пребывать в категории «Полевые цветы» либо «Необыкновенные цветы». Для аналогичных обстановок лучше применять атрибут rel=canonical тега link: указав посредством него канонический адрес, к примеру тот, что находится в самая популярной категории, именно он будет индексироваться и принимать участие в поиске.

Это разрешит не допустить дублирование контента в выдаче и неизменно знать, какая страница обязана пребывать по запросам. Визитёры же постоянно смогут отыскать обе страницы при заходе на сайт, а перелинковка между собой этих страниц возможно нужна в этом случае.

4. Товар с выбором цвета\размеров, как не допустить дублирование?

В то время, когда одинаковый товар представлен в вашем магазине в разном выполнении, самое верное ответ для аналогичных случаев — сделать выбор черт товара без трансформации URL-адреса с динамическим обновлением контента на странице (к примеру, при смене выбранного цвета изменяется изображение). Но довольно часто по каким-либо обстоятельствам (к примеру, из-за технических ограничений применяемой CMS) это нереально сделать. Тогда для робота остаются пара фактически аналогичных страниц с товаром, каковые либо смогут пребывать в поиске независимо друг от друга, либо каковые робот посчитает дублирующими, оставив в выдаче лишь один адрес на собственное усмотрение.

Необходимо решить, необходимы ли все страницы с вариантами выполнения товара в поиске, либо хватит лишь одной версии страницы. Для первого случая на такие страницы возможно добавить больше различающегося контента (отзывы клиентов, комментарии либо дискуссии, рекомендуемые к просмотру товары),а во втором случае — применять указанный выше атрибут rel=canonical, выбрав в качестве канонического адреса самая популярную модификацию товара.

5. Товар закончился на складе, что делать?

В случае если товар стал краткосрочно недоступен в веб-магазине, но в недалеком будущем ожидается его поступление, рекомендуется покинуть страницу с ним дешёвой для робота (возвращать индексирующему роботу HTTP-код ответа 200), это предотвратит её исключение из результатов поиска. Дабы поддерживать интерес пользователя на таковой странице возможно отображать данные о скором поступлении товара на склад, возможность предзаказа, и рекомендуемые и похожие товары, каковые имеется в наличии, что довольно часто разрешает сохранить визитёра сайта и заинтересовать его второй продукцией.

При долгом отсутствии товара на складе лучше настроить HTTP-код ответа 404, дабы удалить недоступные для заказа товары. Саму страницу «заглушки» не оставлять стандартной, а разнообразить дополнительной занимательной и нужной информацией.

6. Что необходимо добавить в robots.txt?

В обязательном порядке к закрытию в файле robots.txt:

  • страницы действий (добавление в корзину, сравнение товаров, перенос в перечень Избранное),
  • корзины с товарами,
  • встроенный поиск на сайте,
  • служебные каталоги с тайными документами (адреса доставки, контактные телефоны),
  • идентификаторы сессии, utm-метки посредством директивы Clean-param

Дополнительно, как и для всех сайтов, указать в robots.txt нужно:

  • директиву Host с адресом главного зеркала сайта,
  • директиву Sitemap с адресом актуального файла sitemap.

Случайные статьи:

Подключение к Битриксу платежной системы ROBOKASSA


Подборка похожих статей:

admin