Многие вебмастера, трудясь над оптимизацией вебмагазинов для индексирующих роботов, задаются одними и теми же вопросами, на каковые решил ответить в собственном блоге небезызвестный Платон Щукин.
1. Применять ли ЧПУ-адреса на сайте?
Индексирующий робот посетит и включит в страницу и результаты поиска по адресу сайт.рф/?категория=1подкатегория=6 , и по адресу сайт.рф/ромашки/большие независимо от формата их URL-адресов, но необходимо задуматься, какой тип адресов лучше подойдёт для эргономичного ориентирования клиентов, по какой ссылке пользователи форумов либо социальных сетей будут чаще переходить и делиться ею со собственными привычными. Понятная и читаемая структура URL-адресов не только разрешит визитёрам стремительнее ориентироваться на сайте, но и окажет помощь роботу организовать корректные навигационные цепочки, что сделает сайт более заметным в поиске.
2. Что делать со страницами сортировки и пагинации товаров?
В случае если в какой-либо категории на сайте вебмагазина находится много товаров, смогут показаться страницы пагинации (порядковой нумерации страниц), на которых собраны все товары данной категории. В случае если на такие страницы нет трафика из поисковых совокупностей и их контент во многом аналогичен, то необходимо настраивать атрибут rel=canonical тега link на аналогичных страницах и делать страницы второй, третьей и предстоящей нумерации неканоническими, а в качестве канонического (главного) адреса показывать первую страницу каталога, лишь она будет принимать участие в поиске.
К примеру, страница сайт.рф/ромашки/1 — каноническая, с неё начинается каталог, а страницы вида сайт.рф/ромашки/2 и сайт.рф/ромашки/3 — неканонические, в поиск их возможно не включать. Это не только предотвратит вероятное дублирование контента, но и разрешит указать роботу, какая как раз страница обязана пребывать в выдаче по запросам. Наряду с этим ссылки на товары, каковые находятся на неканонических страницах, кроме этого будут известны индексирующему роботу.
Довольно часто вместо пагинации сайты применяют динамическую прокрутку, в то время, когда для визитёра, пролиставшего каталог до определённого момента, посредством JavaScripts загружаются другие товары в данной категории. В таковой ситуации нужно проследить, дабы целый контент таких страниц отдавался индексирующему роботу (к примеру, посредством инструмента в Яндекс.Вебмастере), или дабы роботу становилась дешева статическая пагинация товаров.
Вторая часть вопроса связана со страницами сортировки, к примеру, по цене, популярности либо чертям. Дабы разобраться с данной частью, нужно осознать, необходимы ли такие страницы в поиске, отвечают ли они полностью на запросы пользователей. В случае если страницы не отвечают на запросы пользователей поисковой совокупности, их лучше закрыть посредством соответствующих правил в robots.txt, покинув для визита роботом лишь вправду нужные страницы.
3. Один товар в нескольких категориях, как исключить дублирование?
С таковой обстановкой сталкиваются вебмастера, в случае если одинаковый товар логично разместить в нескольких категориях. К примеру, ромашки смогут пребывать в категории «Полевые цветы» либо «Необыкновенные цветы». Для аналогичных обстановок лучше применять атрибут rel=canonical тега link: указав посредством него канонический адрес, к примеру тот, что находится в самая популярной категории, именно он будет индексироваться и принимать участие в поиске.
Это разрешит не допустить дублирование контента в выдаче и неизменно знать, какая страница обязана пребывать по запросам. Визитёры же постоянно смогут отыскать обе страницы при заходе на сайт, а перелинковка между собой этих страниц возможно нужна в этом случае.
4. Товар с выбором цвета\размеров, как не допустить дублирование?
В то время, когда одинаковый товар представлен в вашем магазине в разном выполнении, самое верное ответ для аналогичных случаев — сделать выбор черт товара без трансформации URL-адреса с динамическим обновлением контента на странице (к примеру, при смене выбранного цвета изменяется изображение). Но довольно часто по каким-либо обстоятельствам (к примеру, из-за технических ограничений применяемой CMS) это нереально сделать. Тогда для робота остаются пара фактически аналогичных страниц с товаром, каковые либо смогут пребывать в поиске независимо друг от друга, либо каковые робот посчитает дублирующими, оставив в выдаче лишь один адрес на собственное усмотрение.
Необходимо решить, необходимы ли все страницы с вариантами выполнения товара в поиске, либо хватит лишь одной версии страницы. Для первого случая на такие страницы возможно добавить больше различающегося контента (отзывы клиентов, комментарии либо дискуссии, рекомендуемые к просмотру товары),а во втором случае — применять указанный выше атрибут rel=canonical, выбрав в качестве канонического адреса самая популярную модификацию товара.
5. Товар закончился на складе, что делать?
В случае если товар стал краткосрочно недоступен в веб-магазине, но в недалеком будущем ожидается его поступление, рекомендуется покинуть страницу с ним дешёвой для робота (возвращать индексирующему роботу HTTP-код ответа 200), это предотвратит её исключение из результатов поиска. Дабы поддерживать интерес пользователя на таковой странице возможно отображать данные о скором поступлении товара на склад, возможность предзаказа, и рекомендуемые и похожие товары, каковые имеется в наличии, что довольно часто разрешает сохранить визитёра сайта и заинтересовать его второй продукцией.
При долгом отсутствии товара на складе лучше настроить HTTP-код ответа 404, дабы удалить недоступные для заказа товары. Саму страницу «заглушки» не оставлять стандартной, а разнообразить дополнительной занимательной и нужной информацией.
6. Что необходимо добавить в robots.txt?
В обязательном порядке к закрытию в файле robots.txt:
- страницы действий (добавление в корзину, сравнение товаров, перенос в перечень Избранное),
- корзины с товарами,
- встроенный поиск на сайте,
- служебные каталоги с тайными документами (адреса доставки, контактные телефоны),
- идентификаторы сессии, utm-метки посредством директивы Clean-param
Дополнительно, как и для всех сайтов, указать в robots.txt нужно:
- директиву Host с адресом главного зеркала сайта,
- директиву Sitemap с адресом актуального файла sitemap.
Случайные статьи:
- 5 Ошибок интернет-магазинов в создании контента, о которых не принято говорить
- Исследование в контекстной рекламе: автоматизация или ручной труд?
Подключение к Битриксу платежной системы ROBOKASSA
Подборка похожих статей:
-
8 Советов по настройке воронки продаж на основе данных
Успех вашего бизнеса основывается на эффективности воронки продаж независимо от того, какой продукт либо услугу вы продвигаете. В сегодняшней статье мы…
-
Как сделать сайт действительно удобным для мобильных устройств. рекомендации платона щукина
Некое время назад Яндекс начал отмечать в мобильной выдаче страницы, оптимизированные для мобильных устройств, меткой «Мобильная версия», и отдавать им…
-
Как избежать типичных ошибок при настройке контекстной рекламы
Допустим, вы совсем сравнительно не так давно запустили собственный сайт и сейчас решаете задачу поиска клиентов. SEO-продвижение – это, непременно,…
-
С клиентами не расставайтесь! о том, как интернет-магазинам возвращать ушедших покупателей
Клиентская база — то самое злато, над которым чахнут обладатели всех вебмагазинов. Пожалуй, мало кто поспорит, что ее пополнение, аналитика, отслеживание…