Методы и стратегии SEO пагинации: устаревшие, рабочие, лучшие
Вместе с ростом сайта усиливается борьба с внутренними дублями и наличием низкокачественных, с точки зрения поисковиков, страниц.
Неправильно настроенные страницы пагинации теряют ценность для поисковых систем, так как являются частичными или полными дублями.
В данной статье мы рассмотрим основные ошибки в настройке пагинации, а также - актуальные рабочие стратегии настройки, которые применяют крупные интернет-магазины, онлайн-порталы и доски объявлений.
Как узнать, что ваши страницы пагинации не “нравятся” поисковым системам
Пагинация – чуть ли не самая большая головная боль специалиста во время SEO сайтов, особенно крупных или стремительно растущих. Основная проблема – наличие дублирующихся страниц, которое приводит к тому, что сайт скатывается на “галерку” поисковой выдачи практически без шансов выбиться в дамки. На наличие таких страниц указывают дубликаты по Title и копирование текста в пределах одного ресурса.
Ищем дубликаты Title по Netpeak Spider или Comparser.
При помощи эффективных инструментов SEO-анализа Netpeak Spider или Comparser исследуем сайт и сортируем результаты по дубликатам Title.
Прорабатываем результаты, которые дублируются по тегу Title и отыскиваем URL страниц пагинации (/page/2/, /?page=2 и так далее).
Ищем дублирующиеся тексты в пределах ресурса.
Распространенная ошибка пагинации страниц – отображение одного и того же текста на всех ее страницах. Это приводит к образованию внутренних дубликатов. Выявить их можно несколькими способами:
при помощи сканирования уникальности через сервис Advego; | |
в ручном режиме: открываем каждую страницу и скрупулезно ищем повторяющиеся тексты. |
Когда ошибки на сайте определены, можно приступать к настройке. Главное, сделать это правильно, использовав наиболее эффективные методы, соответствующие актуальным требованиям поисковых систем.
Внимание: rel="next" и rel="prev" больше не используются
Ранее они являлись официальными сигналами для поискового бота и числились в официальной справке, наряду со справкой по использованию rel canonical в Google рекомендациях.
После обновления представители компании заявили следующее: “Мы обратили внимание, что уже ни один год не используем rel next и rel prev в операциях индексации, потому вся документация из официальной справки по этим атрибутам была удалена”.
Какая же стратегия предлагается компанией взамен удаленной? Google рекомендует специалистам размещать все позиции на одной странице, если это возможно и при этом заверяет, что проблем с индексированием разметки не будет.
«Используйте разметку. Поисковой робот Google достаточно умен, чтобы отыскать следующую страницу, сканируя ссылки на странице. И очевидные сигналы, используемые ранее, нам больше не нужны. Конечно, вы можете добавлять атрибуты next и prev по другим важными причинам, однако Google это больше не требуется», — добавили представители компании.
Ошибочные стратегии настройки разметки страниц
Итак, чего мы НЕ делаем при pagination SEO, чтобы не допустить ошибок:
Не закрываем все страницы в robots.txt; | |
Не устанавливаем rel="canonical" на первую страницу со всех страниц разметки. |
К слову, некоторые ресурсы приводят эти стратегии, как действенные меры для борьбы с дубликатами. И они совершенно правы! От дублей вы, скорее всего, избавитесь. Вот только «добру» в данном случае сопутствует «худо»: вы получите проблемы с индексацией статей или товаров. И вот почему.
В первом случае по причине сокрытия разметки в robots.txt поисковой бот посетит только первую страницу пагинации и на этом остановится.
Во втором случае бот будет игнорировать пагинацию, так как через rel="canonical" мы установили, что последующие страницы являются копиями канонической.
Работающие стратегии настройки пагинации страниц
Итак, мы рассмотрели главные ошибки SEO пагинации, касающиеся canonical, next и prev, robots.txt и рассказали, как делать нельзя. Обычно на перечислении ошибок бесплатные рекомендации специалистов заканчиваются. Мол, хотите знать как НУЖНО - купите наш мудреный инфопродукт. Но мы не жадные и рабочими стратегиями настройки пагинации поделимся без-во-зме-здно.
1. |
Meta robots На все страницы разметки ставим тег <meta name="robots" content="noindex, follow" /> |
2. |
Добиваемся максимальной уникальности каждой страницы Каждой странице — свой title, description, и текстовое наполнение; |
3. |
Страница «Смотреть все» совместно с rel="canonical" Помимо pagination-страниц создается страница «Смотреть все», на которую помещаются все товарные позиции категории. В свою очередь, со всех pagination-страниц устанавливаем rel="canonical" делая «Смотреть все» канонической: |
Методы настройки, которые используют крупные интернет-ресурсы
Для того, чтобы понять, какие стратегии и с какой долей успеха работают на практике, приоткроем завесу SEO-настроек крупных онлайн-ресурсов и посмотрим какую стратегию для пагинации выбирают они:
- avito.ru: rel="canonical" на первую страницу;
- market.yandex.ru: rel="canonical" на первую страницу, атрибуты next и prev;
- ria.com: аналогичная предыдущему;
- www.ozon.ru: rel="canonical" на первую страницу;
- klubok.com: атрибуты next и prev, тег meta robots, каноническая ссылка отсутствует;
- svyaznoy.ru: rel="canonical" сам на себя, уникализация всех страниц;
- wildberries.ru: стратегия meta robots, rel="canonical" сам на себя;
- depositphotos.com: атрибуты next и prev, rel="canonical" на первую страницу.
Итак, что мы видим. Ни один сайт не использует стратегию с отображением всех товаров на странице “Все товары” или “смотреть все”. Около половины не закрывают страницы для поисковых ботов, работая над уникальностью метаданных.
Другая половина ограничивает доступ для индексирования последующих за канонической ссылкой страниц, но позволяют ботам “гулять” по ним. Они же часто используют “сигнальные” атрибуты prev и next, добиваясь лучшего индексирования на отдаленных страницах.
Отдельные сайты и вовсе приняли решение полностью ограничить возможность индексации страниц, что скорее всего отражается проблемами с индексацией товаров на них.
Руководство по SEO пагинации страниц: лучшее решение
Рассмотрим стратегию настройки разметки страниц, которую можно считать, если не и идеальной, то уж во всяком случае действенной. Доказано на собственном опыте и путем исследования поведения крупных сайтов в Сети. Такая стратегия подойдет, в первую очередь, для пагинации интернет-магазинов, так как их владельцы наиболее заинтересованы в нормальной индексации товаров на страницах разметки.
Итак, вот список основных правил и действий.
Правило первое: забудьте о закрытии страниц в robots.txt
Иначе, проблем с индексированием страниц, на которых размещены ваши товары, не избежать.
Адреса страниц пагинации должны отличаться друг от друга.
Пример:
http://site.ru/category | Адрес категории |
http://site.ru/category?page=2 | Адрес 2-й страницы |
http://site.ru/category?page=3 | Адрес 3-й страницы |
Действие первое: запрещаем поисковым ботам добавлять страницы от 2-й и далее в индекс, не препятствуя при этом свободному переходу бота по этим страницам. Для этого в исходном коде этих страниц добавляем строку кода в теле тега <head>. Выглядит это следующим образом:
<head> ... <meta name="robots" content="noindex, follow" /> ... </head>
Первой страницы разметки не должно существовать. Как правило она существует в качестве дубля категории. Для решения задачи мы рекомендуем настроить редирект 301 с первой страницы разметки на страницу категории.
Пример:
<strong>http://site.ru/category/<strong> | URL категории |
http://site.ru/category?page=1 | URL первой стр-цы на которой настраиваем 301 редирект на http://site.ru/category |
Выводы
Итак, пагинация – это необходимый механизм организации веб-ресурса, который положительно влияет на его юзабилити. При этом, подавляющее большинство крупных сайтов предпочитают стандартную разметку с канонической ссылкой стратегии отображения View All.
Дело в том, что открытие большого количества страниц во View All сильно перегружает сайт, приводит к чрезмерно долгой загрузке и заставляет посетителей покинуть его.
Для максимально эффективной настройки пагинации, при которой поисковые боты смогут свободно переходить по страницам, но не станут включать их в индекс, мы предлагаем использовать вышеприведенную стратегию.
Она подойдет как для интернет-магазинов, так и, к примеру, для пагинации в WordPress (иногда может потребоваться установка плагина для пагинации, если в шаблоне его нет по умолчанию).
При настройке следует учитывать новые правила от Google. Рекомендации от Яндекс в последние несколько лет не менялись.