X

5 аспектов SEO, которые важно учитывать на этапе разработки сайта

👁1 194 просм.

«Сначала разработка, потом оптимизация» — одно из самых грубых заблуждений, которые можно допустить на начальном этапе создания сайта. SEO должно стать неотъемлемой частью данного процесса, и на то есть несколько причин:

  • SEO на этапе разработки сэкономит время и деньги, необходимые на последующее продвижение;
  • Это позволит быстрее привлечь трафик на сайт;
  • Это поможет избежать множества ошибок, из-за которых сайт рискует попасть под различные фильтры поисковых систем.

В этой статье мы рассмотрим главные аспекты поисковой оптимизации, которые непременно следует учитывать на этапе разработки.

1. Структура сайта

Структура сайта — это взаимосвязь его страниц с соблюдением определённой иерархии. Правильная и логически выстроенная структура обеспечивает доступ с главной к любой другой странице сайта посредством минимального числа кликов. Это делает сайт удобным как для пользователей, так и ботов поисковых систем.

Оптимизированная структура положительно влияет на SEO, так как благодаря ей:

  • улучшается поведенческий фактор,
  • ускоряется индексация,
  • растёт уровень конверсии,
  • правильно распределяется внутренний вес по всем страницам.

В зависимости от размера веб-ресурса, структура может быть простой (два уровня вложенности) и сложной (более двух уровней вложенности).

Составляя структуру сайта, учитывайте следующие рекомендации, которые способствуют улучшению оптимизации:

  1. Прежде чем приступить к созданию структуры, займитесь составлением семантического ядра, чтобы определиться с категориями сайта и иерархией.
  2. Строение URL страниц должно отражать структуру сайта, поэтому составляйте их в соответствии с продуманной иерархией. Например, в URL example.com/category-subcategory-product чётко отслеживается иерархия и путь к странице товара.
  3. Продумывая структурные блоки сайта, старайтесь вписать их в рамки одного домена, потому что поддомены индексируются поисковыми системами как отдельные независимые ресурсы. Если же возникла необходимость создания поддомена, для него составляется отдельная структура.
  4. Старайтесь сохранять минимальную глубину страниц. Идеален сценарий, при котором до каждой страницы сайта от главной можно добраться в 3 клика.

Для проверки структуры сайта на ошибки воспользуйтесь десктопным краулером Netpeak Spider, который отобразит все взаимосвязи между страницами и категориями сайта в наглядном виде. Этот инструмент мы также будем использовать для проверки других аспектов оптимизации.

Этапы проверки структуры сайта краулером

Чтобы просмотреть структуру, выполните такие действия:

  1. Запустите Netpeak Spider.
  2. На вкладке «Параметры» на боковой панели выберите шаблон «Минимум», если вас интересует только анализ структуры, а не полный аудит.

  1. Поместите в адресную строку начальный адрес для запуска сканирования и нажмите «Старт».

  1. После того как программа завершит сканирование, перейдите на вкладку «Отчёты» → «Структура сайта».

Здесь вы можете отследить, какие категории и подкатегории на сайте уже есть и что следовало бы исключить или добавить. Нажмите на любую категорию, чтобы посмотреть список страниц, которые она содержит. Соответствующие URL попадут в таблицу «Отфильтрованные результаты».

Чтобы ознакомиться с уровнем вложенности страниц, откройте вкладку «Сводка» → «Глубина». Кликните на любое значение, чтобы узнать, у каких страниц тот или иной уровень глубины.

На «Дашборде» эти данные представлены в виде диаграммы, что упрощает их визуальное восприятие. Столбцы диаграммы кликабельны: нажмите на них, чтобы отфильтровать результаты по выбранным параметрам.

В программе есть возможность экспортировать результаты анализа, включая таблицы с отфильтрованными результатами. Для выгрузки нажмите кнопку «Экспорт» в левом углу экрана над «Дашбордом».

2. Оптимизация сайта под мобильные устройства

Всё чаще пользователи предпочитают выходить в интернет через мобильные устройства, нежели через десктопные. Более половины запросов в Google выполняются именно со смартфонов. Именно поэтому оптимизированные под мобильные устройства сайты лучше ранжируются поисковыми системами и имеют приоритет в органической поисковой выдаче.

Методов оптимизации мобильных сайтов множество, но чаще всего используются два из них:

  1. Адаптивный дизайн. При его внедрении сайт может подстраиваться под размер и разрешение экрана любого гаджета.
  2. Создание двух отдельных версий сайта для настольных ПК и мобильных устройств.

Для максимально эффективной адаптации сайта для показа на мобильных устройствах, воспользуйтесь следующими советами:

  1. Используйте асинхронную загрузку Javascript и CSS. Это увеличит скорость работы мобильной версии сайта.
  2. Откажитесь от Flash. Многие мобильные устройства не поддерживают плагины. Внедряйте дополнительные элементы с помощью HTML5 или Java.
  3. Не создавайте всплывающие окна. Это раздражает пользователей и вызывает желание скорее покинуть сайт, что может стать причиной роста показателя отказов и снижения рейтинга сайта.
  4. Позаботьтесь об удобстве дизайна. Во избежание проблем у пользователей мобильной версии убедитесь, что размер текста настроен под размер экрана смартфона. Также важно, чтобы элементы управления были достаточно большими и удобными для нажатия на устройствах с сенсорным экраном.

Как узнать что сайт оптимизирован для мобильных устройств

Чтобы узнать, оптимизирована ли та или иная страница для мобильных устройств, воспользуйтесь сервисом «Mobile Friendly Test» от Google.

Для этого достаточно зайти на сайт, ввести URL страницы и нажать «Проверить». Если страница оптимизирована, вы увидите соответствующее оповещение. В правой части экрана вы можете посмотреть, как она выглядит на экране мобильного устройства.

Для этого достаточно зайти на сайт, ввести URL страницы и нажать «Проверить». Если страница оптимизирована, вы увидите соответствующее оповещение. В правой части экрана вы можете посмотреть, как она выглядит на экране мобильного устройства.

Также вы можете выполнить проверку в Netpeak Spider. После получения списка страниц кликните на любой URL правой кнопкой мыши и выберите «Открыть в сервисе» → «Mobile Friendly Test».

Также не будет лишним проверить, как Google воспринимает мобильную версию вашего сайта. Для этого также подойдёт Netpeak Spider.

Алгоритм проверки следующий:

  1. Зайдите в программу.
  2. Перейдите в «Настройки» → «User Agent».
  3. В разделе «Поисковые системы» выберите шаблон «Googlebot (Smartphone)» и нажмите «OK».

  1. Введите начальный адрес сайта и нажмите «Старт».
  2. Дождитесь окончания сканирования, чтобы просмотреть ваш сайт «глазами» агента Google для смартфонов.

3. Скорость сайта (TTFB)

Идеальный показатель TTFB («Time to first byte», время ответа сервера) — 50 мс, оптимальный не превышает 200 мс.

Слишком большое время ответа сервера (свыше 500 мс) негативно влияет на:

  • поведенческие факторы (показатель отказа в частности);
  • конверсию;
  • объём поискового трафика.

Сократить показатель TTFB можно следующими способами:

  1. Выберите высокопроизводительный сервер. Лучше всего прибегнуть к VPS (виртуальный выделенный сервер) или серверу для сайтов с высокой нагрузкой.
  2. Усовершенствуйте базу данных (БД). Сюда входит:
    • ускорение обработки запросов к БД;
    • использование инструментов, снижающих вес файлов БД;
    • настройка кэширования часто выполняемых запросов к БД (нужно соблюдать осторожность, так как большой объём кэшируемых данных может негативно отразиться на скорости загрузки сайта);
    • сокращение количества запросов с помощью операции соединения (JOIN).
  3. Установите акселераторы PHP. Они ускоряют время ответа и снижают нагрузку на процессор.
  4. Настройте серверное кэширование.

Чтобы узнать показатель TTFB для всех страниц сайта, воспользуйтесь Netpeak Spider. Программа определяет длительное время ответа сервера (свыше 500 мс по умолчанию) как ошибку.

Для проверки выполните следующие действия:

  1. Запустите программу.
  2. При необходимости задайте максимально допустимое время ответа сервера. По умолчанию Netpeak Spider выдаёт ошибку, если показатель TTFB составляет более 500 мс. Изменить показатель можно в разделе «Настройки» → «Ограничения».

  1. Введите URL сайта и приступите к сканированию.
  2. По завершению перейдите на боковую панель на вкладку «Отчёты» → «Ошибки». Если на вашем сайте есть страницы с критично большим временем ответа сервера, вы увидите ошибку «Большое время ответа сервера».
  3. Кликните по названию ошибки для просмотра этих страниц в отдельной таблице «Отфильтрованные результаты».

4. Безопасность соединения и настройка HTTPS

HTTPS-протокол не только обеспечивает безопасное соединение, но и позитивно влияет на ранжирование поисковыми системами. К тому же, сайты на HTTPS пользуются бóльшим доверием у посетителей.

Перед внедрением HTTPS, само собой, необходимо купить и установить SSL-сертификат. В зависимости от уровня защиты и целей веб-ресурса, различают следующие виды сертификатов:

    1. С верификацией домена — Domain Validated:
      • подойдёт для ресурсов с маленьким охватом пользователей;
      • низкий уровень защиты;
      • может быть приобретён как физическими, так и юридическими лицами;
      • выпускается за несколько минут.
    2. С верификацией организации — Organization Validated:
      • отлично подходит для маленьких интернет-магазинов;
      • средний уровень защиты;
      • может быть приобретён только юридическими лицами;
      • требует копии множества документов;
      • выдаётся за 1-5 дней.
    3. С обширной верификацией — Extended Validation SSL:
      • подойдёт для крупных ресурсов, заботящихся о своём авторитете;
      • гарантирует наивысшую степень защиты;
      • может быть приобретён только юридическими лицами;
      • требует предоставить дополнительные документы;
      • выдаётся за 3-10 дней.

Важно отметить, что при переходе с HTTP на HTTPS необходимо настроить 301 редирект, иначе поисковыми роботами старая и новая версии будут восприниматься как дубли. Редирект поможет склеить ссылочный вес обеих версий и предотвратить появление дубликатов.

5. Файл robots.txt, метатег Robots и HTTP-заголовок X-Robots-Tag

Довольно часто в период разработки сайта возникает необходимость полностью заблокировать доступ поисковым системам, чтобы они не добавили сайт в индекс до его релиза. Обычно для этого в файле robots.txt, который находится в корневой директории, прописываются директивы следующего вида:

User-agent: *
Disallow: /

Однако директивы файла robots.txt имеют лишь рекомендательный характер, поэтому для гарантированного результата рекомендуем дополнительно заблокировать сайт от индексации с помощью директивы noindex в Meta Robots. В блоке <head> страницы поместите следующий код:

<!DOCTYPE html>
<html><head>
<meta name="robots" content="noindex" />
(…)
</head>
<body>(…)</body>
</html>

Чтобы закрыть от поисковиков медиаконтент, необходимо прописать на уровне сервера HTTP-заголовок X-Robots-Tag. Пример ответа сервера, при котором X-Robots-Tag блокирует роботам доступ к индексации страницы:

HTTP/1.1 200 OK
Date: Tue, 25 May 2010 21:42:43 GMT
(…)
X-Robots-Tag: noindex
(…)

Непосредственно перед релизом сайта необходимо удалить или заменить запрещающие директивы, чтобы предоставить доступ роботам поисковых систем.

Узнать, правильно ли вы выставили инструкции и не закрыли ничего важного, поможет Netpeak Spider:

  1. Откройте программу.
  2. В «Параметрах» в разделе «Индексация» убедитесь, что отмечены такие пункты: «Разрешён в robots.txt», «Meta Robots», «X-Robots-Tag».

  1. Введите адрес сайта и приступите к сканированию.

По итогу просмотреть все данные вы можете:

  1. В таблице «Все результаты».
    В столбцах «Разрешён в robots.txt», «Meta Robots», «X-Robots-Tag» будут указаны директивы, прописанные для каждой из страниц сайта.

  1. На вкладке «Сводка» на боковой панели.
    Ознакомьтесь со списком заблокированных от индексации URL в разделах «robots.txt», «Meta Robots» и «X-Robots-Tag». Кликните на любое значение, чтобы отфильтровать страницы, на которых они были обнаружены.

Подводим итоги

Игнорирование SEO на этапе разработки может стать серьёзной ошибкой при дальнейшем продвижении.
Продуманная стратегия оптимизации сайта в момент его разработки поможет сэкономить время в будущем, а также предотвратить появление ошибок. Вот базовый список того, что могут сделать разработчики для успешного продвижения сайта до его релиза:

  • Разработать правильную структуру сайта для удобства пользователей и поисковых систем.
  • Оптимизировать сайт под мобильные устройства.
  • Позаботиться об оптимальной скорости ответа сервера.
  • Изначально сделать сайт безопасным для передачи данных, используя HTTPS-протокол.
  • Настроить инструкции по индексации с помощью файл robots.txt, метатега Robots и HTTP-заголовка X-Robots-Tag.
Категории: SEO практика
Сергей Коваленко: @BlessSergeyКонсультирую и делюсь своим опытом Поисковой оптимизации (SEO), WEB разработки, настройки контекстной рекламы и рекламы в соцсетях. С 2007 года я занимаюсь работой в сфере информационных технологий. Начинал с работы мастером по ремонту компьютеров и компьютерной техники в небольшой компании. Затем, повысив уровень своих знаний и навыков, занялся удаленным администрированием информационно технических сетей предприятий. Побывал на должности руководителя отдела инженерно технических средств безопасности. Сейчас нашел себя в такой многофункциональной среде как WEB разработка. Развиваю свои навыки в проектировании и обслуживании сайтов на различных платформах. Изучаю WEB разработку на популярной CMS Wordpress, занимаюсь SEO оптимизацией сайтов, контекстной рекламой в поисковых системах Google и Yandex, а так же в социальных сетях Facebook и Vkontakte.