Техническое SEO. Как проверять коды статусов

Техническая оптимизация сайта – полный перечень технических доработок. Вывод сайта в ТОП-10 PS Google and Yandex. Корректировка и исправление существующих ошибок, которые могут повлиять на продвижение сайта в поисковых системах. Без проведения грамотной технической оптимизации и доработок, эффективность направленных на продвижение действий сводиться к нулю. Давайте рассмотрим все необходимые действия, которые необходимо учесть.

Содержание статьи:

Техническая оптимизация и доработка сайта

Комплекс мер, направленных на корректную доработку важных технических аспектов сайта. Основной целью которых является:

  1. Полноценное индексирование в поисковых системах.
  2. Правильное ранжирование документов.
  3. Простая эффективная структура! Которая позволит поисковому боту, быстро достичь нового документа и понять его.
  4. Грамотная структура – удобство переходов между страницами.
  5. Навигация для лучшего взаимодействия пользователей с необходимой информацией. Позволит посетителю быстро найти нужный документ.

Правильно проведенная работа над ошибками, позволит значительно улучшить показатели сайта. Поспособствует:

  • Быстрой индексации страниц сайта;
  • Значительному улучшению позиций большинства страниц;
  • Уменьшению показателя отказов;
  • Приросту аудитории;
  • Равномерному распределению веса между документами;
  • Уменьшению времени отклика и прочих немало важных аспектов. Влияние которых зависит от технической оптимизации сайта.

Техническая оптимизация сайта: полный чек – лист

Важно понимать, что все ваши действия должны начинаться именно с начала. Двигаясь только в перед до конечных вариантов ошибок. Которые не оказывают серьезного влияния на сайт. Некорректное внесение исправлений в код или прочие элементы сайта, может привести к фатальным ошибкам. Обдумайте и проверьте все доработки несколько раз, прежде, чем внести изменения на работающем сайте.

Оптимизация работы хостинга и сервера

Хостинг оказывает одно из самых критических влияний на сайт. Плохое программное обеспечение или низкое количество выделенных ресурсов для работы. Приведет к серьезным последствиям на сайте.

  1. Установите качественное программное обеспечение или готовый хостинг.
  2. Обеспечьте достаточное кол-во выделенных ресурсов для сайта. Объемы памяти RAM, HDD, SSD.
  3. Следите за актуальность версий, программного обеспечения хостинга – PHP, баз данных и прочих.
  4. Абсолютно все страницы сайта, должны отдавать код ответа сервера 200 ОК.

Помочь могут следующие сервисы:

  • Google PageSpeed;
  • Инструменты Pingdom;
  • GTmetrix;
  • Яндекс веб-мастер.

Установка и настройка необходимых 301-редиректов и кодов ответа для избежания дублей страниц

Такие меры нужны для корректного указания основного зеркала сайта. Правильной обработки 404 ошибок и уменьшению дублей документов сайта в поиске.

  1. 301 – редирект с “www” (или без “www”) на основное зеркало сайта.
  2. 301 – редирект с других зеркал на основное (если таковые имеются).
  3. Настройте 301 – редиректы на URL со слешем “/” в конце или наоборот без него.
  4. Обязателен 301 – редирект с “http” на “https” или наоборот, зависит от версии сайта. Редирект поможет избежать дублирования контента.
  5. Создание страницы 404 – для несуществующих URL. Такая страница должна передавать код ответа 404 Not Found . Страницу 404 оформляют под дизайн проекта, а также организуют удобную структуру на ней. Это позволит посетителям быстро отыскать информацию на сайте, а не покидать его.

Оптимизация скорости загрузки сайта – HTML, CSS, JS и графики

В 2019 году скорость загрузки сайта, будет также востребованной поисковиками. Влияние этого показателя на ранжирование сайта одно из самых значимых в поисковом продвижении.

  1. Оптимизируйте Html код страниц – проверьте верстку на отсутствие незакрытых тегов. Это хорошо улучшит валидность документа. Html код должен быть чистым и иметь небольшой вес.
  2. CSS и JS – значительно влияют на скорость загрузки документа. Их нужно сжать и объединить как отдельные подключаемые файлы. Так увеличится скорость их обработки и загрузки визуальных элементов в браузере.
  3. Оптимизация графики – картинки нужно с начало обработать и сжать перед загрузкой на сайт. Будьте внимательны и следите за качеством изображения после сжатия.
  4. Ответ сервера должен быть в пределах 0.200 мс.
  5. Общее время загрузки сайта не должно превышать 0.700 мс.

Организация качественной структуры сайта, навигации и правильных ЧПУ

Структура сайта и его навигация значимый фактор. Он влияет на показатели отказов, индексацию и передачу веса между страницами.

  1. Структура сайта должна быть простой и иметь глубину не более 4 кликов. Пользователю должно быть удобно перемещаться по страницам.
  2. Создайте главное меню для обеспечения доступа к основным разделам.
  3. Сделайте перелинковку между страницами.
  4. Используйте метки и постраничную навигацию.
  5. Добавьте дополнительную страничку, имеющую всю структуру проекта. Так посетитель быстро отыщет важную информацию. А ПС – бот быстро проиндексирует новый контент.
  6. Настройка ЧПУ сайта – такие url, должны полностью отображать смысл заголовка страницы и быть понятными человеку.
  7. Рекомендуется использовать rel=“canonical”, для избавления от большинства дубликатов контента сайта. Позволяет указать поисковикам на оригинал документа. Таким образом, все копии оригинала страницы не будут учитываться поисковой системой.

Файлы robots.txt, sitemap.xml и.htaccess

Инструкции прописанные в этих файлах, помогут П – боту корректно индексировать страницы проекта. Все три файла должны находится в корневой директории.

  1. Robots.txt – позволяет указать правила индексации многочисленным поисковикам. В этом файле устанавливают запреты на служебные разделы, страницы дубли, поиск и прочие.
  2. Sitemap.xml – необходим для быстрой индексации. Должен иметь полную идентичную структуру сайта. Обеспечивая быстрый обход П – ботом новых или измененных страниц.
  3. .htaccess – позволяет указать правила для сервера. Неправильно прописанные правила! Приведут к фатальным ошибкам с серверной стороны! Этот файл позволяет сделать следующее:
    • в.htaccess можно указать большинство правил переадресации на сайте;
    • настроить сжатие большого количества форматов файлов со стороны сервера;
    • установить правильное хеширование документов в браузерах;
    • установить некоторые правила безопасности;
    • и прочие.

К таким рекомендациям можно отнести действия, которые несут второстепенный характер. Но несут не мало важную роль в оптимизации сайта. Эти дополнительные доработки, также улучшат ранжирование сайта и поведенческие факторы.

  1. Тег h1 единственный и не может повторяться на странице.
  2. H1-h6 не должны быть элементами стилистического оформления и дизайна.
  3. На страницах находятся только полностью уникальные теги Title и Description. Которые отражают суть страницы.
  4. Создайте привлекательный Favicon.
  5. Внешние ссылки, должны открываться в новой вкладке.
  6. Закройте от индексации страницы входа в админку. Директивой Disallow в файле robots.txt.
    • Также это касается служебных папок: cgi-bin, wp-icnludes .
    • Страниц регистраций, входа: register=, logout= .
    • Результаты поиска: search .
    • Rss избегая дублирования контента: feed”, wp-feed .
  7. Используйте дополнительное меню в статье “Содержание”, для навигации в статье.
  8. Сайт должен иметь оптимизированную мобильную версию.
  9. Необходима версия AMP – для мобильного поиска.
  10. Также рекомендуется настроить TURBO страницы, для поисковой системы Яндекс.
  11. Шрифт документа должен быть виден пользователю.
  12. Избегайте большого количества выделений в тексте .
  13. Не ставьте большое количество рекламных блоков на сайте. Поисковые системы могут негативно отреагировать на кучу рекламы, как в прочем и пользователи.

Это были все самые нужные доработки сайта. Надеюсь эта статья будет Вам полезна.

  • Читайте статьи по этой теме:

Поисковики постоянно борются за чистую выдачу, за показ только тех ресурсов, которые не только отвечают на нужный запрос, но и имеют техническую SEO оптимизацию на сайте. Поэтому я решил сделать список с исправлением технических ошибок на сайте. Который будет помогать в первую очередь новичкам в SEO.
SEO технической оптимизацией сайта называют, исправление технических ошибок, которые теоретический мешают отображать сайт правильно для пользователей. И такого рода ошибки могут фиксировать поисковые боты, из-за чего ранжирование сайта будет хуже, чем у конкурентов, которые не имеют таких оплошностей. А теперь разберемся, над чем же стоит поработать?

1. Правильная индексация сайта

Под грамотной индексацией сайта подразумевается исключения дублей страниц из индекса, а так же тех страниц, которые не несут информации для пользователей. То есть, чем больше будет полезных страниц в индексе и меньше мусора, тем более выгодными будут позиции для около топовых продвигаемых запросов.

Что следует закрывать от индексации:

  • Админ панель;
  • Различные мусорные страницы;
  • Переход на главную через index.html;
  • www или без на выбор;
  • 404 ошибку;
  • дублирование feed страниц.

Индексация сайта в Яндексе

Начну проверку индексации сайта в Яндексе, а для этого требуется в поиске написать следующую строчку — host:сайт.ru* | host:www.сайт.ru* . Она поможет узнать, сколько страниц у вас в индексе, а так же найти то, что стоит запретить от индексации.

Вот собственно, какие я нашел ошибки у себя при проверке сайта:
В общем мною было найдено 3 страницы из 93, которые не должны быть в индексе т.к. они пустые и не несут пользы для посетителей. Но когда-то у меня было 30-40% мусора от общего числа страниц, которые так же мешали продвигаться.

Индексация сайта в Google

Теперь проведем проверку индексации сайта в Google, но там нужно писать фразу в поиске — site: сайт.ru. Стоит заметить, что в поиске вы можете увидеть так же страницы закрытые от индекса через robots. Выходит в поиске будет примерно в 2 раза больше результатов по сайту.

Вот собственно, что мне удалось найти из своих ошибок:

В общем-то нашел 7 стр из 107 стр, которые не должны быть в индексе. Честно сказать, был удивлен найти столько ошибок. Однако ранее мусора было более 50% в выдачи, что действительно не давало сайту шанса для развития.

Как закрыть страницы от индексации

Для того, что бы закрыть страницы от индексации, такие как дубли или мусор, потребуется редактировать несколько документов, а именно htaccess и robots. Но конечно же все по порядку.

Htaccess — это файл находящийся в корневой папки сайта, который конфигурирует работу сервера в разных директориях, не давая при этом доступа к главному конфигурационному файлу. Допустим в этом файле можно настроить редирект, а так же можно менять название индексных файлов, да и собственно указывать, что допустить до индекса, а что нет. Думаю скоро напишу об этом файле в отдельности.

Robots.txt — это файл исключительно служащий для поисковых систем, где нужно указывать некие правила индексирования страниц. И можно было бы обойтись одним этим файлом, но почему-то иногда в индекс проскальзывают страницы, которые не должны там быть (это касается индексации Google). Впрочем, я уже рассказывал, поэтому идем к следующему пункту.

2. Скорость загрузки страниц сайта

Быстрый сайт — залог высокой конверсии, тем самым будет меньше отказов, больше просмотров страниц и конечно же выше позиции сайта. Поэтому медленная загрузка страниц сайта считается технической ошибкой. Сначала проверяем сайт в , где более 85-ти баллов считается отличным результатом!

Так же Google покажет список ошибок, которые стоит устранить для ускорения загрузки страниц. При этом результаты проверки главной страницы и любой другой из вашего сайта, могут отличаться результатами. Из-за того, что на страницах с контентом может быть подгрузка дополнительных скриптов или наоборот.

Так как Гугл просто сообщает о наличии ошибок, поэтому советую так же попробовать сервис , который более детально отобразить время затраченное на загрузку отдельных элементов. Думаю в будущем поисковики смогут определять не только , но и момент полной загрузки страницы.

Основные проблемы медленной загрузки страниц :

  • Некачественный хостинг, либо плохо настроенный;
  • Ошибки в коде/скриптах (создающие глюки);
  • Картинки большого размера;
  • Загрузка скриптов и CSS в начале страницы (в области head);
  • Отсутствие gzip сжатия (90% сжатия информации);
  • Отсутствие кеширования страниц.

Когда-то ради ускорения сайта даже пришлось сменить хостинг. Благодаря Pingdom, я смог установить эту причину. Передача первой информации о сайте длилась 800 мс (0.8 сек). Казалось, что сайт загружается вечность, но при переходе на , удалось сократить до 100-300 мс (в зависимости от региона), а платил за хостинг столько же.

Удивило то, что по средне-частотным запросам, я стал попадать в топ 10, а до этого получалось продвигать лишь низко-частотные ключевые слова. Благодаря чему резко увеличился трафик, как из Google, так и из Яндекса.

3. Наличие ошибок или мусора в HTML

К примеру существуют общие стандарты для страниц, используя которые можно повысить свои шансы попадания в топ. Думаю будет полезным, если разобью HTML ошибки на несколько видов.

Иногда дизайнеры и верстальщики допускают ошибки в коде, которые не отображаются на дизайне, однако сигнализируют о техническом кривом коде. Что бы проверить код сайта на ошибки, для этого используют .

Благодаря которому, можно узнать, насколько порядочным был ваш верстальщик шаблона. Об устранение ошибок с помощью валидатора я уже рассказывал .

Если у вас отсутствуют фатальные ошибки в коде, то возможно устранение мелких ошибок может и не дать результатов, но это все равно будет полезной работой для вашего ресурса!

Frame


Фрейм
— это загрузка различных документов в окне, которое не индексируются . А это значит доп. нагрузка на сервер + фрейм не учитывается, как контент — поэтому их стоит избегать!

Это могут быть, допустим социальные кнопки от различных сервисов или видео. Безусловно сейчас научились делать фреймы, которые выгружает данные в html код и это кешируется. Но это требует проверки с вашей стороны.

К примеру фрейм видео проигрывателя действительно имеет html с названием видео и некой ссылкой, однако при запуске видео, метрика показывает, что ваш сайт свернули и перешли на другую вкладку, что не является плюсом для поведенческих.

Теги h1-h6

Теги H1 — обозначают заголовок страницы и он должен присутствовать всего 1 раз на странице и содержать в себе ключевое слово (обязательно для попадания в топ!).

Тег H2 — второй по значению заголовок, который может повторяться многократно. Его SEO оптимизаторы используют чаще всего под НЧ (низко частотные ключевые слова), по которым так же идет продвижение страницы. Потому, что Яндекс из h2 создает дополнительные заголовки для сниппетов, что позволяет круто продвигаться по запросам.

Вот поэтому сайт имеющий дополнительные теги h2 на страницах имеет больше шансов собирать больше посещений на страницу.

Теги от h3 до h6 — являются дополнительными (вспомогательными) заголовками для раскрытия более детально, какой-либо информации в контенте. Не стоит их вносить в заголовки виджетов или подвал сайта!

Еще одно правило, которое следует соблюдать, это градацию тегов. Тег h1 должен идти первым в контенте, только после него должен быть h2. Ну а теги h3-h6 идут следом.

Что дает исправление технических ошибок

Более 80% людей, которые обращались ко мне с просьбой посмотреть их сайт и сказать, что не так, имели именно такие ошибки. После устранения которых, всем удавалось подняться по позициям! Вот почему, я рекомендую сначала заняться исправлением технических ошибок, а уже потом искать способы, как раскрутить определенные страницы.

– это с одной стороны набор знаний и навыков технического спектра в поисковой оптимизации сайтов, то есть, грубо говоря, это знание о том, где и что надо добавить, убрать, прописать, чтобы сайт лучше оценивался поисковиками, с другой стороны, это целостный продукт, предлагаемый для покупки, своего рода «оптимизация под ключ».

Техническое SEO как область знания об оптимизации

Техническое SEO в широком смысле набор навыков, позволяющий реализовать из просто идеи о том, как это должно быть, в готовый план, а потом и исполнить этот план по пунктам. То есть если рассматривать оптимизацию через призму:

  • Идея того как должен выглядеть сайт, удовлетворяющий поисковики и пользователей
  • План оптимизации
  • Реализация каждого пункта плана

То техническое seo в широком смысле – это обеспечение корректного проявления последнего пункта.

Как бы не рассматривать техническое seо, в широком или в узком смысле, нельзя уйти от темы субъектности специалиста, который эту оптимизацию осуществляет . При употреблении эпитета «технический» может начать казаться, что речь идет об объективном продукте или знании. В общем-то, это действительно так, но если речь идет о техническом seo как о продукте, то вмешивается сугубо человеческое представление об оптимизации и, в каком-то смысле, о корпоративном устройстве поисковых компаний. Этот аспект будет рассмотрен в следующем разделе.

Здесь же можно коротко упомянуть те аспекты, о которых нельзя забывать при технической оптимизации сайта:

  • Заголовки Н1 и подзаголовки Н2

Какие неочевидные технические ошибки могут быть найдены при проведении SEO-аудита :


Техническое SEO как продукт

В более узком смысле технической оптимизацией является продукт, предлагаемый различными фирмами-оптимизаторами . Суть продукта заключается в том, что покупателю предлагается в одной «упаковке» seo-аудит, исправление всех технических ошибок, а также рекомендации по дальнейшим действиям в развитии сайта. Вообще, речь о подобной услуге как о целостном продукте возможна исключительно в силу несовершенства протекания бизнес-процессов и коммуникации между людьми на разном уровне: у каждого человека, работающего с сайтом есть какие-то свои представления об идеалах (одни споры между дизайнерами и программистами чего стоят). И надо всеми этими работниками должен стоять некто, именуемый специалистом по технической оптимизации сайта и направлять всю работу в нужное русло. Когда техническая оптимизация начинает рассматриваться как продукт, то тут уже включается человеческое представление оптимизатора. То есть, грубо говоря, оптимизатор может знать все технические аспекты и при этом быть приверженцем исключительно белых методов, знать всё про написание контента и совмещать в себе контент-маркетолога и поискового оптимизатора, тогда продукт «техническое seo» будет иметь один вид, а может быть приверженцем своего рода теории заговора поисковых компаний, которые, дескать, не дают оптимизаторам зарабатывать на кусок хлеба, и постоянно вводят фильтры и банят за линкопомойки . И вот именно тут и происходит разделение на продажу специалистов технического seo различного рода. И как для клиента, так и для оптимизатора важно найти своего рода своего специалиста/клиента. Потому что если оптимизатору, которого можно условно отнести в разряд контент-маркетологов, придется работать с клиентом, желающим «сделать без напряга и просто продвинуть», то это будет очень тяжелый заказ, при исполнении которого 90% времени уйдет на переубеждение клиента, если он вообще будет переубеждаем и может просто закончиться расторжением сотрудничества. Если же к клиентам, которые не против контентной работы придет «покупатель ссылок», то такое сотрудничество в конечном счете будет невыгодно клиентам, которых будут уговаривать вкладывать деньги в ссылки ежемесячно, а потом еще и доставать сайт из-под фильтров.

Где применяется техническое SEO

Техническая поисковая оптимизация сайта как набор знаний о том, как же проводить оптимизацию применяется, как уже несложно догадаться, везде. То есть, это именно знание как, что и где конкретно заполнить, записать или настроить переадресацию, чтобы поисковик правильно понял структуру сайта, проранжировал документы, проиндексировал страницы, а посетитель не запутался во всем этом и легко находил интересующую его информацию на сайте. Ни один человек, занимающийся оптимизацией сайта, хоть на уровне самостоятельного раскручивания, хоть на уровне профессии не может обойтись без знаний того, как именно проводить все манипуляции. Рассматривая же техническую поисковую оптимизацию как продукт, предлагаемый на рынке, можно увидеть, что наиболее выгоден он сайтам, с большим количеством автоматически генерируемых страниц, таким как интернет-магазины, в которых некорректность, зашитая в одном месте, может испортить огромное количество страниц, наследующих установки и настройки . Наибольший «выхлоп» в грамотном применении технической стороны знаний об оптимизации проявится именно для таких клиентов. Но в любом случае техническая оптимизация является неотъемлемой частью при продвижении любого сайта, какую бы форму он не имел, и на какую бы аудиторию не был рассчитан.

Фундаментом любого сайта является его техническая сторона. Помимо широкого и приятного функционала, красивой обертки и юзабилити для продвижения очень важна SEO оптимизация, которая позволит роботам поисковых систем быстро и правильно индексировать содержимое ресурса. Давайте определим основные моменты, которые следует учесть для SEO оптимизации сайта.

1. Кабинеты вебмастеров и счетчики

Начиная работу над продвижением своего ресурса, нужно зарегистрировать его в кабинетах вебмастеров. Это самый лучший сигнал для поисковых систем, и вскоре роботы начнут посещать сайт.

Однако, недостаточно просто добавить домен, кабинеты необходимо правильно настроить. Например, в Яндекс.Вебмастере не будет лишним:

  • добавление карты сайта sitemap.xml в соответствующий раздел ()
  • указание региональности ()
  • проверка robots.txt на правильность составления ()

Помимо прочего, вебмастера располагают массой полезных инструментов:

  • различными валидаторами для проверки корректности составления тех или иных документов (карты сайта, микроразметки и т.д.)
  • возможность отслеживать статистику по запросам (показы, клики, CTR и т.д.)
  • просмотр статистики индексирования страниц (что попало в поиск, а что нет, и по каким причинам)

Для получения более полной и подробной информации о посещаемости и поведении пользователей на вашем сайте зарегистрируйте и установите счетчики посещаемости. Счетчик - это прекрасный инструмент, который поможет разобраться, как и в каком направлении двигаться, работая над популярностью ресурса.

Текстовый файл robots.txt должен присутствовать у каждого сайта и быть доступен по адресу example.ru/robots.txt . Это первый файл, к которому обращаются роботы при посещении сайта и в котором хранятся инструкции для них.

В зависимости от того, на какой системе управления работает ваш сайт, формируются эти самые правила. Давайте кратко определим, что должно быть в данном файле:

  1. Должны быть указаны правила для разных роботов (User-agent: Yandex, User-agent: GoogleBot и т.д.), т.к. правила и директивы для каждого из них могут отличаться.
  2. Закрыты от индексации все системные ресурсы (шаблоны, исполнительные файлы и т.д.).
  3. Закрыто все, то что не должно присутствовать в поиске (страницы регистрации/авторизации, результаты фильтрации/поиска и т.д.).
  4. Указана директива Host для робота Yandex.
  5. Указана карта(ы) сайта sitemap.xml.
  6. Для робота GoogleBot должны быть открыты файлы, влияющие на отображение сайта (js, css, изображения, шрифты). Подробнее об этом можно почитать .

Более подробно о настройке robots.txt можно прочитать и .

3. Sitemap (карта сайта)

Карта сайта - один основных способов улучшения навигации по сайту как для поисковых роботов, так и для пользователей.

Для роботов карта сайта генерируется в формате xml и должна содержать все ссылки, которые будут индексироваться и участвовать в выдаче.

Для многих популярных CMS существуют специальные плагины, позволяющие создавать и настраивать карту (например Google XML Sitemaps для WordPress или XMap для Joomla). Если сформировать карту при помощи дополнений нет возможности, то здесь помогут различные онлайн-генераторы, например MySitemapGenerator , или же настольные приложения, например ComparseR, Sitemap Generator .

Не будет лишним добавление карты сайта в формате html (обычная страница со списком разделов и ссылок). Она облегчит навигацию как для посетителей, так и для роботов. Не стоит делать её слишком объемной, например, для интернет-магазина достаточно будет сделать иерархию из основных разделов и категорий.

4. Битые ссылки

Большое количество таких ссылок отрицательно сказывается на отношении пользователей к вашему ресурсу, ведь мало кому понравится видеть сообщения об ошибке вместо интересующего материала.

Поисковые системы тоже способны сделать некие отрицательные выводы о ресурсе с чрезмерным количеством таких ссылок, например, что контент не актуальный, сайт не обновляется (за ним попросту не следят) и т.д.

Не ленитесь регулярно проверять свой ресурс на наличие битых ссылок. Воспользуйтесь довольно удобным сервисом для поиска .

5. Исключение дублей

Дубли страниц - это доступность одного и того же материала по нескольким адресам.

Наличие дублированного контента приводит к следующим проблемам:

  1. ПС могут неправильно определить основную (релевантную) страницу, что может повлиять на позиции сайта. Поисковые роботы могут склеить адреса, выбрав приоритетной страницей наименее желательную.
  2. Дубли создают дополнительную нагрузку при обходе сайта роботом, в следствие чего увеличивается время на индексацию.

Пожалуй, это одна из основных трудностей технической оптимизации сайта. Если нет возможности устранить дубли технически, нужно воспользоваться канонической ссылкой с атрибутом rel=canonical тега link.

Предположим, что материал доступен по двум адресам:

www.site.ru/page

www.site.ru/page111

Предпочтительным будет первый вариант, а канонический тег будет выглядеть так:

‹link rel="canonical" href="www.site.ru/page" /›

Он должен присутствовать в коде обеих страниц между тегами ‹head› и ‹/head›.

Если и это не удается сделать, имеет смысл закрыть дубли в robots.txt или настроить 301 редирект. Подробнее читаем .

6. Настройка ЧПУ

10. Ответ сервера

Когда пользователь открывает страницу в браузере (или робот начинает ее сканировать), сервер, на котором находится сайт, отдает в ответ на этот запрос код статуса HTTP, то есть предоставляет информацию о вашем сайте и запрашиваемой странице.

Например,

200 - со страницей все в порядке

404 - несуществующая страница (советы по оформлению страницы 404)

503 - сервер временно недоступен

Бывает, код статуса отдается неверный. Например, страница рабочая, а статус-код 404, или наоборот, несуществующие страницы отдают код 200. Это нужно обязательно отследить и провести корректную настройку статус-кодов в файле.htaccess.

Особенно важно настроить 404 ошибку. Если страница существует, а сервер при ее запросе сообщает о 404 ошибке, страница не будет проиндексирована поисковиками.

Проверить коды статусов можно с помощью соответствующего инструмента в Яндекс.Вебмастере или приложения «Firebug» для браузера Mozilla Firefox.

11. Скорость загрузки

Скорость работы ресурса, загрузки страниц, выполнения скриптов и т.д. - один из ключевых показателей технической оптимизации. Вряд ли пользователю будет приятно дожидаться долгого ответа сервера, отрисовки страницы, или отправки данных через какую-нибудь форму - он просто уйдет, и, как правило, не вернется.

На этот момент активно обращают внимание и поисковики. Ведь то, что не нравится пользователю - не должно нравиться и ПС.

Чтобы оценить и выявить факторы, которые тормозят работу ресурса, можно воспользоваться инструментом Google PageSpeed Insights . Результатом будут два относительных показателя с рекомендациями необходимых работ для поднятия скорости:

Итог

Все это только основные моменты, которые следует учесть для технической оптимизации сайта. Помните, грамотное SEO, а в частности техническая оптимизация - это результат большого объема работ, которые в сумме дают хороший эффект, и довольно часто пренебрежение хотя бы одним из параметров может все труды «свести на нет». Если хотите проверить, всё ли у вас в порядке с технической оптимизацией сайта, то SEO-аудит вам в помощь. Если хотите, чтобы не только проверили, но и правильно всё настроили, то вам необходимо

Эффективному SEO может помешать всего лишь одна досадная ошибка в технической оптимизации сайта, но это приведет к тому, что роботы ПС не смогут правильно индексировать ресурс, понять структуру сайта, а пользователи не найдут необходимую для них информацию. Все это, в свою очередь, приведет к низкому ранжированию сайта.

Техническая оптимизация сайта - это комплекс мер, которые направлены на корректировку технических аспектов ресурса с целью улучшения его взаимодействия с роботами поисковых систем. Техническая оптимизация позволяет обеспечить быструю и максимально полную индексацию страниц сайта.

5 основных параметров технической оптимизации

1. Файл robots.txt

Важно отметить, что файл robots.txt должен содержаться в корневой директории каждого ресурса. Это первый файл, к которому обращаются роботы ПС, когда заходят на сайт, и в котором хранятся инструкции для них.

В этом файле указаны параметры индексирования сайта: какие страницы следует заносить в поисковую базу, а какие нужно исключить. Помимо этого, в нем можно указывать директивы как для всех роботов поисковых систем сразу, так и для роботов каждой ПС в отдельности. Про составление данного файла и его настройку можно подробнее узнать на сайте помощи веб-мастерам Яндекса.

Проверить файл можно в сервисе Яндекс.Вебмастер , пункт меню «Анализ robots.txt» (https://webmaster.yandex.ru/robots.xml).

2. Sitemap - карта сайта

Карта сайта - одна из страниц ресурса, информация на которой аналогична содержанию обычной книги. Эта страница используется как элемент навигации. В карте сайта содержится полный перечень разделов и/или всех страниц, размещенных на ресурсе.

HTML-карта сайта нужна пользователям для быстрого и удобного поиска информации, а XML - поисковикам для улучшения индексации сайта.

С помощью карты сайта поисковые роботы видят всю структуру и быстрее индексируют новые страницы.

Проверка карты сайта (https://webmaster.yandex.ru/sitemaptest.xml)

Пример корректной карты сайта в формате.html:

3. Редиректы (перенаправления)

Редирект применяют для перенаправления посетителей ресурса с одной страницы на другую. Примеров, для чего нужны редиректы, достаточно много:

  1. Смена доменного имени сайта.
  2. Переклейка зеркал. У многих сайтов не настроен 301 редирект с домена, который содержит www в адресе, на домен без www, или наоборот.

Проставлять редиректы необходимо в файле.htaccess. Так как поисковые системы site.ru и www.site.ru могут считать разными сайтами, то в выдачу могут попадать дубли. Это создаст сложности с ранжированием в выдаче и т. д.

Основные статус-коды редиректов:

  • 300 - Multiple Choices (несколько вариантов на выбор);
  • 301 - Moved Permanently (перемещено навсегда);
  • 302 - Temporary Redirect (временный редирект);
  • 303 - See Other (затребованный ресурс можно найти по др. адресу);
  • 304 - Not Modified (содержимое не изменялось - это могут быть рисунки, таблицы стилей и т. п.);
  • 305 - Use Proxy (доступ должен осуществляться через прокси);
  • 306 - Unused (не используется).

Полезный сервис для определения откликов страниц: http://www.bertal.ru/

4. Настройка видов URL-страницы

Важно проверить сайт на единообразие адреса всех его страниц. Например, на всем сайте страницы должны иметь закрывающий слеш: http://site.ru/katalog/ и http://site.ru/products/ . Если часть страниц имеет вид http://site.ru/katalog , а часть - http://site.ru/products/ это неверно.

Проверить адреса внутренних страниц ресурса на ошибки будет удобно после создания карты сайта.

5. Ошибки сайта

Во время загрузки любой страницы сайта посылается запрос серверу, который отвечает кодом статуса HTTP и загружает (или не загружает) страницу.

Основные статус-коды:

  • 200 - со страницей все в порядке;
  • 404 - несуществующая страница;
  • 503 - сервер временно недоступен.

«404 ошибка» - один из наиболее важных технических параметров оптимизации, по которому обязательно следует проводить доработку.

Если страница существует, а сервер при ее запросе информирует о 404 ошибке, то страница не будет проиндексирована поисковиками. Иначе в индекс может попасть большое количество страниц с одинаковым текстом, что крайне негативно влияет на ранжирование.

Проверить коды статусов можно с помощью http://www.bertal.ru/ или Яндекс.Вебмастера.

Мы рассмотрели только основные параметры технической доработки сайта, на которые нужно обращать внимание в первую очередь. Если Вы обнаружите подобные ошибки на своем сайте или возникнут сложности с их устранением, обращайтесь только в профессиональную SEO-компанию.

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то