Техническое SEO. Настройка видов URL-страницы

Эффективному SEO может помешать всего лишь одна досадная ошибка в технической оптимизации сайта, но это приведет к тому, что роботы ПС не смогут правильно индексировать ресурс, понять структуру сайта, а пользователи не найдут необходимую для них информацию. Все это, в свою очередь, приведет к низкому ранжированию сайта.

Техническая оптимизация сайта - это комплекс мер, которые направлены на корректировку технических аспектов ресурса с целью улучшения его взаимодействия с роботами поисковых систем. Техническая оптимизация позволяет обеспечить быструю и максимально полную индексацию страниц сайта.

5 основных параметров технической оптимизации

1. Файл robots.txt

Важно отметить, что файл robots.txt должен содержаться в корневой директории каждого ресурса. Это первый файл, к которому обращаются роботы ПС, когда заходят на сайт, и в котором хранятся инструкции для них.

В этом файле указаны параметры индексирования сайта: какие страницы следует заносить в поисковую базу, а какие нужно исключить. Помимо этого, в нем можно указывать директивы как для всех роботов поисковых систем сразу, так и для роботов каждой ПС в отдельности. Про составление данного файла и его настройку можно подробнее узнать на сайте помощи веб-мастерам Яндекса.

Проверить файл можно в сервисе Яндекс.Вебмастер , пункт меню «Анализ robots.txt» (https://webmaster.yandex.ru/robots.xml).

2. Sitemap - карта сайта

Карта сайта - одна из страниц ресурса, информация на которой аналогична содержанию обычной книги. Эта страница используется как элемент навигации. В карте сайта содержится полный перечень разделов и/или всех страниц, размещенных на ресурсе.

HTML-карта сайта нужна пользователям для быстрого и удобного поиска информации, а XML - поисковикам для улучшения индексации сайта.

С помощью карты сайта поисковые роботы видят всю структуру и быстрее индексируют новые страницы.

Проверка карты сайта (https://webmaster.yandex.ru/sitemaptest.xml)

Пример корректной карты сайта в формате.html:

3. Редиректы (перенаправления)

Редирект применяют для перенаправления посетителей ресурса с одной страницы на другую. Примеров, для чего нужны редиректы, достаточно много:

  1. Смена доменного имени сайта.
  2. Переклейка зеркал. У многих сайтов не настроен 301 редирект с домена, который содержит www в адресе, на домен без www, или наоборот.

Проставлять редиректы необходимо в файле.htaccess. Так как поисковые системы site.ru и www.site.ru могут считать разными сайтами, то в выдачу могут попадать дубли. Это создаст сложности с ранжированием в выдаче и т. д.

Основные статус-коды редиректов:

  • 300 - Multiple Choices (несколько вариантов на выбор);
  • 301 - Moved Permanently (перемещено навсегда);
  • 302 - Temporary Redirect (временный редирект);
  • 303 - See Other (затребованный ресурс можно найти по др. адресу);
  • 304 - Not Modified (содержимое не изменялось - это могут быть рисунки, таблицы стилей и т. п.);
  • 305 - Use Proxy (доступ должен осуществляться через прокси);
  • 306 - Unused (не используется).

Полезный сервис для определения откликов страниц: http://www.bertal.ru/

4. Настройка видов URL-страницы

Важно проверить сайт на единообразие адреса всех его страниц. Например, на всем сайте страницы должны иметь закрывающий слеш: http://site.ru/katalog/ и http://site.ru/products/ . Если часть страниц имеет вид http://site.ru/katalog , а часть - http://site.ru/products/ это неверно.

Проверить адреса внутренних страниц ресурса на ошибки будет удобно после создания карты сайта.

5. Ошибки сайта

Во время загрузки любой страницы сайта посылается запрос серверу, который отвечает кодом статуса HTTP и загружает (или не загружает) страницу.

Основные статус-коды:

  • 200 - со страницей все в порядке;
  • 404 - несуществующая страница;
  • 503 - сервер временно недоступен.

«404 ошибка» - один из наиболее важных технических параметров оптимизации, по которому обязательно следует проводить доработку.

Если страница существует, а сервер при ее запросе информирует о 404 ошибке, то страница не будет проиндексирована поисковиками. Иначе в индекс может попасть большое количество страниц с одинаковым текстом, что крайне негативно влияет на ранжирование.

Проверить коды статусов можно с помощью http://www.bertal.ru/ или Яндекс.Вебмастера.

Мы рассмотрели только основные параметры технической доработки сайта, на которые нужно обращать внимание в первую очередь. Если Вы обнаружите подобные ошибки на своем сайте или возникнут сложности с их устранением, обращайтесь только в профессиональную SEO-компанию.

Привет, Друзья! Техническая оптимизация сайта на этапе on-page SEO обеспечит основу для успешного продвижения любого WEB-проекта. Я рекомендую уделить внимание нескольким факторам, влияющим на . Об этом и поговорим сегодня!

Проекты, которые предлагают высококачественный, удобный и адаптивный пользовательский интерфейс, способны привлечь к себе внимание представителей основной целевой аудитории. Безусловно, далеко не последнюю роль играет качество наполнения страниц, но без оптимизации технических параметров невозможно само функционирование сайта. В результате технические этапы on-page SEO следует рассматривать в качестве прочного фундамента, с которого начинается последовательное продвижение проекта путем осуществления различных рекламных мероприятий, наращивания ссылочной массы и выполнения контент-менеджмента.

Цели технической оптимизации сайта:

  1. Устранение различных и сбоев.
  2. Повышение страниц.
  3. Создание условий для on-page SEO.
  4. Улучшение пользовательского интерфейса.
  5. Внедрение качественной навигации.

Выполняя техническую оптимизацию сайта необходимо ориентироваться на современные требования настройки веб-страниц с учетом параметров цифрового маркетинга. Полезные рекомендации предоставляют также крупные поисковые системы, которые настаивают на повышении качества оптимизации в целях улучшения релевантности выдачи по . Каждый сайт нуждается в надежной основе, поэтому выполнение технического SEO рассматривается в качестве начального этапа продвижения.

На первом этапе, повышается производительность сайта, оптимизатор создаёт условия для улучшения показателей ранжирования. В списке поисковой выдачи хорошо оптимизированные веб-страницы окажутся на передовых позициях, тем самым гарантируя привлечение внимания будущих посетителей.

Технический аудит

Прежде чем приступить к оптимизации, необходимо определить техническое состояние сайта и понять причины по которым его продвижение затруднено или невозможно. позволяет эти причины выявить. Процесс предполагает сбор и аналитическую обработку данных для последующего улучшения различных параметров работы страниц.

Задачи технического SEO-аудита:

  1. Анализ сайта на предмет сбоев и поломок разной степени сложности.
  2. Проверка состояния необходимого для поисковой индексации файла .
  3. Оценка работы на мобильных и десктопных устройствах.
  4. Поиск и устранение .
  5. (масштабирование и добавление метатегов).
  6. Анализ текущей XML-карты, архитектуры и пользовательского интерфейса.
  7. Изучение внутренней структуры ссылок, качества перенаправления и .
  8. Оценка доступности и скорости загрузки отдельных страниц.
  9. Сканирование сайта для поиска возможных ошибок и слабых мест.
  10. Сбор аналитических и статистических данных для дальнейшего мониторинга сайта.

Результатом профессиональной технической настройки сайта является его . Страницы, которые обладают отменной конфигурацией, занимают более высокие позиции в списке поисковой выдачи. В свою очередь наличие даже незначительных ошибок может привести к серьезным проблемам. Своевременно выполненный аудит позволит определить технические детали, влияющие на последующее ранжирование и продвижение сайта.

Снятие штрафных санкций

Полученная в ходе технического аудита аналитика позволит разработать эффективную . К основным услугам компаний, занимающихся технической оптимизацией, следует отнести восстановление позиций сайтов, которые попали под действие поисковых фильтров. Обычно санкции накладываются в результате снижения скорости загрузки, не уникальности контента, ссылочного продвижения, а также появления прочих неполадок, влияющих на доступность веб-страниц.

Выявление проблем на раннем этапе снизит риск попадания сайта под действие поисковых фильтров. Актуальные алгоритмы индексации наказывают сайты, имеющие плохое техническое оснащение. В результате проблемы с ранжированием имеют не только нарушители пользовательского соглашения, применяющие стратегию , но и использующие разрешенные методы оптимизации проекты, которые сталкиваются с техническими сбоями.

На этапе технической оптимизации необходимо:

  1. Устранить ошибки, которые спровоцировали попадание сайта под действие поисковых фильтров.
  2. Восстановить потерянные позиции в списке поисковой выдачи.
  3. Вернуть оптимальный уровень посещаемости сайта.
  4. Сохранить и улучшить репутацию путем повышения доверия со стороны поисковых систем.
  5. Снизить риск повторного наказания по причине проблем с индексаций отдельных страниц.

Обратиться за поддержкой к специалистам рекомендуется владельцам сайтов, которые попали в черные списки поисковых систем. Подобная проблема обычно сопровождается стремительным падением позиций в по неизвестным на первый взгляд причинам. Своевременно выполненная техническая оптимизация сайта снизит риск появления проблем с поисковиками, а правильная настройка конфигурации веб-страниц обеспечит возвращение позиций в списке поисковой выдачи.

Анализ ссылок на сайте

На этом сегодня всё, всем удачи и до новых встреч!

Поисковики постоянно борются за чистую выдачу, за показ только тех ресурсов, которые не только отвечают на нужный запрос, но и имеют техническую SEO оптимизацию на сайте. Поэтому я решил сделать список с исправлением технических ошибок на сайте. Который будет помогать в первую очередь новичкам в SEO.
SEO технической оптимизацией сайта называют, исправление технических ошибок, которые теоретический мешают отображать сайт правильно для пользователей. И такого рода ошибки могут фиксировать поисковые боты, из-за чего ранжирование сайта будет хуже, чем у конкурентов, которые не имеют таких оплошностей. А теперь разберемся, над чем же стоит поработать?

1. Правильная индексация сайта

Под грамотной индексацией сайта подразумевается исключения дублей страниц из индекса, а так же тех страниц, которые не несут информации для пользователей. То есть, чем больше будет полезных страниц в индексе и меньше мусора, тем более выгодными будут позиции для около топовых продвигаемых запросов.

Что следует закрывать от индексации:

  • Админ панель;
  • Различные мусорные страницы;
  • Переход на главную через index.html;
  • www или без на выбор;
  • 404 ошибку;
  • дублирование feed страниц.

Индексация сайта в Яндексе

Начну проверку индексации сайта в Яндексе, а для этого требуется в поиске написать следующую строчку — host:сайт.ru* | host:www.сайт.ru* . Она поможет узнать, сколько страниц у вас в индексе, а так же найти то, что стоит запретить от индексации.

Вот собственно, какие я нашел ошибки у себя при проверке сайта:
В общем мною было найдено 3 страницы из 93, которые не должны быть в индексе т.к. они пустые и не несут пользы для посетителей. Но когда-то у меня было 30-40% мусора от общего числа страниц, которые так же мешали продвигаться.

Индексация сайта в Google

Теперь проведем проверку индексации сайта в Google, но там нужно писать фразу в поиске — site: сайт.ru. Стоит заметить, что в поиске вы можете увидеть так же страницы закрытые от индекса через robots. Выходит в поиске будет примерно в 2 раза больше результатов по сайту.

Вот собственно, что мне удалось найти из своих ошибок:

В общем-то нашел 7 стр из 107 стр, которые не должны быть в индексе. Честно сказать, был удивлен найти столько ошибок. Однако ранее мусора было более 50% в выдачи, что действительно не давало сайту шанса для развития.

Как закрыть страницы от индексации

Для того, что бы закрыть страницы от индексации, такие как дубли или мусор, потребуется редактировать несколько документов, а именно htaccess и robots. Но конечно же все по порядку.

Htaccess — это файл находящийся в корневой папки сайта, который конфигурирует работу сервера в разных директориях, не давая при этом доступа к главному конфигурационному файлу. Допустим в этом файле можно настроить редирект, а так же можно менять название индексных файлов, да и собственно указывать, что допустить до индекса, а что нет. Думаю скоро напишу об этом файле в отдельности.

Robots.txt — это файл исключительно служащий для поисковых систем, где нужно указывать некие правила индексирования страниц. И можно было бы обойтись одним этим файлом, но почему-то иногда в индекс проскальзывают страницы, которые не должны там быть (это касается индексации Google). Впрочем, я уже рассказывал, поэтому идем к следующему пункту.

2. Скорость загрузки страниц сайта

Быстрый сайт — залог высокой конверсии, тем самым будет меньше отказов, больше просмотров страниц и конечно же выше позиции сайта. Поэтому медленная загрузка страниц сайта считается технической ошибкой. Сначала проверяем сайт в , где более 85-ти баллов считается отличным результатом!

Так же Google покажет список ошибок, которые стоит устранить для ускорения загрузки страниц. При этом результаты проверки главной страницы и любой другой из вашего сайта, могут отличаться результатами. Из-за того, что на страницах с контентом может быть подгрузка дополнительных скриптов или наоборот.

Так как Гугл просто сообщает о наличии ошибок, поэтому советую так же попробовать сервис , который более детально отобразить время затраченное на загрузку отдельных элементов. Думаю в будущем поисковики смогут определять не только , но и момент полной загрузки страницы.

Основные проблемы медленной загрузки страниц :

  • Некачественный хостинг, либо плохо настроенный;
  • Ошибки в коде/скриптах (создающие глюки);
  • Картинки большого размера;
  • Загрузка скриптов и CSS в начале страницы (в области head);
  • Отсутствие gzip сжатия (90% сжатия информации);
  • Отсутствие кеширования страниц.

Когда-то ради ускорения сайта даже пришлось сменить хостинг. Благодаря Pingdom, я смог установить эту причину. Передача первой информации о сайте длилась 800 мс (0.8 сек). Казалось, что сайт загружается вечность, но при переходе на , удалось сократить до 100-300 мс (в зависимости от региона), а платил за хостинг столько же.

Удивило то, что по средне-частотным запросам, я стал попадать в топ 10, а до этого получалось продвигать лишь низко-частотные ключевые слова. Благодаря чему резко увеличился трафик, как из Google, так и из Яндекса.

3. Наличие ошибок или мусора в HTML

К примеру существуют общие стандарты для страниц, используя которые можно повысить свои шансы попадания в топ. Думаю будет полезным, если разобью HTML ошибки на несколько видов.

Иногда дизайнеры и верстальщики допускают ошибки в коде, которые не отображаются на дизайне, однако сигнализируют о техническом кривом коде. Что бы проверить код сайта на ошибки, для этого используют .

Благодаря которому, можно узнать, насколько порядочным был ваш верстальщик шаблона. Об устранение ошибок с помощью валидатора я уже рассказывал .

Если у вас отсутствуют фатальные ошибки в коде, то возможно устранение мелких ошибок может и не дать результатов, но это все равно будет полезной работой для вашего ресурса!

Frame


Фрейм
— это загрузка различных документов в окне, которое не индексируются . А это значит доп. нагрузка на сервер + фрейм не учитывается, как контент — поэтому их стоит избегать!

Это могут быть, допустим социальные кнопки от различных сервисов или видео. Безусловно сейчас научились делать фреймы, которые выгружает данные в html код и это кешируется. Но это требует проверки с вашей стороны.

К примеру фрейм видео проигрывателя действительно имеет html с названием видео и некой ссылкой, однако при запуске видео, метрика показывает, что ваш сайт свернули и перешли на другую вкладку, что не является плюсом для поведенческих.

Теги h1-h6

Теги H1 — обозначают заголовок страницы и он должен присутствовать всего 1 раз на странице и содержать в себе ключевое слово (обязательно для попадания в топ!).

Тег H2 — второй по значению заголовок, который может повторяться многократно. Его SEO оптимизаторы используют чаще всего под НЧ (низко частотные ключевые слова), по которым так же идет продвижение страницы. Потому, что Яндекс из h2 создает дополнительные заголовки для сниппетов, что позволяет круто продвигаться по запросам.

Вот поэтому сайт имеющий дополнительные теги h2 на страницах имеет больше шансов собирать больше посещений на страницу.

Теги от h3 до h6 — являются дополнительными (вспомогательными) заголовками для раскрытия более детально, какой-либо информации в контенте. Не стоит их вносить в заголовки виджетов или подвал сайта!

Еще одно правило, которое следует соблюдать, это градацию тегов. Тег h1 должен идти первым в контенте, только после него должен быть h2. Ну а теги h3-h6 идут следом.

Что дает исправление технических ошибок

Более 80% людей, которые обращались ко мне с просьбой посмотреть их сайт и сказать, что не так, имели именно такие ошибки. После устранения которых, всем удавалось подняться по позициям! Вот почему, я рекомендую сначала заняться исправлением технических ошибок, а уже потом искать способы, как раскрутить определенные страницы.

Выполнение технических доработок - самый первый и наиболее важный этап . Обычно эта процедура проводится только один раз, перед стартом продвижения. В дальнейшем возможна корректировка некоторых технических составляющих сайта.

Техническая оптимизация сайта (технические доработки) – это комплекс мер, направленных на корректировку технических аспектов сайта, с целью улучшить его взаимодействие с роботами поисковых систем.

Основная задача технической оптимизации – обеспечить максимально полную и быструю страниц сайта. Без проведения технических доработок эффективное значительно усложняется или вовсе становится невозможным.

Обратите внимание, что в «Энциклопедии поискового продвижения» мы не даем инструкций по технической доработке сайта, а рассказываем о наиболее распространенных проблемах и способах их решения. Эта информация поможет вам правильно поставить задачу веб-разработчикам. Вносить технические изменения в сайт должны специалисты, обладающие необходимыми знаниями и умениями. Неквалифицированное вмешательство в код сайта способно привести к его полной неработоспособности.

Здесь и далее мы рассматриваем решения для сайтов, которые обслуживаются HTTP-сервером Apache, поскольку, по данным исследовательской компании Netcraft, этим типом сервера обслуживается более 60% всех сайтов в мире.

Технические доработки сайта делятся на следующие группы:

  • Устранение проблем хостинга и оптимизация кода. Чем ненадежнее хостинг и чем больше мусора в коде, тем дольше грузится страница. Это отрицательно влияет на . Именно по этой причине следует оптимизировать код и устранить проблемы с хостингом, дополнительно исправив ошибки, возникающие в разных браузерах.
  • Настройка редиректов и статус-кодов. Данные процедуры следует провести для настройки зеркал, склейки дублей страниц, настройки корректной обработки 404 ошибки. В случае стандартного PHP-хостинга перенаправления (редиректы) настраиваются в файле.htaccess. Обработка 404 ошибки поможет избежать дублей на сайте.
  • Сопутствующие настройки сайта. Корректно составленный файл robots.txt поможет запретить или разрешить индексацию страниц, дублей и разделов сайта, указать основное зеркало. Файл sitemap.xml поможет поисковику проиндексировать все страницы быстро и качественно.
  • Внутренние корректировки страниц сайта. Если навигация сайта или страницы целиком построена на технологии Flash, это значительно усложнит индексацию содержимого сайта или даже сделает её невозможной. Внутренние корректировки страниц сайта направлены на то, чтобы продублировать Flash, Frame, JavaScript элементы на HTML.
  • Настройка URL страниц. Из двух видов адресов страниц, псевдостатических и динамических, оптимальными в поисковой оптимизации считаются псевдостатические адреса. Их настройка производится в файле.htaccess. При этом очень важным моментом является корректная настройка редиректов со старых URL на новые.
  • Устранение дублей страниц и . Этот процесс требует особого внимания, так как наличие копий на сайте, как внутренних, так и внешних, может привести к наложению санкций со стороны . Работа с аффилиатами – это долгий и трудоемкий процесс, особенно если продвигаемый сайт уступает аффилиату.
  • Прочие технические доработки. Помимо перечисленного и в зависимости от сайта также приходится работать с удалением , устранением страниц с идентификаторами сессий, исправлением битых ссылок и другими техническими доработками.

Пренебрежительное отношение к технической оптимизации не дает многим хорошим сайтам достичь ТОПа.

Правильное и полное выполнение всех необходимых технических доработок является залогом корректной и быстрой индексации страниц сайта популярными поисковыми системами.

Фундаментом любого сайта является его техническая сторона. Помимо широкого и приятного функционала, красивой обертки и юзабилити для продвижения очень важна SEO оптимизация, которая позволит роботам поисковых систем быстро и правильно индексировать содержимое ресурса. Давайте определим основные моменты, которые следует учесть для SEO оптимизации сайта.

1. Кабинеты вебмастеров и счетчики

Начиная работу над продвижением своего ресурса, нужно зарегистрировать его в кабинетах вебмастеров. Это самый лучший сигнал для поисковых систем, и вскоре роботы начнут посещать сайт.

Однако, недостаточно просто добавить домен, кабинеты необходимо правильно настроить. Например, в Яндекс.Вебмастере не будет лишним:

  • добавление карты сайта sitemap.xml в соответствующий раздел ()
  • указание региональности ()
  • проверка robots.txt на правильность составления ()

Помимо прочего, вебмастера располагают массой полезных инструментов:

  • различными валидаторами для проверки корректности составления тех или иных документов (карты сайта, микроразметки и т.д.)
  • возможность отслеживать статистику по запросам (показы, клики, CTR и т.д.)
  • просмотр статистики индексирования страниц (что попало в поиск, а что нет, и по каким причинам)

Для получения более полной и подробной информации о посещаемости и поведении пользователей на вашем сайте зарегистрируйте и установите счетчики посещаемости. Счетчик - это прекрасный инструмент, который поможет разобраться, как и в каком направлении двигаться, работая над популярностью ресурса.

Текстовый файл robots.txt должен присутствовать у каждого сайта и быть доступен по адресу example.ru/robots.txt . Это первый файл, к которому обращаются роботы при посещении сайта и в котором хранятся инструкции для них.

В зависимости от того, на какой системе управления работает ваш сайт, формируются эти самые правила. Давайте кратко определим, что должно быть в данном файле:

  1. Должны быть указаны правила для разных роботов (User-agent: Yandex, User-agent: GoogleBot и т.д.), т.к. правила и директивы для каждого из них могут отличаться.
  2. Закрыты от индексации все системные ресурсы (шаблоны, исполнительные файлы и т.д.).
  3. Закрыто все, то что не должно присутствовать в поиске (страницы регистрации/авторизации, результаты фильтрации/поиска и т.д.).
  4. Указана директива Host для робота Yandex.
  5. Указана карта(ы) сайта sitemap.xml.
  6. Для робота GoogleBot должны быть открыты файлы, влияющие на отображение сайта (js, css, изображения, шрифты). Подробнее об этом можно почитать .

Более подробно о настройке robots.txt можно прочитать и .

3. Sitemap (карта сайта)

Карта сайта - один основных способов улучшения навигации по сайту как для поисковых роботов, так и для пользователей.

Для роботов карта сайта генерируется в формате xml и должна содержать все ссылки, которые будут индексироваться и участвовать в выдаче.

Для многих популярных CMS существуют специальные плагины, позволяющие создавать и настраивать карту (например Google XML Sitemaps для WordPress или XMap для Joomla). Если сформировать карту при помощи дополнений нет возможности, то здесь помогут различные онлайн-генераторы, например MySitemapGenerator , или же настольные приложения, например ComparseR, Sitemap Generator .

Не будет лишним добавление карты сайта в формате html (обычная страница со списком разделов и ссылок). Она облегчит навигацию как для посетителей, так и для роботов. Не стоит делать её слишком объемной, например, для интернет-магазина достаточно будет сделать иерархию из основных разделов и категорий.

4. Битые ссылки

Большое количество таких ссылок отрицательно сказывается на отношении пользователей к вашему ресурсу, ведь мало кому понравится видеть сообщения об ошибке вместо интересующего материала.

Поисковые системы тоже способны сделать некие отрицательные выводы о ресурсе с чрезмерным количеством таких ссылок, например, что контент не актуальный, сайт не обновляется (за ним попросту не следят) и т.д.

Не ленитесь регулярно проверять свой ресурс на наличие битых ссылок. Воспользуйтесь довольно удобным сервисом для поиска .

5. Исключение дублей

Дубли страниц - это доступность одного и того же материала по нескольким адресам.

Наличие дублированного контента приводит к следующим проблемам:

  1. ПС могут неправильно определить основную (релевантную) страницу, что может повлиять на позиции сайта. Поисковые роботы могут склеить адреса, выбрав приоритетной страницей наименее желательную.
  2. Дубли создают дополнительную нагрузку при обходе сайта роботом, в следствие чего увеличивается время на индексацию.

Пожалуй, это одна из основных трудностей технической оптимизации сайта. Если нет возможности устранить дубли технически, нужно воспользоваться канонической ссылкой с атрибутом rel=canonical тега link.

Предположим, что материал доступен по двум адресам:

www.site.ru/page

www.site.ru/page111

Предпочтительным будет первый вариант, а канонический тег будет выглядеть так:

‹link rel="canonical" href="www.site.ru/page" /›

Он должен присутствовать в коде обеих страниц между тегами ‹head› и ‹/head›.

Если и это не удается сделать, имеет смысл закрыть дубли в robots.txt или настроить 301 редирект. Подробнее читаем .

6. Настройка ЧПУ

10. Ответ сервера

Когда пользователь открывает страницу в браузере (или робот начинает ее сканировать), сервер, на котором находится сайт, отдает в ответ на этот запрос код статуса HTTP, то есть предоставляет информацию о вашем сайте и запрашиваемой странице.

Например,

200 - со страницей все в порядке

404 - несуществующая страница (советы по оформлению страницы 404)

503 - сервер временно недоступен

Бывает, код статуса отдается неверный. Например, страница рабочая, а статус-код 404, или наоборот, несуществующие страницы отдают код 200. Это нужно обязательно отследить и провести корректную настройку статус-кодов в файле.htaccess.

Особенно важно настроить 404 ошибку. Если страница существует, а сервер при ее запросе сообщает о 404 ошибке, страница не будет проиндексирована поисковиками.

Проверить коды статусов можно с помощью соответствующего инструмента в Яндекс.Вебмастере или приложения «Firebug» для браузера Mozilla Firefox.

11. Скорость загрузки

Скорость работы ресурса, загрузки страниц, выполнения скриптов и т.д. - один из ключевых показателей технической оптимизации. Вряд ли пользователю будет приятно дожидаться долгого ответа сервера, отрисовки страницы, или отправки данных через какую-нибудь форму - он просто уйдет, и, как правило, не вернется.

На этот момент активно обращают внимание и поисковики. Ведь то, что не нравится пользователю - не должно нравиться и ПС.

Чтобы оценить и выявить факторы, которые тормозят работу ресурса, можно воспользоваться инструментом Google PageSpeed Insights . Результатом будут два относительных показателя с рекомендациями необходимых работ для поднятия скорости:

Итог

Все это только основные моменты, которые следует учесть для технической оптимизации сайта. Помните, грамотное SEO, а в частности техническая оптимизация - это результат большого объема работ, которые в сумме дают хороший эффект, и довольно часто пренебрежение хотя бы одним из параметров может все труды «свести на нет». Если хотите проверить, всё ли у вас в порядке с технической оптимизацией сайта, то SEO-аудит вам в помощь. Если хотите, чтобы не только проверили, но и правильно всё настроили, то вам необходимо

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то