Техническое SEO. Настройка URL страниц

Привет, Друзья! Техническая оптимизация сайта на этапе on-page SEO обеспечит основу для успешного продвижения любого WEB-проекта. Я рекомендую уделить внимание нескольким факторам, влияющим на . Об этом и поговорим сегодня!

Проекты, которые предлагают высококачественный, удобный и адаптивный пользовательский интерфейс, способны привлечь к себе внимание представителей основной целевой аудитории. Безусловно, далеко не последнюю роль играет качество наполнения страниц, но без оптимизации технических параметров невозможно само функционирование сайта. В результате технические этапы on-page SEO следует рассматривать в качестве прочного фундамента, с которого начинается последовательное продвижение проекта путем осуществления различных рекламных мероприятий, наращивания ссылочной массы и выполнения контент-менеджмента.

Цели технической оптимизации сайта:

  1. Устранение различных и сбоев.
  2. Повышение страниц.
  3. Создание условий для on-page SEO.
  4. Улучшение пользовательского интерфейса.
  5. Внедрение качественной навигации.

Выполняя техническую оптимизацию сайта необходимо ориентироваться на современные требования настройки веб-страниц с учетом параметров цифрового маркетинга. Полезные рекомендации предоставляют также крупные поисковые системы, которые настаивают на повышении качества оптимизации в целях улучшения релевантности выдачи по . Каждый сайт нуждается в надежной основе, поэтому выполнение технического SEO рассматривается в качестве начального этапа продвижения.

На первом этапе, повышается производительность сайта, оптимизатор создаёт условия для улучшения показателей ранжирования. В списке поисковой выдачи хорошо оптимизированные веб-страницы окажутся на передовых позициях, тем самым гарантируя привлечение внимания будущих посетителей.

Технический аудит

Прежде чем приступить к оптимизации, необходимо определить техническое состояние сайта и понять причины по которым его продвижение затруднено или невозможно. позволяет эти причины выявить. Процесс предполагает сбор и аналитическую обработку данных для последующего улучшения различных параметров работы страниц.

Задачи технического SEO-аудита:

  1. Анализ сайта на предмет сбоев и поломок разной степени сложности.
  2. Проверка состояния необходимого для поисковой индексации файла .
  3. Оценка работы на мобильных и десктопных устройствах.
  4. Поиск и устранение .
  5. (масштабирование и добавление метатегов).
  6. Анализ текущей XML-карты, архитектуры и пользовательского интерфейса.
  7. Изучение внутренней структуры ссылок, качества перенаправления и .
  8. Оценка доступности и скорости загрузки отдельных страниц.
  9. Сканирование сайта для поиска возможных ошибок и слабых мест.
  10. Сбор аналитических и статистических данных для дальнейшего мониторинга сайта.

Результатом профессиональной технической настройки сайта является его . Страницы, которые обладают отменной конфигурацией, занимают более высокие позиции в списке поисковой выдачи. В свою очередь наличие даже незначительных ошибок может привести к серьезным проблемам. Своевременно выполненный аудит позволит определить технические детали, влияющие на последующее ранжирование и продвижение сайта.

Снятие штрафных санкций

Полученная в ходе технического аудита аналитика позволит разработать эффективную . К основным услугам компаний, занимающихся технической оптимизацией, следует отнести восстановление позиций сайтов, которые попали под действие поисковых фильтров. Обычно санкции накладываются в результате снижения скорости загрузки, не уникальности контента, ссылочного продвижения, а также появления прочих неполадок, влияющих на доступность веб-страниц.

Выявление проблем на раннем этапе снизит риск попадания сайта под действие поисковых фильтров. Актуальные алгоритмы индексации наказывают сайты, имеющие плохое техническое оснащение. В результате проблемы с ранжированием имеют не только нарушители пользовательского соглашения, применяющие стратегию , но и использующие разрешенные методы оптимизации проекты, которые сталкиваются с техническими сбоями.

На этапе технической оптимизации необходимо:

  1. Устранить ошибки, которые спровоцировали попадание сайта под действие поисковых фильтров.
  2. Восстановить потерянные позиции в списке поисковой выдачи.
  3. Вернуть оптимальный уровень посещаемости сайта.
  4. Сохранить и улучшить репутацию путем повышения доверия со стороны поисковых систем.
  5. Снизить риск повторного наказания по причине проблем с индексаций отдельных страниц.

Обратиться за поддержкой к специалистам рекомендуется владельцам сайтов, которые попали в черные списки поисковых систем. Подобная проблема обычно сопровождается стремительным падением позиций в по неизвестным на первый взгляд причинам. Своевременно выполненная техническая оптимизация сайта снизит риск появления проблем с поисковиками, а правильная настройка конфигурации веб-страниц обеспечит возвращение позиций в списке поисковой выдачи.

Анализ ссылок на сайте

На этом сегодня всё, всем удачи и до новых встреч!

Поисковики постоянно борются за чистую выдачу, за показ только тех ресурсов, которые не только отвечают на нужный запрос, но и имеют техническую SEO оптимизацию на сайте. Поэтому я решил сделать список с исправлением технических ошибок на сайте. Который будет помогать в первую очередь новичкам в SEO.
SEO технической оптимизацией сайта называют, исправление технических ошибок, которые теоретический мешают отображать сайт правильно для пользователей. И такого рода ошибки могут фиксировать поисковые боты, из-за чего ранжирование сайта будет хуже, чем у конкурентов, которые не имеют таких оплошностей. А теперь разберемся, над чем же стоит поработать?

1. Правильная индексация сайта

Под грамотной индексацией сайта подразумевается исключения дублей страниц из индекса, а так же тех страниц, которые не несут информации для пользователей. То есть, чем больше будет полезных страниц в индексе и меньше мусора, тем более выгодными будут позиции для около топовых продвигаемых запросов.

Что следует закрывать от индексации:

  • Админ панель;
  • Различные мусорные страницы;
  • Переход на главную через index.html;
  • www или без на выбор;
  • 404 ошибку;
  • дублирование feed страниц.

Индексация сайта в Яндексе

Начну проверку индексации сайта в Яндексе, а для этого требуется в поиске написать следующую строчку — host:сайт.ru* | host:www.сайт.ru* . Она поможет узнать, сколько страниц у вас в индексе, а так же найти то, что стоит запретить от индексации.

Вот собственно, какие я нашел ошибки у себя при проверке сайта:
В общем мною было найдено 3 страницы из 93, которые не должны быть в индексе т.к. они пустые и не несут пользы для посетителей. Но когда-то у меня было 30-40% мусора от общего числа страниц, которые так же мешали продвигаться.

Индексация сайта в Google

Теперь проведем проверку индексации сайта в Google, но там нужно писать фразу в поиске — site: сайт.ru. Стоит заметить, что в поиске вы можете увидеть так же страницы закрытые от индекса через robots. Выходит в поиске будет примерно в 2 раза больше результатов по сайту.

Вот собственно, что мне удалось найти из своих ошибок:

В общем-то нашел 7 стр из 107 стр, которые не должны быть в индексе. Честно сказать, был удивлен найти столько ошибок. Однако ранее мусора было более 50% в выдачи, что действительно не давало сайту шанса для развития.

Как закрыть страницы от индексации

Для того, что бы закрыть страницы от индексации, такие как дубли или мусор, потребуется редактировать несколько документов, а именно htaccess и robots. Но конечно же все по порядку.

Htaccess — это файл находящийся в корневой папки сайта, который конфигурирует работу сервера в разных директориях, не давая при этом доступа к главному конфигурационному файлу. Допустим в этом файле можно настроить редирект, а так же можно менять название индексных файлов, да и собственно указывать, что допустить до индекса, а что нет. Думаю скоро напишу об этом файле в отдельности.

Robots.txt — это файл исключительно служащий для поисковых систем, где нужно указывать некие правила индексирования страниц. И можно было бы обойтись одним этим файлом, но почему-то иногда в индекс проскальзывают страницы, которые не должны там быть (это касается индексации Google). Впрочем, я уже рассказывал, поэтому идем к следующему пункту.

2. Скорость загрузки страниц сайта

Быстрый сайт — залог высокой конверсии, тем самым будет меньше отказов, больше просмотров страниц и конечно же выше позиции сайта. Поэтому медленная загрузка страниц сайта считается технической ошибкой. Сначала проверяем сайт в , где более 85-ти баллов считается отличным результатом!

Так же Google покажет список ошибок, которые стоит устранить для ускорения загрузки страниц. При этом результаты проверки главной страницы и любой другой из вашего сайта, могут отличаться результатами. Из-за того, что на страницах с контентом может быть подгрузка дополнительных скриптов или наоборот.

Так как Гугл просто сообщает о наличии ошибок, поэтому советую так же попробовать сервис , который более детально отобразить время затраченное на загрузку отдельных элементов. Думаю в будущем поисковики смогут определять не только , но и момент полной загрузки страницы.

Основные проблемы медленной загрузки страниц :

  • Некачественный хостинг, либо плохо настроенный;
  • Ошибки в коде/скриптах (создающие глюки);
  • Картинки большого размера;
  • Загрузка скриптов и CSS в начале страницы (в области head);
  • Отсутствие gzip сжатия (90% сжатия информации);
  • Отсутствие кеширования страниц.

Когда-то ради ускорения сайта даже пришлось сменить хостинг. Благодаря Pingdom, я смог установить эту причину. Передача первой информации о сайте длилась 800 мс (0.8 сек). Казалось, что сайт загружается вечность, но при переходе на , удалось сократить до 100-300 мс (в зависимости от региона), а платил за хостинг столько же.

Удивило то, что по средне-частотным запросам, я стал попадать в топ 10, а до этого получалось продвигать лишь низко-частотные ключевые слова. Благодаря чему резко увеличился трафик, как из Google, так и из Яндекса.

3. Наличие ошибок или мусора в HTML

К примеру существуют общие стандарты для страниц, используя которые можно повысить свои шансы попадания в топ. Думаю будет полезным, если разобью HTML ошибки на несколько видов.

Иногда дизайнеры и верстальщики допускают ошибки в коде, которые не отображаются на дизайне, однако сигнализируют о техническом кривом коде. Что бы проверить код сайта на ошибки, для этого используют .

Благодаря которому, можно узнать, насколько порядочным был ваш верстальщик шаблона. Об устранение ошибок с помощью валидатора я уже рассказывал .

Если у вас отсутствуют фатальные ошибки в коде, то возможно устранение мелких ошибок может и не дать результатов, но это все равно будет полезной работой для вашего ресурса!

Frame


Фрейм
— это загрузка различных документов в окне, которое не индексируются . А это значит доп. нагрузка на сервер + фрейм не учитывается, как контент — поэтому их стоит избегать!

Это могут быть, допустим социальные кнопки от различных сервисов или видео. Безусловно сейчас научились делать фреймы, которые выгружает данные в html код и это кешируется. Но это требует проверки с вашей стороны.

К примеру фрейм видео проигрывателя действительно имеет html с названием видео и некой ссылкой, однако при запуске видео, метрика показывает, что ваш сайт свернули и перешли на другую вкладку, что не является плюсом для поведенческих.

Теги h1-h6

Теги H1 — обозначают заголовок страницы и он должен присутствовать всего 1 раз на странице и содержать в себе ключевое слово (обязательно для попадания в топ!).

Тег H2 — второй по значению заголовок, который может повторяться многократно. Его SEO оптимизаторы используют чаще всего под НЧ (низко частотные ключевые слова), по которым так же идет продвижение страницы. Потому, что Яндекс из h2 создает дополнительные заголовки для сниппетов, что позволяет круто продвигаться по запросам.

Вот поэтому сайт имеющий дополнительные теги h2 на страницах имеет больше шансов собирать больше посещений на страницу.

Теги от h3 до h6 — являются дополнительными (вспомогательными) заголовками для раскрытия более детально, какой-либо информации в контенте. Не стоит их вносить в заголовки виджетов или подвал сайта!

Еще одно правило, которое следует соблюдать, это градацию тегов. Тег h1 должен идти первым в контенте, только после него должен быть h2. Ну а теги h3-h6 идут следом.

Что дает исправление технических ошибок

Более 80% людей, которые обращались ко мне с просьбой посмотреть их сайт и сказать, что не так, имели именно такие ошибки. После устранения которых, всем удавалось подняться по позициям! Вот почему, я рекомендую сначала заняться исправлением технических ошибок, а уже потом искать способы, как раскрутить определенные страницы.

Сегодня тема разговора в блоге – оптимизация сайта, и есть конкретный пример, на котором можно объяснить, в чем заключается эта оптимизация и что вообще требуется от сайта, чтобы он был в Интернете хорошо видимым, на первых страницах выдачи, приводил клиентов из поисковых систем.

Ко мне обратился человек, который искал оптимизатора для вывода ресурса ни больше ни меньше как в ТОП3. Такая постановка вопроса насторожила: раньше для быстрого вывода в ТОП искали продвиженцев. А те уже «продвигали», как время показало, прямо в бан, потому что использовались недозволенные методы.

Выяснилось, что владелец бизнеса ориентируется в этих вопросах и понимает, что ситуация в Интернете кардинально изменилась. Нужен ему был именно оптимизатор, который выведет в ТОП. Проведя экспресс-аудит, поняла, что создателей сайта совершенно не заботила никакая оптимизация или это не входило в пакет при разработке, что в корне неправильно, и сейчас вы поймете, почему.

Техническая оптимизация сайта

Во-первых, страницы на компьютере очень медленно загружались, а должны – быстро. На мобильных не проверяла, но и задачи такой не стояло на данном этапе, хотя мобильность (и скорость, и удобство) – очень существенный момент в технической оптимизации. Бросилось в глаза, что вместо ссылок краказябры. А они должны быть удобочитаемыми. Следующее: нарушена иерархия страниц. Каталоги созданы, а все страницы идут во втором уровне, минуя каталоги. Исправление этой ситуации приведет к смене url-адресов, а значит, к переиндексации страниц, на что требуется время. В Яндексе, например, это может происходить очень долго. Отсутствуют мета-теги, но семантическое ядро якобы составлялось.

Оптимизация сайта под Яндекс

От определения того, под какую поисковую систему должен оптимизироваться веб-ресурс, зависят методы работы над ним. Поисковые системы отличаются не только принципиально, но и аудиторией, которая предпочитает пользоваться какой-то одной. В Яндексе своеобразный алгоритм ранжирования. Роботы собирают информацию в своем режиме, но сразу ее не показывают. Обновление текстовой поисковой базы происходит с интервалами примерно в неделю, ссылочной, а теперь и поведенческого фактора — еще реже. Качество сайта по всем своим показателям влияет на то, на какой позиции он окажется в результате очередного апдейта.

Задача Яндекса выбрать из множества площадок несколько тех, которые, на его взгляд, более точно отвечают на запрос, и показать их на первых страницах. Он лоялен к хорошим ресурсам. Вебмастерам дана возможность пользоваться рядом инструментов для быстрой индексации. Важная деталь та, что в Яндексе достаточно быстро присваивается регион, если геотаргетинг настроен на город или регион. Это большой плюс для тех, кто ведет бизнес на определенной территории. Поднять качество сайта до необходимого уровня для продвижения под Яндекс могут специалисты, имеющие знания и опыт и демонстрирующие результат.

Оптимизация под Google

Мое мнение такое, и, уверена, многие со мной согласятся: даже при выборе приоритетной поисковой системой Яндекс влиятельность Google умалять не стоит. Здесь и Alexa, собирающая статистику всех веб-ресурсов Интернета, представляющая информацию по многим показателям и ведущая глобальный рейтинг. В итоге, в «паутине» все взаимосвязано.

Тематика и география – основные критерии, которые нужно брать за основу при выборе оптимизации под Google. Но чтобы она была успешной, придется подстраиваться и под его требования. Например, большое значение имеет вес определенной страницы. Считается, что молодой сайт может быть в ТОПе Гугла по определенному запросу, обращенному к конкретной странице. Есть способы увеличить ее CTR. Роль играет объем контента, его уникальность (и не только та, которая выражается в проценте совпадений слов и фраз, если это текст), понятные сниппеты, микроразметка и прочее.

Все знают, что роботы Гугла всеядные. Они индексируют все, что видят, даже игнорируя установленные запреты. И вот здесь могут возникать проблемы с дублями страниц. Тонкий момент, требующий понимания, как этого не допускать. Кстати, Google первый начал яростную борьбу с такими методами продвижения, как массовая закупка ссылок, выкидывая за борт провинившихся и освобождая места в рейтинге, получается, достойным.

Юзабилити

Посетителю в нашем виртуальном офисе должно быть удобно, интуитивно понятно, как перейти с одной страницы на другую, глазу приятно. В первую очередь это касается навигации. Время пребывания на каждой странице фиксируется роботами. Когда это значение маленькое даже на внутренних переходах (до 15 секунд), увеличивается показатель отказов. Из таких малюсеньких факторов складывается авторитетность сайта. Можно загрузить красивые картинки, но если текст сформатирован неправильно, будут раздражать огромные или мелкие шрифты, нелогичные отступы абзацев. Гигантские шрифты заголовков могут оказаться не только изъяном в дизайне, но и нести прямую угрозу сайту, если множество раз использованы теги H1-H3. Существуют определенные нормы, при превышении которых страница будет считаться переоптимизированной. В приведенном мной примере сайта тегами регулировались пиксели, а ведь это настраивается в CSS.

Внешняя оптимизация сайта

К внешней оптимизации можно переходить лишь тогда, когда на веб-ресурс не стыдно пригласить друзей из социальных сетей, разместить со ссылкой на него пресс-релиз или что-то подобное на трастовой площадке. Мой «пациент» был явно не готов, но и исправить абсолютно все мне было не под силу, например, настроить кеширование. Оптимизация напрямую зависит от знаний языка программирования, технических. Показала сначала одному своему коллеге. Ответ после осмотра был таким: «У клиента столько денег нет, сколько там нужно всего исправлять». Не взялся.

Мы же все хотим в ТОП? Конкуренция должна быть здоровой. Поисковики создали нам все условия к тому, чтобы мы занимались своими сайтами, совершенствовали их, улучшали. Надлежащая техническая оптимизация сайта, особенно коммерческого, поможет подняться на несколько позиций, а то и вообще вырвет из небытия. И это вложение в бизнес выгодное, потому что теперь без представительства в Интернете бизнеса просто не может существовать.

Для улучшения внутренних технических показателей ресурса применяется техническая оптимизация. Техническая составляющая – это программный код сайта и все функциональные элементы, связанные с работоспособностью, потенциалом и безопасностью сайта.

О роли технической оптимизации

Важность данного этапа работ сложно переоценить. Любой сайт состоит из программного кода, который взаимодействует с другими программами – браузерами, поисковыми системами, встроенными модулями, программным обеспечением сервера. Ошибка в одном из этих звеньев неизбежно приводит к прочим серьезным неприятностям.

Если техническая сторона содержит ошибки, сайт не отвечает на запросы пользователей или слишком долго загружается, не отображается браузерами, посетители не увидят ни уникального дизайна, ни хорошего юзабилити, ни качественных текстов, ни карточек товаров. Схожие проблемы будут наблюдаться и с поисковыми системами, когда роботы не смогут получить доступ к страницам.

Техническая оптимизация сайта необходима даже тогда, когда никаких проблем не наблюдается. В этом случае оптимизация позволит улучшить качество сайта, ускорит его работу, избавит от дублей страниц и неработающих ссылок.

Оптимизация технической части

Для проверки скорости загрузки лучше использовать общедоступный инструмент от Google , который называется PageSpeed Insights. Этот же сервис подскажет, в каком направлении проводить дальнейшую техническую оптимизацию, какие параметры улучшать и какие проблемы устранять.

Описать все советы по ускорению сайта здесь невозможно, но среди общих рекомендаций отметим:

Оптимизацию (сжатие) изображений без потери качества;

Перенос в конец списка загрузки всех исполняемых скриптов (JavaScript , CSS );

Объединение элементов в единые файлы (скрипты – к скриптам, стили – к стилям);

Объединение мелких картинок в единые спрайты (листы картинок);

Очистку кода страниц от описаний стилей и лишнего, «мусорного» кода;

Включение сжатия и архивирования статичных фрагментов;

Использование возможностей кэширования в пользовательских браузерах.

2. Нерабочие ссылки. Все ссылки ресурса (внешние и внутренние) должны работать безупречно и указывать на реальные страницы или сервисы. Избавление проекта от так называемых «битых» (нерабочих) ссылок – важная часть технической оптимизации.

По ссылкам переходят поисковые роботы и пользователи, которые желают получить нужную информацию. Нерабочая ссылка уводит посетителя «в тупик», указывает на страницу с ошибкой 404, приводит к сбоям и плохо сказывается на юзабилити сайта. Все «битые» ссылки подлежат немедленному удалению или корректировке, иначе со временем их становится еще больше.

3. Дубли. Дублирующиеся страницы – это участки сайта, имеющие идентичный или схожий контент, но разные адреса URL . При индексации и ранжировании таких страниц возникает естественная путаница. В результате выдачу могут заполнить не те страницы, которые продвигает вебмастер, а их дубли. Дубли также приводят к рассредоточению важности страницы, потере уникальности, снижению статического веса.

Чтобы избавиться от этого неприятного момента и устранить техническую ошибку, нужно:

Грамотно спроектировать структуру;

Внести ограничения в файл robots .txt (команды для роботов);

Использовать тег noindex и атрибут ссылок nofollow ;

Воспользоваться специальными атрибутами канонизации (rel =“canonical ”).

4. Адреса URL . Сложно вести техническую оптимизацию уже запущенного и рабочего ресурса в отношении адресов URL . Любые вмешательства в адреса проиндексированных страниц оканчиваются плохо. Тем не менее, у новых и молодых сайтов данный элемент еще не устоялся, и его пока можно улучить.

Суть оптимизации URL сводится к повышению его читабельности, запоминаемости, использованию ЧПУ («человекопонятных URL »), упрощению, внедрению ключевых слов, приведению адреса к статическому виду. Простые и читабельные адреса, которые остаются стабильными, лучше воспринимаются пользователями и роботами, а именно это и нужно оптимизатору.

5. Верстка. Данный компонент отвечает за то, как именно будет отображаться сайт в разных браузерах и на различных устройствах. Программный код, из которого состоит сайт, имеет свои правила синтаксиса, и их следует соблюдать.

Для оценки качества верстки используется инструмент проверки валидации (валидности, чистоты, правильности) кода. При этом оценке и технической оптимизации подлежит:

Основной программный код HTML (в соответствии с заданным типом документа);

Программный код стилей (валидность CSS );

Исполняемый код скриптов (JavaScript , PHP ).

Дополнительно верстка оценивается зрительным образом на визуальные ошибки. С этой целью проще всего открыть сайт разными браузерами и проанализировать результат. Кстати, все вышеописанные работы должны проводиться для полной и мобильной версии проекта, чтобы не терять важную долю мобильного трафика.

6. Заголовки. Техническая оптимизация будет неполной, если не проверить уникальность заголовков страниц. На сайте не может быть 2-х страниц с одинаковыми заголовками, и данный параметр легко проверяется специальными инструментами технического аудита. Если же подобный казус встречается, его следует устранить.

7. Ответ сервера. На последнем этапе оптимизации полезно проверить ответ сервера с разных страниц ресурса. Нормальным считается ответ 200, но также допускаются редиректы (301, 302 и др.). В свою очередь, ответ 404 считается критической ошибкой и явным указателем на текущие проблемы веб-сайта (кроме специальной страницы ошибки 404).

Таким образом, можно видеть, как много работы входит в техническую оптимизацию сайта. Отдельные аспекты невозможно раскрыть в рамках небольшой статьи, и многие операции носят индивидуальный характер, зависят от типа конкретного сайта, специфики его работы, особенностей программного кода и настроек сервера (хостинга).

  • Сергей Савенков

    какой то “куцый” обзор… как будто спешили куда то