▼ Вход

Техническая оптимизация сайта за 12 этапов

Техническая оптимизация сайта за 12 этапов

Комплекс мер, направленный на улучшение работы и индексации сайта, называется технической оптимизацией сайта. Это обязательная процедура, которую проходит каждый веб-сайт на этапе старта.

С технических настроек сервера и движка начинается любая внутренняя оптимизация и подготовка к раскрутке. Правильная техническая оптимизация сайта:

- ускоряет ресурс
- обеспечивает доступность страниц с любых браузеров и устройств
- настраивает индексацию
- упрощает SEO/SMM продвижение
- отлаживает работу CMS
- создает предпосылки для развития и улучшений
- защищает от фильтров поисковых систем
- повышает релевантность страниц
- упрощает поиск сайта в Сети
- увеличивает посещаемость и доход


 

Техническая оптимизация сайта


1. Сервер и хостинг

Для стабильной работы сайта нужен качественный хостинг, соответствующий универсальным требованиям:

- поддержка PHP, FTP, почты и MySQL
- возможность установки SSL-сертификата
- доступная цена и возможность сменить/расширить тариф
- аптайм (время стабильной работы) – 99,8% и выше
- быстрый ответ сервера
- диски SSD или "Облако" с запасом свободного места
- автоматические резервные копии
- лояльность к перегрузкам (сайт должен выдерживать нагрузку)
- защита от DDoS-атак и антивирус
- безупречная и быстрая работа движка сайта
- круглосуточная и адекватная техподдержка
- размещение датацентра в регионе продвижения

Проверьте пинг-тестом скорость ответа сервера (оптимально – 30-90 мс). Запустите командную строку (выполнить – "cmd") Window и напишите: "ping ваш-сайт.ru" (нажмите Enter).

2. Ссылки ЧПУ, генерация URL

ЧПУ (человекопонятный УРЛ) – URL-адрес страницы, который легко прочитать и распознать визуально. Адрес URL состоит из слов, записанных латинскими буквами, цифр и знаков (дефисы, точки, слеши). Правильные ЧПУ:

/blog - раздел Блог
/blog/1-tekst.html - статья Блога "1 текст"

Желательно, чтобы страницы сайта и адреса URL были статичными и не менялись при каждой сессии. Не содержали переменных параметров. Плохие URL-адреса с переменными:

/?do=215
/?from= %3Bweb%3B%3B&text=&etext=1407.=1

Важно: если URL-адрес содержит UTM-метки, то проверьте, чтоб они не создавали дублей страниц. Для этого в Яндексе есть оператор поиска по сайту:

"название страницы" site:ваш-сайт.ru

На 1 страницу должна указывать только 1 постоянная ссылка. В противном случае устраняйте дубли или скрывайте их от индексации.

3. Структура сайта

Перед созданием разделов таксономий и страниц, проработайте структуру сайта и составьте наглядную схему (интеллектуальную карту). Поисковые системы лучше индексируют сайты с четкой трехуровневой структурой, где:

1й уровень – домен, главная страница (/)
2й уровень вложенности – разделы, категории и основные страницы (/blog/)
3й уровень – страницы публикаций или карточек товаров (/blog/1.html)

Правильная структура обеспечивает доступ к самой дальней странице за 2-3 клика мышки.

4. Настройка зеркал и редиректов 301

Во избежание возникновения дублей настройте редиректы всех зеркал сайта, включая разделы и страницы. Редиректы настраиваются в файле .htaccess. Обязательные редиректы зеркал для обычного сайта:

- 301 для www (C или БЕЗ www)
- 301 для слешей (С или БЕЗ слеша "/" в конце URL-адресов)
- 301 для страниц типа "/index", "/index.php", "/main"
- 301 для прочих зеркал (например, альтернативных доменов или доменных зон)
- 301 для протокола http или https (если нужно)
- 301 для страниц ошибок 401, 402, 403, 404
- 301 для сокрытия и маскировки общедоступной страницы входа в админку CMS



Пример работы 301 редиректов, когда при запуске альтернативных адресов: site1.ru, site.com, www.site.ru, site.ua/index, site.com/main.php и пр., открывается адрес SITE.RU

5. Настройка robots.txt, борьба с дублями

Файл конфигураций robots.txt отвечает за настройки индексации сайта и предназначен для поисковых роботов.

При обнаружении на сайте дублей, закрывайте их соответствующими директивами в robots.txt. Сокрытию подлежат все системные файлы, директории вашего сайта, включая страницу входа в админ-панель.

Дублями также считаются:

- страницы сессий и пагинации (page, постраничная нумерация анонсов)
- результаты поиска и RSS
- архивы и календари
- динамические страницы с переменными параметрами и UTM-метками.

Для определения главной страницы используйте тег rel="canonical" (в тегах задает канонический URL). Устраните страницы-клоны из индекса командами Disallow: в файле robots.txt. Также скройте ссылки на эти страницы.

6. Коды ответов, страницы ошибок

Рассмотрим типичные варианты ответов сервера:

200 – страница присутствует и доступна
301 – постоянный редирект
302 – временный редирект, который не нужно "запоминать" роботам
404 – страница отсутствует (обязательная страница ошибки)
401, 402, 403 – страницы ошибок доступа
500, 502 – сервер недоступен, сайт не работает или на обслуживании

Просканируйте страницы сайта любым онлайн-сервисом и проверьте коды ответов. Возможно, какие-то страницы сайта не отвечают 200.

7. Скорость сайта

Для оптимизации скорости используйте инструмент Page Speed Insight от Google. Сервис проверит скорость работы сайта для десктопной и мобильной версии, укажет ряд замечаний и как их исправить. Частые ошибки, замедляющие скорость ресурса:

- плохой хостинг или неправильные настройки сервера
- ошибки в кодах страниц и скриптов
- слишком объемные картинки (по весу файлов)
- загрузка скриптов и стилей в верхней части кода
- нет сжатия
- нет кеширования

Для ускорения сайта в рамках технической оптимизации проводится чистка программного кода:

- от лишних запросов к базам данных и серверу (чтобы снизить нагрузку)
- от мусорного кода, не участвующего в построении страниц (онлайн-сервисы чистки CSS и HTML)
- от сомнительных скриптов, которые можно просто убрать
- от избытка рекламы
- от ошибок валидности кода (стандарт W3C, соответствие !DOCTYPE, ошибки тегов и опечатки)

8. Кроссбраузерность и мультиплатформенность

Проверьте, что сайт одинаково правильно открывается во всех популярных браузерах. Обратите внимание на дизайн и оформление страниц, функциональность скриптов и сервисов.

Сайт должен иметь мобильную или адаптивную версию для запуска с мобильных устройств. Откройте сайт с разных гаджетов или в онлайн-эмуляторах. Протестируйте навигацию, оформление, дизайн, удобство и функциональность.

Убедитесь, что Mobile Friendly версия сайта нормально открывается по ссылкам E-mail рассылок. Проверьте, что со смартфонов/планшетов нормально заполняются формы, работает "Обратный звонок", запускается чат, кнопки и ссылки, а шрифт не слишком мал для прочтения (мобильная оптимизация).



9. Дубли контента

Публикуйте только уникальные материалы и добавляйте их в "Оригинальные тексты" Яндекса. Устраните или скройте от индексации сквозные тексты в хедере, футере и сайдбаре. Проверьте дубли в тегах Title и Description по всему сайту.

Перечитайте статью, как заполнять Title и H1. Используйте эти советы в технической оптимизации.

Чтобы устранить дублирующиеся участки можно:

- вставить фрагменты текста в виде картинок (скриншотов)
- закрыть индексацию в Яндексе контейнером NOINDEX
- скрыть ссылки для роботов Google тегом rel="nofollow"
- переписать повторяющиеся тексты (если речь о постраничных дублях, заголовках или описаниях).

Для поиска дублей страниц и тегов есть отличный софт "Screaming Frog SEO Spider".

10. Ссылки

Найдите и устраните ненужные или нерабочие ссылки (особенно исходящие). Для поиска и работы со ссылками воспользуйтесь софтом "Xenus Link Sleuth".

Не создавайте пустых страниц и разделов. Регулярно следите за исходящими ссылками, т.к. сайты-акцепторы могут закрыться или исчезнуть. Если акцептора нет по ссылке, удалите и "битый линк".

Исходящие ссылки принято открывать в новых вкладках. Также поступают и с внутренними ссылками, чтобы оставить текущую страницу и рядом открыть новую.

Для открытия ссылки в новой вкладке к тегу HREF добавьте команды: target="_blank" rel="noopener noreferrer" (последний тег защищает текущую вкладку от несанкционированных изменений хакерскими скриптами).

11. Иконка favicon

Небольшой логотип-значок сайта. Отображается во вкладках браузеров рядом с названием страницы (Title). Виден в сниппетах SERP Яндекса.

Привлекательный и запоминающийся favicon обеспечит узнаваемость сайта и повысит кликабельность в поиске. Уделите файлу favicon больше внимания, и результат окупит старания.

12. Карты сайта

Поисковые роботы Гугл считывают файл sitemap.xml, где прописана вся каталожная структура проекта. Файл создается автоматически движком (CMS), особыми плагинами и настройками, или генерируется в специальных онлайн-сервисах.

Карта сайта для роботов – системный файл со списком адресов URL, расширением XML или архивом GZip.

Вторая карта предназначения для посетителей и размещается на отдельной странице. Обеспечивает быстрый поиск страниц, улучшает юзабилити и поведенческие показатели сайта.
 

Прочие технические настройки


У вашего движка CMS могут быть и другие настройки технической части, правки и доработки. Здесь все индивидуально. Упростить работу с настройками может только стандартизированный конструктор сайтов онлайн, где все отлажено по умолчанию и по шаблону.

Реализовав советы по всем 12-ти пунктам, вы значительно улучшите показатели сайта. Заложите фундамент качественной оптимизации текстовых, ссылочных и поведенческих факторов. Ускорите продвижение в ТОП поиска и компенсируете затраты ростом доходов.


Комментарии

Комментарии отсутствуют


Комментировать могут только зарегистрированные пользователи!

Партнерские программы- X-Monitor.ru © 2015-2017 |Обменники|Вопросы|Блог|Добавить ресурс|Реклама|Контакты|Карта сайта

Rambler's Top100