Комплекс мер, направленный на улучшение работы и индексации сайта, называется технической оптимизацией сайта. Это обязательная процедура, которую проходит каждый веб-сайт на этапе старта.
С технических настроек сервера и движка начинается любая внутренняя оптимизация и подготовка к раскрутке. Правильная техническая оптимизация сайта:
- ускоряет ресурс
- обеспечивает доступность страниц с любых браузеров и устройств
- настраивает индексацию
- упрощает SEO/SMM продвижение
- отлаживает работу CMS
- создает предпосылки для развития и улучшений
- защищает от фильтров поисковых систем
- повышает релевантность страниц
- упрощает поиск сайта в Сети
- увеличивает посещаемость и доход
1. Сервер и хостинг
Для стабильной работы сайта нужен качественный хостинг, соответствующий универсальным требованиям:
- поддержка PHP, FTP, почты и MySQL
- возможность установки SSL-сертификата
- доступная цена и возможность сменить/расширить тариф
- аптайм (время стабильной работы) – 99,8% и выше
- быстрый ответ сервера
- диски SSD или "Облако" с запасом свободного места
- автоматические резервные копии
- лояльность к перегрузкам (сайт должен выдерживать нагрузку)
- защита от DDoS-атак и антивирус
- безупречная и быстрая работа движка сайта
- круглосуточная и адекватная техподдержка
- размещение датацентра в регионе продвижения
Проверьте пинг-тестом скорость ответа сервера (оптимально – 30-90 мс). Запустите командную строку (выполнить – "cmd") Window и напишите: "ping ваш-сайт.ru" (нажмите Enter).
2. Ссылки ЧПУ, генерация URL
ЧПУ (человекопонятный УРЛ) – URL-адрес страницы, который легко прочитать и распознать визуально. Адрес URL состоит из слов, записанных латинскими буквами, цифр и знаков (дефисы, точки, слеши). Правильные ЧПУ:
/blog - раздел Блог
/blog/1-tekst.html - статья Блога "1 текст"
Желательно, чтобы страницы сайта и адреса URL были статичными и не менялись при каждой сессии. Не содержали переменных параметров. Плохие URL-адреса с переменными:
/?do=215
/?from= %3Bweb%3B%3B&text=&etext=1407.=1
Важно: если URL-адрес содержит UTM-метки, то проверьте, чтоб они не создавали дублей страниц. Для этого в Яндексе есть оператор поиска по сайту:
"название страницы" site:ваш-сайт.ru
На 1 страницу должна указывать только 1 постоянная ссылка. В противном случае устраняйте дубли или скрывайте их от индексации.
3. Структура сайта
Перед созданием разделов таксономий и страниц, проработайте структуру сайта и составьте наглядную схему (интеллектуальную карту). Поисковые системы лучше индексируют сайты с четкой трехуровневой структурой, где:
1й уровень – домен, главная страница (/)
2й уровень вложенности – разделы, категории и основные страницы (/blog/)
3й уровень – страницы публикаций или карточек товаров (/blog/1.html)
Правильная структура обеспечивает доступ к самой дальней странице за 2-3 клика мышки.
4. Настройка зеркал и редиректов 301
Во избежание возникновения дублей настройте редиректы всех зеркал сайта, включая разделы и страницы. Редиректы настраиваются в файле .htaccess. Обязательные редиректы зеркал для обычного сайта:
- 301 для www (C или БЕЗ www)
- 301 для слешей (С или БЕЗ слеша "/" в конце URL-адресов)
- 301 для страниц типа "/index", "/index.php", "/main"
- 301 для прочих зеркал (например, альтернативных доменов или доменных зон)
- 301 для протокола http или https (если нужно)
- 301 для страниц ошибок 401, 402, 403, 404
- 301 для сокрытия и маскировки общедоступной страницы входа в админку CMS
Пример работы 301 редиректов, когда при запуске альтернативных адресов: site1.ru, site.com, www.site.ru, site.ua/index, site.com/main.php и пр., открывается адрес SITE.RU
5. Настройка robots.txt, борьба с дублями
Файл конфигураций robots.txt отвечает за настройки индексации сайта и предназначен для поисковых роботов.
При обнаружении на сайте дублей, закрывайте их соответствующими директивами в robots.txt. Сокрытию подлежат все системные файлы, директории вашего сайта, включая страницу входа в админ-панель.
Дублями также считаются:
- страницы сессий и пагинации (page, постраничная нумерация анонсов)
- результаты поиска и RSS
- архивы и календари
- динамические страницы с переменными параметрами и UTM-метками.
Для определения главной страницы используйте тег rel="canonical" (в тегах задает канонический URL). Устраните страницы-клоны из индекса командами Disallow: в файле robots.txt. Также скройте ссылки на эти страницы.
6. Коды ответов, страницы ошибок
Рассмотрим типичные варианты ответов сервера:
200 – страница присутствует и доступна
301 – постоянный редирект
302 – временный редирект, который не нужно "запоминать" роботам
404 – страница отсутствует (обязательная страница ошибки)
401, 402, 403 – страницы ошибок доступа
500, 502 – сервер недоступен, сайт не работает или на обслуживании
Просканируйте страницы сайта любым онлайн-сервисом и проверьте коды ответов. Возможно, какие-то страницы сайта не отвечают 200.
7. Скорость сайта
Для оптимизации скорости используйте инструмент Page Speed Insight от Google. Сервис проверит скорость работы сайта для десктопной и мобильной версии, укажет ряд замечаний и как их исправить. Частые ошибки, замедляющие скорость ресурса:
- плохой хостинг или неправильные настройки сервера
- ошибки в кодах страниц и скриптов
- слишком объемные картинки (по весу файлов)
- загрузка скриптов и стилей в верхней части кода
- нет сжатия
- нет кеширования
Для ускорения сайта в рамках технической оптимизации проводится чистка программного кода:
- от лишних запросов к базам данных и серверу (чтобы снизить нагрузку)
- от мусорного кода, не участвующего в построении страниц (онлайн-сервисы чистки CSS и HTML)
- от сомнительных скриптов, которые можно просто убрать
- от избытка рекламы
- от ошибок валидности кода (стандарт W3C, соответствие !DOCTYPE, ошибки тегов и опечатки)
8. Кроссбраузерность и мультиплатформенность
Проверьте, что сайт одинаково правильно открывается во всех популярных браузерах. Обратите внимание на дизайн и оформление страниц, функциональность скриптов и сервисов.
Сайт должен иметь мобильную или адаптивную версию для запуска с мобильных устройств. Откройте сайт с разных гаджетов или в онлайн-эмуляторах. Протестируйте навигацию, оформление, дизайн, удобство и функциональность.
Убедитесь, что Mobile Friendly версия сайта нормально открывается по ссылкам E-mail рассылок. Проверьте, что со смартфонов/планшетов нормально заполняются формы, работает "Обратный звонок", запускается чат, кнопки и ссылки, а шрифт не слишком мал для прочтения (мобильная оптимизация).
9. Дубли контента
Публикуйте только уникальные материалы и добавляйте их в "Оригинальные тексты" Яндекса. Устраните или скройте от индексации сквозные тексты в хедере, футере и сайдбаре. Проверьте дубли в тегах Title и Description по всему сайту.
Перечитайте статью, как заполнять Title и H1. Используйте эти советы в технической оптимизации.
Чтобы устранить дублирующиеся участки можно:
- вставить фрагменты текста в виде картинок (скриншотов)
- закрыть индексацию в Яндексе контейнером NOINDEX
- переписать повторяющиеся тексты (если речь о постраничных дублях, заголовках или описаниях).
Для поиска дублей страниц и тегов есть отличный софт "Screaming Frog SEO Spider".
10. Ссылки
Найдите и устраните ненужные или нерабочие ссылки (особенно исходящие). Для поиска и работы со ссылками воспользуйтесь софтом "Xenus Link Sleuth".
Не создавайте пустых страниц и разделов. Регулярно следите за исходящими ссылками, т.к. сайты-акцепторы могут закрыться или исчезнуть. Если акцептора нет по ссылке, удалите и "битый линк".
Исходящие ссылки принято открывать в новых вкладках. Также поступают и с внутренними ссылками, чтобы оставить текущую страницу и рядом открыть новую.
Для открытия ссылки в новой вкладке к тегу HREF добавьте команды: target="_blank" rel="noopener noreferrer" (последний тег защищает текущую вкладку от несанкционированных изменений хакерскими скриптами).
11. Иконка favicon
Небольшой логотип-значок сайта. Отображается во вкладках браузеров рядом с названием страницы (Title). Виден в сниппетах SERP Яндекса.
Привлекательный и запоминающийся favicon обеспечит узнаваемость сайта и повысит кликабельность в поиске. Уделите файлу favicon больше внимания, и результат окупит старания.
12. Карты сайта
Поисковые роботы Гугл считывают файл sitemap.xml, где прописана вся каталожная структура проекта. Файл создается автоматически движком (CMS), особыми плагинами и настройками, или генерируется в специальных онлайн-сервисах.
Карта сайта для роботов – системный файл со списком адресов URL, расширением XML или архивом GZip.
Вторая карта предназначения для посетителей и размещается на отдельной странице. Обеспечивает быстрый поиск страниц, улучшает юзабилити и поведенческие показатели сайта.
У вашего движка CMS могут быть и другие настройки технической части, правки и доработки. Здесь все индивидуально. Упростить работу с настройками может только стандартизированный конструктор сайтов онлайн, где все отлажено по умолчанию и по шаблону.
Реализовав советы по всем 12-ти пунктам, вы значительно улучшите показатели сайта. Заложите фундамент качественной оптимизации текстовых, ссылочных и поведенческих факторов. Ускорите продвижение в ТОП поиска и компенсируете затраты ростом доходов.
Комментарии
Комментарии отсутствуют
Комментировать могут только зарегистрированные пользователи!
Разделы
Популярные материалы
Партнерские программы- X-Monitor.ru © 2015-2024 |Обменники|Вопросы|Блог|Добавить ресурс|Реклама|Контакты|Карта сайта