Рерайт: качественный рерайтинг статей
Выполняем качественный рерайт статей

Меню сайта

Главная страница
Услуги по рерайту
Об оплате и сроках
Портфолио
Контакты
 
Тенденции SEO
Публикации

 

На заметку

Копирайт или рерайт?
Каким должен быть рерайт?
Рерайтер - кто это?
Программы для рерайта
Рерайтинг: цены
Проверка текста на уникальность
 
Веб-мастеру и оптимизатору
Правила копирайтинга

 

 

Бесплатная книга

Получить

 

Немного рекламы

 



Подготовка сайта к продвижению

Как-то мы уже поднимали вопрос о том, что одним из аспектов подготовки сайта к поисковому продвижению является оптимизационная HTML-верстка. Но внутреннее SEO не ограничено только правильно отформатированным контентом. До того, как начать закупать ссылки, желательно проверить, что все настройки и технические параметры сайта отвечают предпочтениям и требованиям поисковиков.

 

Настройки сервера и хостинг

Большая часть обычных сайтов, маленьких интернет-магазинов, сайтов-визиток размещены на виртуальных хостингах: на конкретном сервере, который находится на серверной площадке организации, предоставляющей хостинг, «базируются» несколько сайтов. Если посещаемость сайтов небольшая, то он хорошо работает, быстро загружает запрашиваемые роботами поисковиков и посетителями страницы. Но, как только будет превышен лимит, обусловленный вычислительной способностью сервера, поделенной на все обслуживаемые сайты, сайт станет работать медленно, а вскоре и вообще перестанет загружать запрошенные страницы. Чтобы избежать такой ситуации, следует заранее «переехать» на выделенный сервер. Обслуживание выделенного сервера обойдется владельцу сайта дороже, однако, сайт будет работать быстрее, и ему не страшна большая нагрузка.

При выборе хостинг-провайдера стоит обратить внимание на продолжительность работы организации, на информацию о дата-центре и другие признаки надежности. Форс-мажоры случаются у всех. Стоит изучить информацию об их частоте. Стоит отметить, что в любой момент  можно «переехать» на другой хостинг, это довольно таки не сложно. Правда, если на хостере уже произошла авария, перенести сайт можно будет только после ее устранения.

 

Как настроить файл .htaccess

Данный файл обычно расположен в корне сайта и содержит в себе настройки веб-сервера Apache. Его используют при настройке следующих параметров:

  1. простое и сложное перенаправление;
  2. определение индексных страниц (указывает серверу какую страницу нужно загрузить, если в адресную строку введено только имя домена);
  3. определение страниц обработки ошибок (если пользователем будет запрошена удаленная или несуществующая страница, а соответствующей обработки не будет, сервер выдаст непонятный код. Чтобы этого избежать, необходимо создать страницу для кода 404, на которой будет раскрыта причина ошибки и ссылка на главную страницу сайта. А затем просто настроить показ данной страницы, когда возникает код ошибки 404);
  4. управление кодировкой (нужно определить формат кодировки текста на всех страницах сайта – это будет гарантией того, что посетитель увидит читабельный текст, а не набор различных символов);
  5. управление доступом (позволяет ограничить доступ к сайту или конкретным разделам по различным параметрам: IP-адресу, возможна установка пароля и прочее);
  6. настройки PHP (позволяют задать основные параметры обработки языка PHP веб-сервером).

Используя файл .htaccess, нужно произвести настройки сервера таким образом, чтобы он мог открывать сайт не зависимо от наличия/отсутствия префикса www. К тому же, нужно обратить внимание на текущее состояние индекса основного поисковика (чаще Яндекса). В зависимости от него надо настроить редирект с кодом 301 на один из вариантов адресов. Лучше всего производить эти настройки при запуске сайта. В противном же случае придется потратить массу времени на ожидание переиндексации всех страниц.

 

Как настроить файл Robots.txt

На что стоит обратить внимание:

  1. нужно закрывать логи сервера от индексации – это является служебной информацией и она не предназначена для лишних глаз;
  2. необходимо закрыть результаты внутреннего поиска по сайту – это является типичным источником дублей страниц;
  3. используя правила Clean-param можно закрыть доступ поисковику индексировать страницы сайта с разными идентификаторами сессий, модификаторами URL и прочими. Это нужно для того, чтобы предотвратить проникновение в индекс большого числа дублей. Стоит также закрыть доступ к индексации страниц форумов, гостевых книг и тому подобных;
  4. нужно закрыть страницы, которые возникают при неправильной обработке запросов к БД сайта;
  5. нужно не допускать индексации дубли главной страницы сайта. Это нужно сделать даже в том случае, есть на нее поставлен редирект при помощи файла .htaccess.

ИТОГ: закрыть все страницы, на которых отсутствует значимый контент и не допустить индексации дублей.

 

sitemap.xml и карта сайта

Под картой сайта понимается специальная страница, на которой приведен список ссылок на все страницы сайта. Как правило, она автоматически создается системой управления информацией. Если вы считаете, что при помощи этой страницы посетителям будет легче ориентироваться на сайте, то вы заблуждаетесь. Чтобы эта страница была «помощником» для посетителей, нужно ее отформатировать специальным образом, к примеру, как на сайте Livejournal.com. Совсем другую картину представляет карта сайта для поисковых систем. Если на главной странице сайта размещена ссылка на карту сайта, то роботу остается сделать только 2 перехода, для того, чтобы попасть на любую страницу сайта.

Более технологичной и современной версией карты сайта является файл sitemap.xml. Он также автоматически создается и обновляется. К тому же, он может указать приоритет индексации для каждой страницы сайта. Также при помощи этого файла можно сообщить поисковику, какие страницы чаще обновляются и являются наиболее важными.

 

Как защититься от вирусов

Известны такие виды вирусов, которые вводят вредоносный код на страницы сайтов. Поисковики могут определять зараженные страницы при индексации. В дальнейшем поисковые системы препятствуют переходу посетителей на эти страницы из результата поиска (на экран выводится предупреждающее сообщение). К тому же, «инфицированные» страницы значительно понижаются в результатах поиска. Для того чтобы избежать такой ситуации, необходимо регулярно обновлять программное обеспечение, которое используется на сайте, пользоваться надежными паролями для доступа по FTP и к панели управления, заходить по FTP и в инструменты управления сайтом только с тех ПК, на которых имеются хорошие антивирусные программы.

 

Выводы

Технически подготовить сайт к поисковому продвижению – это серьезная и кропотливая работа, которая имеет большие масштабы, если на сайте представлены разнотипные страницы, много сервисов, скриптов и прочее. Производители CMS и хостинг-провайдеры стремятся установить параметры по умолчанию. Но, не смотря на это, все равно придется делать некоторые настройки вручную. Главное в этой ситуации понять цель внутренней оптимизации и четко знать, что в нее входит.


 

 

 

 

 

Интересное о рерайтерах:
профессиональный рерайтер не только хорошо владеет русским
языком, но и отлично знает особенности работы поисковых систем.

Интересное о рерайтинге:
СЕО-рерайт - это рерайт статей, в ходе которого рерайтер употребялет
заранее оговоренные ключевые фразы.

Тематический индекс цитирования

Copyright © 2010-2013 Reraitex.Ru

Использование материалов сайта возможно при условии указания активной ссылки
Качественный рерайтинг