Способы ускорения индексации сайта поисковыми системами
У каждого оптимизатора есть собственный набор способов оптимизации. В этом топике я опишу свои приемы проверенные на практике для ускорения индексации сайта. Эти способы работают на 2х основных поисковых системах Яндекс и Гугл.
1. Очень важный пункт. Избегание или минимизация ошибок HTML. Для проверки можно воспользоваться сервисом http://validator.w3.org/.
2. Правильные коды ответа сервера на страницах сайта. Для проверки какой код возвращает страница, можно воспользоваться этим сервисом http://inettools.net/answer-http-server.html
3. Использовать только один вид домена либо с www либо без www, естественно лучше использовать без www, так как www все таки поддомен-алиас на основное имя домена. В файле .htaccess соответственно нужно сделать 301 редирект с домена с www на домен без.
4. Правильно составить файл robot.txt, лучше тоже использовать онлайн сервис с указанием большого количества роботов + с указанием расположения sitemap.xml
5. Избегать повторения заголовков страниц, да и всех метаданных.
6. Использовать кэширование на стороне сервера для ускорения работы. Гугл учитывает скорость загрузки сайтов при ранжировании. http://avesadmin.blogspot.com/2011/10/phpobstart.html
7. Генерировать файл sitemap.xml
8. Использование логичных и релевантных блоков с ссылками на соседние и похожие страницы(Внутренняя перелинковка)
9. Отказаться от различных блоков не желательной рекламы Попандеров, кликандеров, либо использовать их только в тех случаях когда выполняется какой либо скрипт с проверкой на человечность, например каптча.
10. Наращивание ссылочной массы, желательно естественной.
11. Ну и естественно стараться использовать уникальный контент.
1. Очень важный пункт. Избегание или минимизация ошибок HTML. Для проверки можно воспользоваться сервисом http://validator.w3.org/.
2. Правильные коды ответа сервера на страницах сайта. Для проверки какой код возвращает страница, можно воспользоваться этим сервисом http://inettools.net/answer-http-server.html
3. Использовать только один вид домена либо с www либо без www, естественно лучше использовать без www, так как www все таки поддомен-алиас на основное имя домена. В файле .htaccess соответственно нужно сделать 301 редирект с домена с www на домен без.
4. Правильно составить файл robot.txt, лучше тоже использовать онлайн сервис с указанием большого количества роботов + с указанием расположения sitemap.xml
5. Избегать повторения заголовков страниц, да и всех метаданных.
6. Использовать кэширование на стороне сервера для ускорения работы. Гугл учитывает скорость загрузки сайтов при ранжировании. http://avesadmin.blogspot.com/2011/10/phpobstart.html
7. Генерировать файл sitemap.xml
8. Использование логичных и релевантных блоков с ссылками на соседние и похожие страницы(Внутренняя перелинковка)
9. Отказаться от различных блоков не желательной рекламы Попандеров, кликандеров, либо использовать их только в тех случаях когда выполняется какой либо скрипт с проверкой на человечность, например каптча.
10. Наращивание ссылочной массы, желательно естественной.
11. Ну и естественно стараться использовать уникальный контент.
Комментарии
Отправить комментарий