Если у вас есть плохие или неработающие ссылки, это серьезно уменьшает ваши сайты crawlability и ваш сайт может быть навсегда отфильтрованы из поисковой выдачи (Страницы поисковых систем) .Crawlability ошибки, что убить ваш SEO не делают следующие ошибки или попрощаться с был найден в поисковых системах. Обратите внимание на файлах robots.txt Вот самый простой способ испортить ваш crawlability. Robots.txt файлы прямого поиска пауков, как для просмотра вашего сайта. Одна ошибка может поднять вас из поисковых систем постоянно так быть очень осторожным при работе с этими файлами.
Не используйте слишком много переменных в ваших URL-адресов Google может сканировать длинные ссылки, но его до сих пор не любитель длинных URL-адресов. Его лучше использовать короткие URL, они получают нажал на более часто в поисковой выдачи Dont добавить идентификаторы сессии в URL-адреса Если вы используете идентификаторы сессии в ваших URL-адресов, хранить их в печенье. Пауки обыкновение сканировать URL с ID сессии они засоряют Выдача Следите за кодом наворотов Это может быть огромная проблема. Пауки хорошо разделения кода от содержания, но не делают его трудным для них либо.
Не используйте столько кода, что ваш контент разве легко найти. Пауки не могу следовать флэш ссылки или выполнить Designs JavaScript, что использовать вспышку и JavaScript будет остановить пауков в своих треках. Они также не могу читать текст или изображения внутри Flash. Палка с HTML ссылки (ссылки должны быть предпочтительно текст или изображения) Как исправить ошибки Crawlability Не меняйте URL, если они не сломаны. Имейте в виду следующие советы, упомянутые выше. Держите их короткими, не использовать слишком много переменных, оставить в идентификаторы сеансов и т.д.
При создании URL-адреса, используйте ключевые слова и дефис отделить ключевые слова. Пауки признать дефис, как пространства не использовать подчеркивания, и т.д. Dont сделать ваши
Gowalla - The SXSW Бит…