Начинающие
веб-мастера часто недооценивают влияние поисковых систем на раскрутку
проектов. А ведь именно "поисковики" призваны обеспечивать стабильный
приток посетителей и весьма неплохой. Хотя количество хостов из
поисковых систем зависит от общего количества размещенного материала,
тем не менее, начинающий сайт может рассчитывать на диапазон от 3 до 50 хостов в сутки. Заметьте, это без каких-либо денежных затрат на рекламу. Но
для привлечения посетителей из "поисковиков" необходима продуманная и
качественная работа, большей частью незаметная для читателей. Я имею в
виду работу по оптимизации страниц для поисковых роботов. Несмотря на
то, что основные требования к сайтам со стороны "поисковиков" хорошо
известны, количество успешно проиндексированных ресурсов невелико (в
мировом масштабе до 16% от общей величины поданных заявок). До
начала оптимизации давайте разберемся, как работают поисковые роботы и
как происходит оценка релевантности. Исходными данными, несомненно,
является сам документ в формате HTML. Частота повторения слов в тексте,
пожалуй, основной фактор для оценки страницы. Для роботов также важны:
содержание тэгов <TITLE>, <МЕТА> (в первую очередь параметры
"descriptions", "keywords", "Content-Type" и "Content-Language"),
текст самого документа (особое внимание тэгам
<H1>-<H6>,<B>,<STRONG>), альтернативный текст
для изображений (параметр ALT тэга <IMG>). Не
все части документа воспринимаются равнозначно. Текст в начале страницы
находится в более выгодном положении. Интересный факт: одна и та же
страница, изготовленная "вручную" и, например, средствами Word будет
проиндексирована по - разному. Автоматические генераторы HTML весьма
далеки от совершенства и лишний "мусор" сгенерированный текстовым
процессором Word будет причиной такой разницы. Стремление
поместить основной текст в начале страницы и, таким образом, повысить
релевантность ключевых слов, иногда находит отражение в изменении
стандартной навигации. Web-мастера помещают ее справа. С точки зрения
юзабилити это не самый лучший шаг, но в нем есть свое рациональное
зерно. Отдельный
разговор о фреймах и страницах с динамическими данными. Если фреймы в
последнее время стали индексироваться более - менее корректно (все же их
использование на первой странице нежелательно), то динамические блоки
роботами, к сожалению, игнорируются (это относится и к Flash). Вывод: "поисковики" не любят "навороченных" сайтов. Делая ставку на поисковые системы, помните об этом. Итак,
с теорией разобрались, - приступим к оптимизации. Страницы,
ориентированные на индексацию, должны быть по возможности простыми, без
ошибок, с прописанными <TITLE> и <META>. Частое повторение в
тексте ключевых слов также нежелательно (оптимально 3 - 7 раз), иначе
робот подумает что его "спамят" и покинет страницу. Если сайт использует
динамические ссылки, проверьте, продублированы ли они обычными
статическими. Для гарантии индексирования всего ресурса избегайте
вложенности ссылок больше 5 - 6 уровня. Скорее
всего, сайту сразу не удастся попасть в первые 30 позиций ссылок,
выбранных по Вашим ключевым словам (по первым 30 ссылкам переходят 95%
посетителей). Но, проанализировав структуру и HTML - код лидеров, вы
сделаете выводы, которые в будущем принесут успех.
|