по работе седня искал кое что и наткнулся на интересненькую вестчь=))
Здесь собраны статьи различных авторов. Смысл - собрать всю многочисленную информацию по оптимизации и раскрутке сайтов воедино в доступном для понимания виде. Обсуждение ведем здесь.
Оглавление:
1. Тэги
2. Поисковые системы
2.1. Яндекс
2.2. Рамблер
2.3. Апорт
2.4. Google
2.5. Другие
3. Каталоги
3.1. Каталоги регионов
3.2. Основные каталоги
4.Оптимизация не-HTML-сайтов
4.1. Flash
4.2. PDF
4.3. Мультимедиа
5. Основные правила оптимизации
6. Особенности сайта построенного на фреймах.
7. Особенности отпимизации форума
*при добавлении контекста, добавиться и оглавление
Часть 1. Тэги
<Title> - название (заголовок) HTML-документа.
Должен идти сразу за тэгом <head>. Если вы используете редакторы, подобно FrontPage, вы должны проверить, чтобы тэг располагался в правильной последовательности, так как эти редакторы часто портят последовательность тэгов.
Правильно составленный заголовок страницы может очень серьезно повысить рейтинг, потому что слова в заголовках имеют большой вес у поисковых машин, а также в системах индексации и в каталогах.
Заголовок страницы пишется между тэгами <title>....</title>, с помощью него поисковые системы определяют то, о чем должна вестись речь на данной страничке и заголовки показываются в найденных результатах по запросу пользователя. Заглавие странички должно точно передавать суть содержания странички, содержать ключевые слова и привлекать пользователей. Помните о том, что соответствие ключевых слов в заглавии и содержании страницы приводит к повышению рейтинга страницы.
Не используйте ВСЕ ЗАГЛАВНЫЕ БУКВЫ в теге <title>, так как некоторые поисковые системы не любят этого.
Рекомендуется для всех страниц вашего сайта писать разные заголовки.
Обратите внимание на количество знаков, указываемых в тэге. У разных поисковых систем разные требования, но лучше не превышать длину тэга в 75 знаков (20-25 слов).
МЕТА тег <Keywords> - ключевые слова.
Этот тэг больше всех подвержен спаму. В него пихают одни и те же слова множество раз подряд, его заполняют словами, не относящимися к сайту, но популярными в Интернете.
Любое ключевое слово, упомянутое на сайте, должно быть включено в этот тэг.
Аналогично, если вы вписываете слово в этот тэг, оно должно упоминаться на сайте.
Постарайтесь как можно точнее определить ключевые слова. Не стоит пользоваться слишком общими словами, тогда ваша страница просто потеряется в общей массе.
Избегайте повторения одного и того же слова. Даже с учетом повторения слова в разных формах оно может быть безопасно упомянуто не более 3 раз. Превышение этого лимита могут счесть спамом. Если же повторить слово 5 раз, проблемы обеспечены.
Некоторые поисковики считают слова из заглавных и прописных букв разными словами (т.е. Пример и пример).Учтите, что, согласно статистики, большинство запросов в поисковых машинах делается прописными буквами. Во всяком случае, наличие в тэге двух версий слова желательно.
Не забывайте о возможных ошибках в написании слов. Существует множество популярных ошибок в написании слов, если ваше ключевое слово входит в это число, включите такие ошибки в ключевые слова.
Не используйте в ключевых словах так называемые "стоп слова", типа "в", "и", "на". Как правило поисковые системы просто-напросто игнорируют их. То есть вместо того, чтобы писать "поисковые системы и поиск в интернет", вы можете написать "поисковые системы поиск интернет
Не используйте точки и запятые. Во-первых, их отсутствие может заставить робота воспринять несколько слов подряд как возможную фразу. Во-вторых, поскольку роботы читают ограниченное число символов в каждом тэге (обычно не более 200), каждая точка или запятая крадет у вас доступное пространство.
Разместите тэг как можно выше, и, уж конечно, выше скриптов. Роботы обычно не читают ява-скрипты, поэтому такое размещение предотвратит пропуск тэгов.
Если ваш сайт относится к какому-либо региону, упомяните об этом в тэге.
Сейчас очень часто говорят о снижении влияния данного мета-тега, но так или иначе, он влияет на оценку релевантности документа поисковым механизмом.
Рекомендуемый объем 800-1000 символов. Необходимо отметить, что больший приоритет робот отдает первым 50 словам.
Количество ключевых слов в HTML-документе является немаловажным фактором. Но, как правило, оно должно составлять 5% от всего объема документа. Робот также оценивает удаленность ключевых слов от начала документа и их кучность.
META тег <Description> - описание документа.
Этот мета-тег можно назвать самым важным. На него всегда обращает своё внимание поисковик.
Во-первых, постарайтесь, чтобы описание выглядело призывно. Безусловно, оно при этом должно указывать на конкретный сайт. Многочисленные описания типа "Делай деньги! Узнай как заработать в Сети!" никак не ассоциируются с конкретным сайтом, да и эффекта не дают, хотя многие их используют. Внешне это выглядит, скорее, спамом.
Если вам нужно больше места, чтобы описать содержание страницы, попробуйте разбить ее на несколько более мелких страниц. Тем более, что многие поисковики больше любят небольшие по размеру страницы. Описание документа должно быть емким и кратким, так как его объем очень ограничен и не должен превышать 170-200 символов.
Мета - тег "robots"
"noindex" - не индексировать страничку (Например, ваш сайт еще находится в тестовой стадии и вы бы не хотели, чтобы он в таком виде был проиндексирован роботами или в каких-то директориях существует закрытая для широкой публики информация) и "nofollow" - не следовать по ссылкам с данной странички. (Например если на страничке находятся ссылки на полезные ресурсы, которые на вашем сайте не лежат).
Примеры тэгов:
<meta name="robots" content="noindex,follow">
этот тэг инструктирует роботов не индексировать данную страничку, однако следовать по ссылкам с данной странички.
<meta name="robots" content="index,nofollow">
роботы проиндексируют данную страничку, но никуда дальше с этой странички по ссылкам не пойдут.
<meta name="robots" content="index,follow">
данный тэг ставить нет смысла, так как роботы и так по умолчанию индексируют все страницы и следуют по ссылкам с данной страницы.
<meta name="robots" content="index,all">
индексировать всё, по моему тоже бесполезный.
<meta name="revisit" content="15 days">
этот тэг задает периодичность переиндексации сайта поисковыми машинами. В данном случае это 15 дней, (количество дней можно изменять). Если сайт обновляется часто, то следует указать поменьше. Но не все поисковые роботы подчиняются этому тэгу, например у робота "Yandex-a" свой график работы и изменить его, к сожалению, невозможно.
Вставляется любой из этих тэгов в HTML код страницы между <head>….</head> после всех титулов и т.п
<B> и <STRONG> - придают большую значимость заключенным в них словам. Нередко их используют для выделения ключевых слов в основном тексте документа, что тоже сказывается на релевантности документа.
<H1> - <H6> - имеют схожий характер с предыдущими тегами выделения текста, и учитываются поисковым роботом. Здесь необходимо заметить, что некоторые, особенно начинающие, web-мастера нередко злоупотребляют этими тегами и заключают в них весь текст страницы. Предварительно прописав в библиотеку стилей изменение их стандартных параметров. Но не следует забывать о том, что некоторые web-серферы просматривают HTML-документы не только с отключенными картинками, но и с отключенной библиотекой стилей. И в этом случае ваша страница будет смотреться просто чудовищно.
<IMG> всегда должен содержать описание в атрибуте ALT и всплывающую подсказку (это скорее касается организации мэппинга на одной картинке). Они тоже могут содержать ключевые слова, но нельзя забывать о том, чтобы они были читабельны и вписывались в общую концепцию данного изображения или привязанной к ним ссылке. Рекомендуемый объем составляет 40 символов.
<A> служит для создания гипертекста (ссылок) и его атрибут TITLE может содержать описание данной ссылки и создает всплывающую подсказку. Он также может быть снабжен ключевыми словами.
Ссылки. Немаловажную роль для поисковых механизмов играет также организация ссылок на вашем сервере и количество HTML-документов, то есть объем предоставляемого вами материала. Некоторые поисковые роботы отслеживают только ограниченное количество переходов, поэтому, занимаясь разработкой структуры сервера, необходимо учитывать так называемый "принцип четырех кликов".
Часть 2. Поисковые системы
2.1. Яндекс
Адрес: ГСП-1, 117333, Россия, Москва, ул. Вавилова, дом 40
URL: http://www.yandex.ru/
URL (текстовая версия): http://www.ya.ru/
URL для добавления сайта: http://webmaster.yandex.ru/
Описание.
История компании «Яндекс» восходит к 1990 году, когда в компании «Аркадия», возглавляемой Аркадием Борковским и Аркадием Воложем, начались разработки поискового программного обеспечения. Сайт «Яndex» появился в Интернете в 1996 году, после того как руководством CompTek и разработчиками системы было принято решение о дальнейшем развитии поисковых технологий, ориентированных на широкую аудиторию пользователей Интернета.
За два года работ были созданы две информационно-поисковые системы — Международная Классификация Изобретений, 4 и 5 редакция, а также Классификатор Товаров и Услуг. И до сих пор, особенно по весне, в CompTek обращаются изобретатели-одиночки в надежде на появление новых редакций. Обе системы работали под DOS и позволяли проводить поиск, выбирая слова из заданного словаря, с использованием стандартных логических операторов.
В 1993 году «Аркадия» стала подразделением CompTek. 1993–1994 годы в результате его сотрудничества с лабораторией Ю. Д. Апресяна (Институт Проблем Передачи Информации РАН) программные технологии были существенно усовершенствованы. В частности, словарь, обеспечивающий поиск с учетом морфологии русского языка, занимал всего 300Кб, то есть целиком грузился в оперативную память и работал очень быстро. С этого момента пользователь мог задавать в запросе любые формы слов.
На основе новой технологии в 1994 году был создан «Библейский компьютерный справочник» (информационно-поисковая система, обеспечивающая работу с Синодальным переводом Ветхого и Нового Заветов).
В 1995 году стартовал проект «Академическое издание классиков на CD ROM», разрабатываемый совместно с НТЦ «Информрегистр» и ИМЛИ им. М.Горького РАН при поддержке Роскоминформа. Для этого проекта была создана универсальная технология «Аргонавт», которая включала как средства разметки и отображения текстов, так и средства навигации, а так же различные поиски — и текстовые, и атрибутные. На основе этой технологии вышло 3 издания – справочник стандартов «Информ – Норматив», электронное научное издание «А.С. Грибоедов» и «Пушкин. Электронный фонд русской классической литературы». Также был создан словарь языка Грибоедова.
В начале 1996 года был разработан алгоритм построения гипотез. Отныне морфологический разбор перестал быть привязан к словарю — если какого-либо слова в словаре нет, то находятся наиболее похожие на него словарные слова и по ним строится модель словоизменения.
Летом 1996 года руководство CompTek и разработчики поисковой системы пришли к выводу, что развитие самой технологии важнее и интереснее, чем создание прикладных продуктов на базе поиска. Исследования рынка показали своевременность и большие перспективы поисковых технологий. Тогда в Интернете и появился «Яndex».
Слово «Яndex» придумал за несколько лет до этого один из основных и старейших разработчиков поискового механизма. «Яndex» означает «Языковой index», или, если по-английски, «Yandex» — «Yet Another indexer». За 4 года публичного существования Яndex возникли и другие толкования. Например, если в слове «Index» перевести с английского первую букву («I» — «Я»), получится «Яndex».
На выставке Netcom'96, 18 октября 1996 года, CompTek анонсировал первые продукты серии Яndex (Яndex.Site, Яndex.Dict). Яndex.Site — поиск по своему сайту — сейчас установлен на сотнях серверов Рунета. Яndex.Dict, морфологическое расширение запроса, используется до сих пор для, например, передачи запроса на AltaVista, хотя сегодня это уже не так актуально — AltaVista индексирует русский Интернет гораздо хуже, чем русские поисковые машины.
Через полгода появился Яndex.CD — поиск документов на CD ROM, а затем Яndex.Lib — полнофункциональная библиотека Яndex для встраивания в различные приложения и базы данных.
Еще через полгода стало очевидно, что ничто не отделяет CompTek от создания собственной глобальной поисковой машины. Объем Рунета составлял тогда всего несколько гигабайт. Осенью 1997 года был открыт Yandex.Ru. Необходимость поддерживать работу Yandex.Ru в условиях больших объемов (200 Гб текстов) и больших нагрузок (несколько запросов в секунду) ведет к оптимизации алгоритмов, которые потом используются и в других продуктах Яndex.
Официально поисковая машина Yandex.Ru была анонсирована 23 сентября 1997 года на выставке Softool. Основными отличительными чертами Yandex.Ru на тот момент были проверка уникальности документов (исключение копий в разных кодировках), а также ключевые свойства поискового ядра Яndex, а именно: учет морфологии русского языка (в том числе и поиск по точной словоформе), поиск с учетом расстояния (в том числе в пределах абзаца, точное словосочетание), и тщательно разработанный алгоритм оценки релевантности (соответствия ответа запросу), учитывающий не только количество слов запроса, найденных в тексте, но и "контрастность" слова (его относительную частоту для данного документа), расстояние между словами, и положение слова в документе.
Чуть позже в разделе «Сказки» (наблюдения за содержанием русского Интернета) появилась первая сказка Рунета — «Web – гуманизм или чернуха?». А в разделе «Числа» — первая оценка объема Рунета, 5 тысяч серверов и 4Гб текстов.
Через два месяца, в ноябре 1997 года, был реализован естественно-языковый запрос. Отныне к Yandex.Ru можно обращаться просто «по-русски», задавать длинные запросы, например: «где купить компьютер», «генетически модифицированные продукты» или «коды международной телефонной связи» и получать точные ответы. Средняя длина запроса в Yandex.Ru сейчас — 2,7 слова. В 1997 году она составляла 1,2 слова, тогда пользователи поисковых машин были приучены к телеграфному стилю.
В 1998 году на Yandex.Ru появилась возможность «найти похожий документ», список найденных серверов, поиск в заданном диапазоне дат и сортировка результатов поиска по времени последнего изменения. За этот год «объем» Русского Интернета удвоился, что привело к необходимости оптимизации поисковых механизмов. И тогда, и сейчас (при объеме в 200 Гб) скорость поиска на Yandex.Ru — доли секунды.
За 1999 год Рунет вырос на порядок, как в объемах текстов, так и в количестве пользователей. Это был год бурного развития и для Yandex.Ru. Новый поисковый робот позволил оптимизировать и ускорить обход сайтов Рунета. Сегодня поисковая база Yandex.Ru вдвое больше, чем у ближайших конкурентов.
Новый робот позволил предоставить пользователям новые возможности – поиск по разным зонам текста (заголовкам, ссылкам, аннотациям, адресам, подписям к картинкам), ограничение поиска на группу сайтов, поиск по ссылкам и изображениям, а также выделять документы на русском языке. Появился поиск в категориях каталога и впервые в Рунете было введено понятие «индекс цитирования» — количество ресурсов, ссылающихся на данный.
В течение всего года продолжалась работа по количественному и качественному анализу Рунета. Был открыт НИНИ-индекс (индекс «Непостоянства Интересов Населения Интернет»), показывающий динамику изменения интересов пользователей Интернета. Открылся поисковый Форум и новый сервис — подписка на запрос, то есть можно оставить свой запрос на Yandex.Ru и регулярно получать по электронной почте информацию о появлении новых и/или измененных документов, соответствующих этому запросу. К началу учебного года был открыт «Семейный Яndex», фильтрация результатов поиска от мата и порнографии.
Особенности
Имя поискового робота: Yandex/1.03.00х, где х - тип паука, в зависимости от типа индексации (первичная, полная).
Русскоязычная поисковая система. На сегодняшний день имеет самую большую базу данных, которая имеет кластерную структуру и размещена на нескольких серверах.
У Яндекса достаточно быстрый поисковый робот. Но это означает лишь то, что страница будет быстро поставлена в очередь на полную индексацию. После того, как страница проходит полную индексацию, она может пропасть из поисковых результатов, если поисковый робот сочтет ее за спам, либо из-за каких-нибудь технических проблем. Т.е. если ваша станица после первичной индексации вышла на первые места по тому или иному запросу, то после полной индексации, возможно, она будет совсем на других позициях, вывод: положение страницы нужно отслеживать в течение нескольких дней, пока не пройдет полная индексация.
Страница после полной индексации заняла хорошую позицию. Но после одной из проверок ее место в списке результатов ниже, чем обычно. А на следующий день опять все по-прежнему. Список результатов может меняться в зависимости от загруженности серверов. Т.к. база данных имеет кластерную структуру и разнесена на несколько серверов
Не нужно делать очень маленькие или очень большие документы. Яндекс любит документы средних размеров, насыщенные текстом (статьи и т.п.). Следует умеренно повторять ключевые слова. Ключевые слова можно писать в ALT описании, но вес слов в этом тэге ниже.
Хорошо индексируются страницы созданные скриптами cgi, php. Это касается гостевых книг, форумов и т.п. Для индексации остальных (кроме главной) страниц сайта требуется примерно 2 недели.
Если сайт на русском языке, а домен не в зоне .ru, то Яндекс все равно проиндексирует.
Мета тэги keywords и description: ключевые слова в них особенно не помогают достигать хороших позиций. В мета тэгах нужно писать лишь те слова, которые встретятся в тексте страницы.
Однако мета тег description, используется для выдачи описания страницы в результатах поиска. Это нужно учитывать при его составлении, т.к. это будет один из критериев, по которым пользователь решает приходить к вам, или нет.
Мета тэги, такие как revisit-after, content - не поддерживаются.
Учитываются: ключевые слова в: Title, заголовки (h1-h6), содержание страницы, ALT.
В формулу вычисления релевантности включен Взвешенный Индекс Цитирования, аналог Page Rank в Google. Обычный Индекс Цитирования используется только при сортировке сайтов в каталоге Яндекса. Влияние на положение в результатах поиска оказывает ВИЦ
Разработана технология определения спама, но пока она является кране не эффективной. Часто встречаются спамерские страницы. Но команда разработчиков работает над этим. По сему, крайне не рекомендую использовать спамерские методы.
2.2. Рамблер
Адрес:
Россия, 115280, Москва, Ленинская слобода, 26.,
Тел.: +7 (095) 745-3619 (многоканальный)
Россия, 193144, Санкт-Петербург, Мытнинская, 12.
Тел.:
+7 (812) 449-0927 (тел./факс)
+7 (812) 274-5869
URL: http://www.rambler.ru
URL (hегистрация): http://www.rambler.ru/doc/add_site.shtml
Описание
В 1991 году в городе Пущино появилась группа единомышленников, вдохновленных только что появившейся коммуникационной средой Интернет. Дмитрий Крюков, Сергей Лысаков, Виктор Воронков, Владимир Самойлов, Юрий Ершов - это технически подкованные, творческие и смелые люди с активной жизненной позицией и стремлением к новому. Судьба свела их вместе явно для больших свершений. Будущие создатели Рамблера поначалу обслуживали радиотехнические приборы в Институте биохимии и физиологии микроорганизмов РАН. Например, Дмитрий Крюков работал на ЯМР-спектрометре, помогал биологам анализировать трехмерную структуру ДНК, создавал уникальную гигантскую электронную катротеку микроорганизмов. Когда находишься в Пущино, возникает желание общаться, коммуницировать, связываться с огромным миром, который за лесом. Видимо, эта тяга и сподвигла компанию "Стек" во главе с Сергеем Лысаковым заняться локальными сетями и подключением к Интернету. Нормальный, оперативный и эффективный обмен данными был необходим для реализации научных целей. "Стековцы" сами создали внутри города сеть, подключили Пущино к Москве и через нее - к мировому Интернету (это был первый IP-канал в России, выходящий за пределы Москвы), присоединились к сети Курчатовского института атомной энергии. "Стековцы" вспоминают, что иной раз кабели приходилось прокладывать вручную, зимой, под землей. При минусовой температуре! В 1992 году компания запускает собственные ftp- и mail-серверы. Через два года - свой первый www-сервер. Так, постепенно, шаг за шагом Пущино становилось очень важным узлом Мировой Сети.
1996 год - ключевой для развития русского киберпространства. Именно в этот год Сергей Лысаков и Дмитрий Крюков принимают решение разработать первую русскую поисковую систему для Интернета. Команда "Стека" прозорливо сделала ставку на программу-поисковик. Это было важное, ответственное и, на первый взгляд, необоснованное решение, поскольку в то время российский сегмент Сети был очень мал - не более 30-50 сайтов. А новые разработки означали для компании покупку оборудования, для чего пришлось сократить собственные зарплаты.
Программист Дмитрий Крюков начал с того, что придумал проекту название. Для этого открыл англо-русский словарь. Взгляд упал на Rambler. Дмитрию понравилось значение слова "скиталец, странник, бродяга": роботы поисковой машины действительно ходят по сайтам, собирая информацию, круглые сутки не зная покоя. За работой сидел и днями, и ночами. Жена Карина приносила обеды и ужины в офис. Когда Дмитрия спрашивают, что это значит для программиста - создать такую программу, он спокойно отвечает: это интересно, это проверка себя, своих сил. Это не настолько сложно, чтобы отказывать себе в удовольствии сделать это. Через несколько месяцев, к осени 1996 года, был готов окончательный вариант поисковика. 26 сентября был зарегистрирован домен rambler.ru, а 8 октября "Стек" активизировал систему.
В тот момент в Рунете уже существовало две-три поисковых машины - но они не выдержали проверки временем и быстро исчезли. А Рамблер развивался, эволюционировал. Хотя ему пришлось пройти через огонь и воду. Сергей Лысаков и Дмитрий Крюков рассказывают, как однажды на верхнем этаже прорвало трубу и сервер, на котором работал Рамблер, пришлось буквально просушивать. Ничего, не сломался. В другой раз примитивно подвело железо: сгорели жесткие диски. Сергей и Дмитрий в тот же день съездили в Москву и срочно купили - за бешеные деньги - новые устройства. Система не работала всего одни сутки. Для отладки работы системы приходилось очень подолгу сидеть за компьютером, неотрывно контролируя поток запросов и процесс поиска. Рамблер держался на энтузиазме своих создателей, на воле и вере в правильность выбранного пути.
Весной 1997 года появляется Rambler's Top100 - уникальный рейтинг-классификатор, который не только оценивает на основе объективных данных популярность российских ресурсов, но и позволяет одним "кликом" попасть на них. В сущности, вся история Рунета разделилась на "до" и "после". Возникновение такого универсального счетчика, способного направлять аудиторию на разные ресурсы, создало в российском Интернете активную, динамичную конкурентную среду. Веб-мастера стали более тщательно и вдумчиво работать над своими сайтами, стремясь занять в Топ100 более высокие строчки. Хороший рейтинг давал дополнительные преимущества - быстрый рост аудитории. В свою очередь, модераторы Топ100 боролись и с успехом борются по сей день с так называемыми накрутками - искусственным завышением рейтинга того или иного ресурса. За первый год существования рейтинга объем русскоязычного сегмента Сети вырос как минимум на два порядка. Rambler's Top100 быстро стал универсальным барометром сети, общим стандартом медиаизмерений.
26 сентября 2003 года изменился дизайн головной страницы, он стал более свежим и вместе с тем остался легко узнаваемым. В июне 2003 года компания запустила новую версию поисковой машины, которая отличается от предыдущей по двум основным параметрам. Во-первых, значительно увеличилась скорость поиска; во-вторых, благодаря новой архитектуре системы обновление поискового индекса происходит несколько раз в день. Это значит, что Rambler всегда находит даже самые свежие документы, включая последние новости. Rambler понимает живой русский язык, знает, что бывает "б/у", "у.е." и "а/я". Механизм ассоциаций помогает пользователю точнее сформулировать свой запрос и, следовательно, быстрее найти искомый ресурс.
Особенности.
Необходимо заполнить регистрационную анкету в поисковой системе Rambler. Это будет гарантией того, что роботы Рамблера узнают о Вашем сайте и скорее начнут его индексацию. Анкета находится по адресу http://www.rambler.ru/doc/add_site_form.shtml.
Автоматически роботы Rambler сканируют сайты, находящиеся в следующих доменах первого уровня:
Российская Федерация: .ru, .su
Украина: .ua
Белоруссия: .by
Казахстан: .kz
Киргизия: .kg
Узбекистан: .uz
Грузия: .ge
сайты из других доменов игнорируют
Если Ваш сайт находится вне названных доменов (например, в зонах .com, .org, .net), но существенная часть сайта содержит русскоязычные материалы или, по Вашему мнению, он может представлять интерес для русскоязычной аудитории Рамблера, Вы можете отослать письмо на адрес search.support@rambler-co.ru с просьбой включить Ваш сайт в число сканируемых, либо заполнить форму обратной связи.
Зарегистрируйте сайт в рейтинге Top100 и расставте счетчик на всех страницах сайта. Анкета, заполняемая при регистрации в этом рейтинге, индексируется ежедневно, а специальный робот Рамблера дважды в день пополняет базу поисковой машины новыми страницами, на которых размещен счетчик. Таким образом, включение сайта в Тор100 - это самый быстрый способ попасть в результаты поиска!
При заполнении полей анкеты "Название сайта" и "Описание" не следует вводить в них длинные перечни ключевых слов. Эти поля все равно пока не используются для поиска. Название и описание должны быть предназначены для прочтения человеком, так как эти поля используются в наших внутренних базах данных и просматриваются редакторами.
Рамблер умеет извлекать гиперссылки из объектов Macromedia Flash. Если Ваш сайт имеет заставку или навигационные панели, выполненные c использованием этой технологии, Рамблер обработает их, найдет адреса всех страниц сайта и проиндексирует весь сайт. Однако, сами тексты flash-объектов не индексируются. Это решение принято потому, что большая часть таких объектов содержит элементы навигации, заставки, меню и другие фрагменты, очень важные в качестве источника гиперссылок, но малоинформативные как текст. Для сайтов, которые целиком состоят из flash-объектов, рекомендуется создать HTML-копию и зарегистрировать ее в поисковой машине.
Роботы Рамблера при сканировании игнорируют поля <meta name="keywords"...> и все другие поля <meta...>, кроме <meta name="robots"...>. Это связано с тем, что система старается индексировать документ таким, какой он есть (то есть таким, каким его видит пользователь).
Не следует также использовать невидимый текст (в котором цвет шрифта совпадает с цветом фона).
Комментарии в документе роботы Рамблера тоже не сканируют, поэтому используйте их по прямому назначению. Помните, что каждый комментарий увеличивает размер Вашего документа, а значит, снижает вероятность того, что документ будет просмотрен до конца.
Обратите внимание на заголовки и выделения в документе. Базовые понятия и ключевые для данного сайта слова целесообразно включать в следующие HTML-теги (в порядке значимости):
<title>
<h1>...<h4>
<b>, <strong>, <u>
Чем чаще слово встречается в этих полях, тем более вероятно, что поисковая система Rambler выдаст ссылку на Ваш документ ближе к началу списка результатов поиска. Конечно, использование этих тегов должно органично сочетаться с дизайном Вашего сайта.
С точки зрения поиска, использование фреймов в документе не приветствуется. Это не означает, что роботы не умеют сканировать фреймы. Роботы Rambler прекрасно справляются с конструкциями фреймов, однако наличие лишнего этажа ссылок (от головного навигационного фрейма к "содержательным") замедляет индексацию.
Включайте в документы с фреймами HTML-тег <noframes> с текстом документа и ссылками. Разумеется, это увеличит размер документа, но будет являться актом доброй воли по отношению к пользователям текстовых браузеров (например, Lynx) и поисковым машинам.
Максимальный размер документа для роботов Рамблера составляет 200 килобайт. Документы большего размера усекаются до указанной величины.
Роботы Рамблера обрабатывают ссылки типа <a href=".../imagemap ...">, однако наряду со ссылкой такого вида мы рекомендуем поместить в текст документа конструкцию <map name="name">. Это ускорит индексацию документов, указанных в imagemap, и облегчит доступ к документам для обычных браузеров.
При написании документов внимательно следите за соблюдением русского/латинского регистров. Часто, например вместо русской буквы 'р' используют латинскую 'p', вместо русского 'с' - латинское 'c'. Некоторые подобные ошибки индексатор исправляет, но не все. Слова с подобными опечатками теряют информативность.
Старайтесь не использовать дефисы '-' в качестве символов переноса. При этом слова разбиваются и теряют информативность; кроме того, такие переносы имеют все шансы оказаться у пользователя в середине строки.
Часто изменяющиеся (динамические) документы рекомендуется исключить из списка индексируемых, т. к. актуальность этих документов быстро теряется. Осуществить это можно с помощью стандартного для HTTP механизма - посредством файла robots.txt в головной директории Вашего сайта или HTML-тега <meta name="robots" ...>.
Части документа, не требующие, по Вашему мнению, индексации, можно отделять в документе с помощью тегов <noindex> ... </noindex>. Из частей документа, размеченных этими тегами, также не будут выделены ссылки для дальнейшего обхода.
При задании перекрестных ссылок в документе будьте предельно внимательны, проверьте работоспособность каждой ссылки, иначе роботы не смогут добраться до некоторых из Ваших документов.
Следует также иметь в виду, что с точки зрения HTML записи типа:
<a href="directory" ...> и <a href="directory/" ...> ("слэш" в конце href)
являются разными ссылками. Обычно при запросе по первой ссылке робот получит редирект на вторую, а значит извлечет сам документ при обращении к Вашему серверу только на следующем проходе. Тем самым Вы замедляете индексацию Вашего сайта.
2.3. Апорт
URL: http://www.aport.ru/
URL (регистрация сайта): http://www.aport.ru/addurl.asp
Так и не нашёл ни чего про историю этого поисковика, скромняги
Особенности
С момента добавления сайта в Апорт до момента его появления в поисковой базе проходит от двух-трех дней до двух недель. В отдельных случаях, например, в случае нестабильной связи с добавленным сайтом, это время может оказаться несколько больше.
Апорт периодически проверяет уже имеющиеся в его базе сайты и приводит свою базу в соответствие с произошедшими там изменениями. Период проверки в значительной степени зависит от конкретного сайта (учитывается его популярность, динамичность обновления по данным собранным апортом при предыдущих заходах на сайт и ряд других факторов).
При просмотре содержимого сервера для индексирования Апорт обязательно проверяет файл ROBOTS.TXT. Так что вы можете использовать его, чтобы ограничить "деятельность" Апорта на своем сервере. При желании установить селективные ограничения только для Апорта следует использовать в качестве имени робота слово Aport. Также поддерживаются мета теги Robots, позволяющие, в частности, установить правила поведения робота на вашем сайте даже в случае, если вы не имеете возможности изменять файл robots.txt на сервере. Апорт по умолчанию не индексирует документы, в Url которых встречается символ "?". Если вы считаете, что для вашего сайта такие документы следует индексировать, вы можете обратиться к нам с подобной просьбой по email.addurl-nr@agama.com
Апорт индексирует все слова, которые бы увидел на экране человек, просматривая конкретную страницу вашего сервера. В результате любое слово из текста ваших документов может служить критерием последующего поиска. Для документов HTML кроме основного текста документа индексируются также: заголовок документа (TITLE), ключевые слова (META KEYWORDS), описания страниц (META DESCRIPTION) и подписи к картинкам (ALT). Кроме того, Апорт индексирует как принадлежащие документу, тексты гиперссылок на этот документ с других страниц, находящихся, как внутри сайта, так и за его пределами, а также составленные (или проверенные) редакторами описания сайтов из нашего каталога.
Ключевые слова (META KEYWORDS) не имеют определяющего значения при определении релевантности документа Разумное использование этого тага рекомендуется и может поднять ваш сайт в результатах поиска по соответствующим словам, однако, не следует думать, что именно на него Апорт обращает внимание в первую очередь.
Апорт не применяет каких-либо специальных санкций к сайтам, пытающимся обмануть поисковую систему с помощью спама, однако добиться подобным способом желаемого результата не получится. Поэтому не стоит писать невидимые тексты, вбивать сотни ключевых слов, не имеющих никакого отношения к содержанию документа и т.д. Помните, что во многих поисковых системах предусмотрены жесткие меры для борьбы со спамом, включая полное удаление сайта из системы.
Вот перечень основных критериев, которые Апорт учитывает при сортировке документов (сайтов):
1. количество искомых слов в тексте документа (в процентах) расстояние между поисковыми словами в тексте документа
2. место в тексте, где встречаются поисковые слова (заголовок, описание, мета-таг и т.п.)
3. внешний вид шрифта, которым набраны в тексте искомые слова (размер, жирность, цвет)
4. количество ссылок из Интернета на данный документ
5. использование искомого слова в тексте ссылок из Интернета на данный документ
Окончательный процент соответствия документа запросу строится как некая функция от всех этих показателей. Часть из них просты и понятны (хотя учитываются далеко не всеми поисковыми машинами), часть требует пояснения, поскольку это новые, практически уникальные решения.
2.4. Google
URL: http://www.google.com/
URL (регистрация сайта): http://www.google.com/addurl.html
Описание
Google появился сравнительно недавно, в 1998 г. Его создатели, сотрудники Стенфордского университета (США) Сергей Брин и Лоуренс Пейдж, постарались сделать его механизм более гибким и расширяемым, чем существовавшие на то время у грандов поиска - Аltavista и Inktomi. На данный момент Google и Fast (еще одна ИПС, wwwalltheweb.com) имеют самый большой объем проиндексированных страниц - более двух миллиардов (данные на июль 2002 г.). Речь идет не только о собственно html- и xml-документах, но и pdf, doc и даже флэш-анимации. Причем только Google, в отличие от других иностранных ИПС (кроме конечно "Яндекс", "Рамблер> и <Апорт>), хорошо индексирует русскоязычные Web-ресурсы в зоне.ru.
В Google система оценки качества называется PageRank (PR). Суть ее заключается в том, что при решении о порядке выдачи пользователю списка страниц, попадающих под его запрос, во внимание принимается некий коэффициент, зависящий от количества ссылок с других сайтов на эту страницу и от их популярности. На самом деле в этом есть рациональное зерно. Ведь если рассматриваемая страница действительно такая важная, что ее стоит прочитать, скорее всего, на нее уже ссылаются другие источники. Верно и обратное: если на документ никто не ссылается - кому он тогда нужен?! Причем PageRank - это не просто общая сумма ссылок, это нормализованное отношение количества ссылок, приводящих на данную страницу, к количеству исходящих c нее.
Еще одна важная черта ИПС Google заключается в том, что в ней хранятся описания ссылок на проиндексированные страницы. Эта особенность позволяет более адекватно проводить поиск в накопленной базе данных. Скажем, автор странички забыл указать ее название между тегами <title></title>. Любая ИПС при выдаче результатов поиска ставит высокий приоритет словам, указанным именно в названии. В этом случае Google будет ориентироваться по текстам ссылок на эту страничку, справедливо основываясь на предположении, что если кто-то ставит ссылку на что-то, то уж, по крайней мере, он эту страничку изучил и постарался наиболее емко отобразить ее содержание в тексте ссылки. Именно поэтому во всех наставлениях по правильному оформлению содержимого документов имеется следующий совет.
Никогда не ставьте ссылку под словами <здесь>, <тут>, <сюда> (например: полную версию постановления смотри <a href=<...>>здесь</a>). Попробуйте написать так: <на сайте есть также и <a href=<...>>полная версия постановления</a>>. Кстати, сказанное верно еще и потому, что почти во всех браузерах текст внутри тега <a> подсвечивается тем или иным образом (выделяется подчеркиванием, цветом). Глаз при беглом просмотре странички более вероятно зацепится за выделенные информативные слова, чем за неконкретное краткое наставление <вам сюда>.
Кроме расчетов PageRank и запоминания текста ссылок, Google хранит шрифтовой размер и смещение каждого слова относительно начала документа. Благодаря тому что система знает конкретное место каждого слова в документе, становится возможен так называемый поиск по наиболее близкому расположению слов друг относительно друга. Например, по запросу <слово1 слово2> ИПС найдет много документов у себя в базе данных, но в отчет в первых строках пойдут только те, в которых <слово1> находится максимально близко слева от <слова2>.
Всю основную работу по просеиванию сквозь себя содержимого Сети выполняют Интернет-роботы. Каждый из них берет один адрес из базы данных URL-сервера, скачивает и передает содержимое странички на сервер хранения документов. Необходимо отметить, что все содержимое сервера хранится в заархивированном виде для увеличения его вместимости.
Другая программа - индексатор - занимается тем, что разлагает текст документа на составляющие его слова, запоминая при этом местонахождение, шрифтовой вес, а также написано ли слово заглавными или строчными буквами и принадлежит ли оно к категории «особенных» (названия документов, метатеги, URL'ы и тексты ссылок). Вся эта информация складывается в набор контейнеров, именуемых на рисунке прямым индексом.
Идентификаторы слов берутся из словаря, который постоянно пополняется. Одновременно с этим индексатор просматривает содержимое тегов <a></a> и проверяет корректность всех ссылок в службе разрешения имен DNS (domain name service). Если ему встретился URL, которого нет в базе данных по doc_id, он пополняет не только ее, но и коллекцию ссылок. В дальнейшем этот Интернет-адрес попадает в URL-сервер и круг замыкается. Система поиска новых документов, при условии, что на них хоть кто-нибудь ссылается, становится самодостаточной - она сама себя подпитывает.
Для разрешения этой проблемы обновления разработчики предусмотрели ручную форму регистрации ресурсов в поисковой системе. Введенные в нее адреса после проверки на корректность также попадают в URL-сервер.
Описанная выше структура прямого индекса не очень удобна при поиске документов на основании встречающихся в них слов. Чтобы решить эту проблему, был введен так называемый инверсный, или обратный, индекс. В нем любому слову из словаря соответствует набор doc_id-документов, в которых это слово встречается. Работой по постоянному формированию инверсного индекса занимаются сортировщики. Так как, во-первых, всегда появляются новые документы и, во-вторых, обновляются старые, индекс приходится постоянно перестраивать.
Качество поисковой системы, как уже было отмечено, зависит не только от количества проиндексированных документов, правил их отбора в итоговый список, но и от того, как часто Интернет-роботы заново проверяют содержимое ранее обработанных сайтов. Google распараллеливает работу между несколькими роботами, причем каждый из них при скачивании может «отвлекаться» на другие дела.
Особенности
Полная поддержка фреймов
Типы индексируемых файлов - PDF, CGI, ASP, JSP, CFM, PHP.
Поддержка метатэгов - самый важный тэг - title.
Обновление базы - раз в 60 дней.
Среднее время индексации - от 48 часов до 2 недель.
Быстрой индексации нет.
Предоставляет данные для - Topclick.com, Yahoo, Netscape, EarthLink.net
Ключевые слова должны упоминаться в первой трети документа. Необходимо использование синонимов и слов по выбранной теме по всему сайту.
Рекомендуемая частота ключевых слов - от 0 до 12%.
При отсутствии внешних ссылок документ не будет проиндексирован.
Зарегистрируйте домен, содержащий ключевые слова.
Каждая страница должна иметь ссылки, ведущие на другие страницы сайта.
Нет необходимости регистрировать саму страницу - в базу она попадет только, если Google знает хотя бы одну страницу, ссылающуюся на вашу.
Изучите запросы, на которые вы ориентируетесь - совпадение порядка слов на странице с порядком слов в запросе очень важно.
Используйте точную фразу запроса в тексте и тэге title. Для большего эффекта удостоверьтесь, что alt-тэги и имена графических файлов на странице содержат ключевые слова или их синонимы.
Используйте текстовые ссылки. Текст ссылок учитывается при определении релевантности.
Старайтесь ставить ссылки на другие сайты, только если они совпадают с вашим по тематике.
Оптимальное число внешних ссылок на ваш сайт - не менее 50.
2.5. Другие поисковые системы
*адрес поисковика (адрес регистрации сайта)
- http://go.mail.ru/ (http://poisk.mail.ru/cgi-bin/add_url.cgi)
- http://rubrik.ru/ (http://rubrik.ru/add_site.php)
- http://punto.ru/ (http://punto.ru/add)
- http://www.uazone.net/ (http://www.uazone.net/go/addurl.cgi)
- http://webfind.ru/ (http://webfind.ru/add.lxml)
- http://search.com.ua/ (http://search.com.ua/cgi-bin/add_link.cgi) - только Украина
3. Каталоги
3.1. Региональные
*регион - адрес - адрес регистрации сайта
Республика Мордовия (Саранск) - http://mordovia.ru
http://www.mordovia.ru/addurl.php
Республика Татарстан /Татарстан/ (Казань) - http://kazan.ru
http://kazan.ru/list/ захлдите в нужную категорию и добавляете сайт
Удмуртская Республика (Ижевск) -http:// izhevsk.ru,
http://izhevsk.ru/links/cgi-bin/add.cgi
Хабаровский край (Хабаровск) -http:// khv.ru
http://list.s3n.com/bin/add.cgi
Волгоградская область (Волгоград) - http://volgograd.ru
http://volgograd.ru/registration/
Калужская область (Калуга) - http://kaluga.ru
http://www.kaluga.ru/sites/?action=frm
Курская область (Курск) - http://kursk.ru
http://kursk.ru/list/add/
Нижегородская область - http://wvw.nn.ru/
http://wvw.nn.ru/catalog/rub/add_resource.php
Санкт-Петербург - http://spb.ru
http://www.spb.ru/index.php?pg=137
Ростовская область (Ростов-на-Дону) - http://rnd.ru
http://rnd.ru/addurl.htm
Тамбовская область - http://www.tamb.ru
Форма регистрации на главной странице
Томская область (Томск) - http://tomsk.ru
http://www.catalog.tomsk.ru/add.php
Читинская область (Чита) - http://chita.ru
http://www.chita.ru/list/index.php?adl=1
3.2. Основные
- wwwru http://www.ru/rus/index.add.html
- yaca.yandex.ru http://webmaster.yandex.ru/catalogue_free.xml
- wwwruspoisk.ru http://www.ruspoisk.ru/reg.php
- wwwivlim.ru http://www.ivlim.ru/addurl.asp
- wwwbizz.ru http://www.bizz.ru/?pgid=35
- wwwramblers.ruhttp://www.ramblers.ru/cgi-bin/top/registr.cgi
- wwwulitka.ru http://www.ulitka.ru/new_source.shtml
- ivan.susanin.com http://ivan.susanin.com/add_url.phtml
- hotlinks.ru http://hotlinks.ru/cgi-bin/form.pl
- wwwvsego.ru http://www.vsego.ru/addurl.phtml?add
- index.agava.ru http://index.agava.ru/cgi-bin/add.cgi
*все не перечислить, но крупные можно
4. Оптимизация не-HTML-сайтов
4.1. Flash.
Для поисковиков flash-вставки является всего лишь графическим файлом. А все поисковики анализируют текст и всегда игнорируют графику. Другая проблема состоит даже не в том, что контент Flash-страницы будет проигнорирован, а в том, что ссылки, содержащиеся в анимации, также буду проигнорированы - индексация сайта остановится на первой же странице flash-сайта.
Во-первых, если уж делаете сайт целиком во Flash, позаботьтесь о хорошем заголовке страницы (элемент "title") и тексте в метатеге "description".
Во-вторых, когда будете делать ссылки, поместите на странице несколько стандартных ссылок вида <a href>. В этом случае поисковые роботы смогут проиндексировать больше одной страницы вашего сайта.
В-третьих, там, где возможно, перенесите текст из Flash-ролика во внутрь HTML. Если вам необходимо соблюсти точное положение ролика на странице - воспользуйтесь XHTML и CSS.
4.2. PDF
В то время как большинство ведущих поисковиков способно прочесть и проиндексировать содержимое PDF-файла, всё же существуют некоторые ограничения - поисковики могут проиндексировать лишь первые несколько сотен или тысяч символов. Кроме того, размеры PDF-файлов часто превышают 100 килобайт, что увеличивает время на их загрузку.
Во-первых, убедитесь, что PDF-файле есть текст. В противном случае к чему беспокоиться об индексировании документа, если в нет ни одного слова.
Во-вторых, точно также как и при оптимизации веб-страниц, убедитесь в том, что в вашем PDF-документе имеются ключевые слова и фразы. Выделяйте эти ключевые слова как только можно (используйте их в оглавлении, в названиях страниц и т.п.). Если вы считаете, что данные слова важны, так же будут считать и поисковые системы.
В третьих, если ваш PDF-файл слишком велик, подумайте о том, чтобы разделить его на несколько менее крупных документов. Благодаря этому из документов в базу индексации поисковиков попадет больше текста. Также попробуйте на HTML-странице написать краткий обзор того, что содержится в PDF-файле, и рядом поместите ссылку на PDF-документ.
Размер PDF-файла можно сократить еще больше, например, сократив число шрифтов, применяемых в нём. Помимо того, что размер файла уменьшится, ваш документ приобретет более строгий дизайн.
4.3. Мультимедиа
Создавая мультимедийный файл, не забудьте про метаданные (ваше программное обеспечение попросит вас об этом). Заполните их эффективной и правильно структурированной информацией.
Общепринятые мета-определители, которые необходимо заполнить, таковы:
Title (заголовок/название файла)
Author (автор/исполнитель)
Copyright (авторские права)
Description (описание)
Позаботьтесь о том, что страница, которая ссылается на них,:
содержит осмысленный текст в ссылке на файл
может быть найдена роботом-поисковиком
имеет понятный заголовок
При оформлении ссылки на медиа-файл не забывайте про атрибут "title":
<embed ... title="Пояснение ..."></embed>
или
<object ... title="Пояснение ...">Пояснение ...</object>
Поисковики при индексации учитывают также и имена файлов, так что старайтесь называть их как-нибудь вроде "widgets-html-editing.mov" и избегайте ни о чём не говорящих названий типа "wig1234.mov".
5. Основные правила оптимизации
1. Поисковые машины индексируют текст. Страница с недостаточным количеством текста имеет мало шансов попасть в список ответов на запрос.
2. В тексте на страницах сайта старайтесь располагать ключевые слова как можно ближе к тэгу <body>. Большинство поисковых систем уделяют особое внимание первым нескольким строкам, идущим сразу после тэга <body>
3. Не набирайте слова в р а з р я д к у, если хотите, чтобы документ по ним находился.
4. Не набирайте слова БОЛЬШИМИ буквами без необходимости, если это не аббревиатура.
5. Точки и запятые прижимайте к слову, за которым они стоят, после них ставьте пробел. Иначе поисковые системы не распознают их как отдельные слова.
6. Чем длиннее документ, тем менее заметны в нем будут ключевые слова, заданные в запросе. Разбивайте длинные документы на более короткие.
7. Делайте ко всем картинкам в подписи ALT=’...’ и TITLE=’...’, можно вписывать туда основные ключевые слова.
8. Если ваш сайт имеет фреймовую структуру, то на первой странице нужно между тэгами <NOFRAMES>….</NOFRAMES> указать описание сайта и поставить ссылки на все страницы, которые Вы хотите проиндексировать.
9. Необходимо чтобы на все страницы, которые вы хотели бы видеть в поисковых системах, можно было попасть с главной страницы не более, чем в четыре "перехода". Как правило, индексирующие роботы не идут дальше, чем на четвертый уровень ссылок. Если в силу структуры сайта этого сделать нельзя, то следует создать на отдельной странице "карту сайта" (список URL всех страниц сайта) и разместить ссылку на страницу с картой на главной странице вашего сайта, чтобы поисковая система нашла эту страницу и проиндексировала с неё все имеющиеся ссылки.
10. <TITLE>....</TITLE>. Для всех поисковых систем этот тэг пользуется приоритетом перед keywords и description.
11 .Необходимо чтобы те слова которые написаны в заголовке страницы и тэгах "KEYWORDS" и "DESCRIPTION" встречались в основном тексте на странице сайта и желательно несколько раз.
12. Обязательно у каждой страницы вашего сайта должны быть разные заголовки в <TITLE>....</TITLE> и разные ключевые слова в мета – тэгах KEYWORDS и по возможности разное описание в DESCRIPTION.
13. Чтобы запретить индексирование определенных фрагментов текста в документе, пометьте их тегами: <NOINDEX>…</NOINDEX>
14. Внимательно следите за соблюдением русско-латинского регистров. Ошибочно вместо русской буквы 'р' используют латинскую 'p', вместо русского 'с' - латинское 'c'.
15. Не следует также использовать невидимый текст, в котором цвет шрифта совпадает с цветом фона.
16. Комментарии в документе роботы, как правило, не сканирует, используйте их по прямому назначению.
17. Целесообразно базовые понятия и ключевые для данного сайта слова включать в следующие HTML-теги. <title>, <h1>...<h4>, <b>, <strong>, <u>.
18. Поисковые системы принимают во внимание текст рядом с изображением. Так что убедитесь, что текст вокруг изображения и текст в ALT теге имеют сходство.
6. Особенности сайта построенного на фреймах.
Вопрос о том, использовать фреймы, или не использовать стар, как сами фреймы. У многих существуют опасения, что поисковики не будут (или будут, но не правильно) индексировать их сайт, из-за того, что его структура основана на фреймах.
Очень часто сайт с фреймовой структурой выглядит стандартно: слева - меню и логотип, остальная часть экрана - информационное содержание. И когда вы прокручиваете вниз содержательную часть, меню остается неподвижно.
HTML код сайта на фреймах, вы увидите TITLE - заголовок, META описание и FRAMESET. И это все! Многие поисковые системы разработаны так, что их пауки основное внимание сосредотачивают на тексте содержания страницы, а не на ее META описании, но в данном случае никакого содержания паук не увидит, т.к. все содержание находится на другой странице.
В HTML есть тэг NOFRAMES, который когда используется должным образом дает паукам информацию о том, как правильно индексировать ваш сайт.
Не используйте в NOFRAMES всякие подобные предупреждения типа: "Вы используете броузер, который не поддерживает фреймы, пожалуйста обновите версию вашего броузера".
Если вы хотите, чтобы сайт на фреймовой основе был номально проиндексирован поисковыми системами, то грамотно используйте тэг NOFRAMES, а именно между NOFRAMES и /NOFRAMES вы должны вставить весь HTML код вашей вложенной страницы.
Пример
<HTML>
<HEAD>
<TITLE>Ваш заголовок</TITLE>
<META NAME="Description" CONTENT="описание">
<META NAME="Keywords" CONTENT="ключевые слова, фразы">
</HEAD>
<FRAMESET>
<FRAME SRC="navigation.html" NAME="nav">
<FRAME SRC="main.html" NAME="main">
<NOFRAMES>
<BODY>
Тут вставляете HTML код файла main.html (только то что в BODY). Теперь поисковые системы правильно проиндексируют ваш сайт. Но это еще не значит что ваши страницы выйдут на первые позиции в поисковиках. Поисковые системы лишь правильно будут индексировать то, что у вас написано, а вот оптимизировать HTML код все равно придется, иначе толку будет мало.
Выше рассказаное относится лишь к титульной странице, но нужно проиндексировать весь сайт, т.е. требуется чтобы паук пошел по ссылкам вглубь сайта.
Иногда веб мастера используют для навигации левый фрейм и там содержатся ссылки на другие странцы. Но на самих вложенных страницах никаких ссылок нет. Это плохо.
Так, если вы оптимизировали вложенные страницы и одна из них заняла высокое место в поисковиках, то когда пользователь приходит с поисковой системы на такую страницу, он не видит ни навигационного меню, ни других ссылок ведущих его на другие страницы сайта. Можно конечно, посмотреть на URL и набрать адрес корневого каталога, но врядли пользователь будет устранивать себе лишние проблемы, он просто уйдет.
Вывод: Дублируйте навигационные ссылки на всех вложенных страницах, или по крайней мере ставьте ссылку, которая ведет на главную страницу.
7. Особенности индексации страниц форума
Форум, постоянно пополняемый сообщениями, очень быстро превращается в довольно увесистую часть сайта. Разрастающийся контент создает определенные трудности при индексации страниц поисковыми пауками. Если проанализировать содержимое форума, то можно заметить, что некоторая часть его контента является мало информативной для поисковика. Это относится к таким разделам форума, как список пользователей, личные сообщения, календарь, статистика, поиск, создание новых сообщений и ответов, помощь и др. Т.к. объем информации, которая может быть проиндексирована спайдером на странице, ограничен, то нужно обязательно закрывать не несущие смысловой нагрузки части страниц от индексирования.
Под особый «карантин» должна попасть страница со списком зарегистрированных пользователей или с описанием профилей пользователей. Такие страницы содержат большое количество исходящих ссылок на личные и корпоративные сайты участников форума, которые могут существенно снизить вес данной страницы внутри сайта.
Рассмотренные выше ограничения декларируются в файле robots.txt. Таким образом для индексации должна оставаться открытой только самая существенная информация, т.е. заголовки тем, сообщения по ним, а также ссылки, ведущие с форума на поддерживаемый им сайт.
Довольно часто владельцы форума оптимизируют его главную страницу под запрос «форум». Безуспешность подавляющего большинства подобных попыток связана с тем, что данный запрос является одним из самых высококонкурентных. Более успешной будет оптимизация под выражение «форум о <тематика форума>». Например, Форум об алкогольных напитках.
Яндекс на запрос «форум» выдает более 40 тысяч сайтов, «форум о» - около 10 тысяч и «форум про» - более тысячи сайтов. Приведенная статистика явно свидетельствует о том, что к выбору запроса, под который будет оптимизироваться главная страница форума, надо подойти с особым вниманием.
Если же попытка прорваться в поисковиках на первые позиции по запросу «форум» будет успешной, то пользы от этого будет немного. Обычно подобные старания оборачиваются большим количеством нецелевых посетителей, которые попав на тематический форум, оставляют много сообщений «не по теме». Поэтому модератору придется большую часть времени уделять очистке форума от несущественных сообщений.
Кроме вышеизложенных возможностей, которые должны быть учтены при продвижении форума в поисковых системах, нужно оценивать объем страниц. Возможные проблемы с неполной индексацией страниц больших размеров, приводят к рекомендации формировать страницы весом не более 100 Kb. Т.е., если тема активно обсуждается (например, раздел Ассоциации), и по ней появляется много сообщений, то при превышении некоторого веса для темы должна генерироваться новая страница.
При оптимизации страниц форума по объему нужно обратить внимание на графические изображения на страницах, добавляемые пользователями, в частности, на аватары. Пользователи часто не задумываются о скорости загрузки страниц, на которых каждому нику сопоставлено некоторое изображение, используют «тяжелые» не оптимизированные под веб картинки. Ограничить участников форума жесткими рамками на размер аватара довольно трудно, т.к. можно нарваться на недовольство посетителей, особенно начинающих. Поэтому более удобным вариантом будет незаметная для глаза пользователей оптимизация графики модератором форума, который приведет увесистые графические изображения к 2-4 без потери их качества.
Работа над форумом довольно трудоемкий процесс, который требует постоянного мониторинга и оценки полученных результатов. Однако затраты на оптимизацию форума под поисковые системы всегда окупаются и делают его эффективным двигателем для продвигаемого сайта.