olllg
Постоялец
- Регистрация
- 17 Фев 2007
- Сообщения
- 304
- Реакции
- 155
- Автор темы
- #1
нарыто в инете
Там, где останавливаются боты(из закладок)
Сообщество SEO’шников славится множеством различных мнений относительно обьема текста, индексируемого поисками на единичной web-странице.
Вопрос в том, насколько большой должна быть оптимизированая страница и где баланс между “слишком маленькой” страницей, которую поисковики сочтут неинформативной, и “слишком большой” страницей, на которой потенциально важный контент может остаться без внимания поисковиков? Насколько я знаю, еще никто не пытался ответить на этот вопрос с помощью собственного эксперимента.
Участники SEO форумов обычно ограничиваются цитированием рекоммендаций, опубликованых самими поисковиками. До сих пор святая уверенность SEO сообщества в то, что лидирующие поисковики ограничивают объем индексируемого текста пресловутой сотней килобайт, заставляет их клиентов чесать голову в попытках понять что делать с текстом, который выходит за эти рамки.
Эксперимент
Когда я решил поставить эксперимент, чтобы ответить на этот вопрос опытным путем, моими целями были:
Определить объем текста на странице, фактически индексируемого и кешируемого поисковиками.
Вычислить объем индексируемого текста, в зависимости от общего размера страницы.
Вот как проходил эксперимент. Я взял 25 страниц различного размера (от 45кб до 4151кб), ввел уникальные, несуществующие ключевые слова на каждую страницу с интервалами в 10кб (приблизительно через каждые 10000 символов (прим.пер.)). Ключевые слова генерировались автоматически, специально для эксперимента, и служили метками глубины индексации. Затем страницы были опубликованы, и я пошел сделать себе кофе, ибо ожидание прихода поисковиков обещало быть долгим....
читать далее и смотреть диаграммы здесь
Там, где останавливаются боты(из закладок)
Сообщество SEO’шников славится множеством различных мнений относительно обьема текста, индексируемого поисками на единичной web-странице.
Вопрос в том, насколько большой должна быть оптимизированая страница и где баланс между “слишком маленькой” страницей, которую поисковики сочтут неинформативной, и “слишком большой” страницей, на которой потенциально важный контент может остаться без внимания поисковиков? Насколько я знаю, еще никто не пытался ответить на этот вопрос с помощью собственного эксперимента.
Участники SEO форумов обычно ограничиваются цитированием рекоммендаций, опубликованых самими поисковиками. До сих пор святая уверенность SEO сообщества в то, что лидирующие поисковики ограничивают объем индексируемого текста пресловутой сотней килобайт, заставляет их клиентов чесать голову в попытках понять что делать с текстом, который выходит за эти рамки.
Эксперимент
Когда я решил поставить эксперимент, чтобы ответить на этот вопрос опытным путем, моими целями были:
Определить объем текста на странице, фактически индексируемого и кешируемого поисковиками.
Вычислить объем индексируемого текста, в зависимости от общего размера страницы.
Вот как проходил эксперимент. Я взял 25 страниц различного размера (от 45кб до 4151кб), ввел уникальные, несуществующие ключевые слова на каждую страницу с интервалами в 10кб (приблизительно через каждые 10000 символов (прим.пер.)). Ключевые слова генерировались автоматически, специально для эксперимента, и служили метками глубины индексации. Затем страницы были опубликованы, и я пошел сделать себе кофе, ибо ожидание прихода поисковиков обещало быть долгим....
читать далее и смотреть диаграммы здесь
Для просмотра скрытого содержимого вы должны войти или зарегистрироваться.