Язык
Контакты
GitHub
Поддержка
Регистрация
Войти
Логин: Пароль: Запомнить:
Пользователи
Голосование

    Какую CMS Вы предпочитаете

    AtomX
    Fapos CMS
    Drunya CMS
Последние комментарии
Автор: чайник, в новости:

Что такое API и для чего они нужны

Автор: HIshnik, в новости:

Классы в PHP для чайников

Автор: Аноним, в новости:

Написание простого вируса в блокноте

Автор: stream, в новости:

Создаем BB коды на PHP

Автор: boriska, в новости:

Релиз Atom-M CMS 4

Автор: 0leg, в новости:

Релиз Atom-M CMS 4

Топ пользователей
Drunya
Репутация: 108
Сообщений: 3531
Сашка_из_Шебекино
Репутация: 87
Сообщений: 1803
boriska
Репутация: 65
Сообщений: 846
ARMI
Репутация: 46
Сообщений: 1859
BAH0
Репутация: 26
Сообщений: 544
У всех поисковых системы и, в том числе, у Google есть система фильтров для своей выдачи. Большой процент сайтов в интернете это мусор(дорвеи, сателиты и т.д.), то есть созданы не для людей, а для перенаправления трафика на другие сайты, для влияния на выдачу поисковых машин и т. п., следовательно, чтобы выдача поисковика была качественной, этот мусор нужно хорошо отфильтровывать и не допускать попадания мусора. Отфильтровывать нужно таким образом, чтобы не в коем случае не пострадали нормальные сайты, иначе грошь цена такой фильтрации. А ведь нет четких критериев "нормальности", по-этому проблема фильтрации является довольно сложной, и она будет решена окончательно еще не скоро. Под фильтры часто попадают нормальные сайты, и причины этого определить зачастую очень сложно.

Анализируя информацию о фильтрах (а можно анализировать лишь мнения вебмастеров, так как сам Гугл не выкладывает никакой информации о своих поисковых фильтрах и технологиях), отчетливо видно, что фильтров множество, но все они сводятся практически к одному – раскручивай честно, что лично я считаю, очень хорошо. Поэтому нет смысла определять с высокой точностью, как называется наложенный на сайт фильтр. Способы выхода из-под них примерно одинаковы, а знание названия ничего не изменит. А не попасть под них еще проще - просто делайте все честно.

1. Sandbox, песочница. Фильтр, с которым сталкивается большинство новых сайтов. Проявляется в том, что первые месяцы работы сайта он принципиально не может занять первые места в выдаче, как его ни раскручивай. Песочница – это даже не фильтр а скорее это определенный испытательный период для новых сайтов. Причиной его введения, скорее всего, послужило желание отсеять короткоживущие дорвеи и не допустить их присутствия на лидирующих позициях в выдаче поисковых машин. До введения песочницы некоторым дорвеям достаточно было пробыть в ТОПе выдачи поисковика пару суток или даже часов, чтобы принести существенную прибыль владельцу. А если таких говно-сайтов много?

Пока сайт находится в песочнице, над ним нужно упорно работать, чтобы после снятия фильтра он сразу занял хорошие позиции. Многие почему-то просто хитрят, вешая на домен заглушку и ждут, но в этом нет смысла.

Есть мнения, что песочницы не существует, и ее эффект – это следствие действия группы других фильтров, например, прямого влияния возраста домена и траста. Как есть на самом деле совершенно не важно, так как эффект вполне очевиден, и его можно назвать отдельным фильтром. Иногда отдельно выделяют фильтр для молодых доменов.

Песочница грозит лишь англоязычным сайтам. Избежать песочницы или сократить срок пребывания в ней можно несколькими способами. Ни один из них не дает никакой гарантии, как и все что касается SEO:

- регулярно наращивать качественную (по возможности, естественную) ссылочную массу.

- Купить старый домен, на котором уже был возрастной трастовый сайт.

- регулярно обновлять сайт качественным уникальным и полезным контентом, отдавать его по rss. Заниматься копированием контента с других сайтов не следует.

- закрыть от индексации все лишние или не нужные страницы сайта, оставив лишь то, что нужно и полезно посетителям.

- не использовать излишнюю текстовую оптимизацию.

2. Фильтр "минус 30". Фильтр против тех, кто слишком активно и настойчиво продвигает свой сайт. Он не призван полностью выбросить сайт из выдачи, а создан, скорее, для того, чтобы дать понять хозяевам сайта что их спамерские методы не приемлемы. Причинами его наложения могут быть:

- стремительный рост ссылочной массы, особенно если эти ссылки стоят с мусорных, не качественных ресурсов – немодерируемых каталогов, гостевых книг, комментариев в блогах, форумов и т.п. По-этому не стоит активно пользоваться системами автоматической регистрации сайта в каталогах и подобных сервисах.

- наличие на сайте "ссылочных помоек" - больших, не модерируемых каталогов ссылок, блоков с рекламными ссылками на страницах, статей, опубликованных специально для размещения рекламы.

- использование в раскрутке клоакинга. Клоакинг – выдача разделенного содержимого пользователям и роботам поисковых машин. Посетителям показывается информационный контент, роботам – оптимизированные страницы для повышения поисковых позиций.

- использование переадресации при помощи java script. Следует использовать только серверные редиректы (301, 302). Конечно же, не любой java script приводит к этому фильтру, как многие считают.

Избавиться от фильтра можно избавившись от вышеуказанных методов продвижения и не используя их в дальнейшем. Удалив ссылочные помойки и почистив ссылочную массу, вы снимете фильтр с сайта.

3. Google Bombing. Остановка роста позиций по определенному ключевому слову. Причина – быстрый рост ссылок с одинаковым текстовым анкором. Целесообразность его достаточно сомнительная, особенно касаемо некоммерческих запросов. Устранить его можно, например, разбавив ссылочную массу анкорами с текстовым окружением, да и вообще усилить ее качественными ссылками.

Причиной введения данного фильтра был собственно "гуглбомбинг" - массовая закупка ссылок (зачастую многими людьми) с одним текстом на определенный сайт затем, чтобы продвинуть его по какому-то беспонтовому запросу. Громкий пример – первое место у сайта Макдональдса по запросу "ближайший общественный туалет" или у сайта Дмитрия Медведева по запросу "злобный карлик". Делалось это ради шутки, или для того, чтобы навредить конкуренту или же просто в качестве вирусного маркетинга неизвестно. Гуглбомбинг - следствие алгоритма ссылочного ранжирования, который, при наличии мощной ссылочной массы, практически не учитывает текстовое наполнение продвигаемой страницы. Впрочем, даже с введением этого фильтра избавиться от этого явления полностью не удалось.

4. Google Florida. Классический вариант пессимизации сайта – резкого падения позиций по всем продвигаемым запросам и, как следствие, падение трафика на несколько порядков. Накладывается за излишнюю оптимизацию страниц – перенасыщенность текста ключевыми словами, излишнее их наличие в тегах title, h1-h6, спамные мета-теги; по большому счету, за те действия владельца сайта, которые направлены на его продвижение, а не на улучшение с точки зрения пользовательского удобства. Фильтр работает не постоянно, а периодически; накладывается, в основном, на сайты, продвигаемые по коммерческим запросам. Это привело к тому, в частности, что на первых местах по многим поисковым запросам, даже по самым дорогим с точки зрения раскрутки, на первых местах находятся информационные или образовательные сайты, а не ресурсы, вкладывающие в продвижение большие деньги, что лично я, считаю нечестным. Раскрутка должна быть естественной, а не покупной.

5. Supplemental Results. Дополнительные результаты поиска ("сопли"), это то, что показывается после перехода по ссылке "повторить поиск, включив опущенные результаты". Главная причина этого – неуникальность во всех пониманиях этого слова, в том числе в пределах одного сайта, дублирование информации. Одинаковые по структуре и, тем более, по содержимому страницы страницы попадают в дополнительные результаты. В зарубежном интернете многие оценивают сайты именно по проценту содержания страниц в основной поисковой выдаче Гугла. Если этот процент ниже 30-40, то сайт считается неуникальным и не очень качественным. К наложению этого фильтра могут привести плохо настроенные движки, которые генерируют много дублирующих друг друга страниц, а также страниц, не несущих полезной информации пользователям. Такие страницы, естественно, либо вообще фильтруются, либо попадают в supplemental.

Для того чтобы избежать выпадения страниц в дополнительные результаты, следует, в первую очередь, использовать качественный уникальный контент, который действительно полезен пользователям. Во-вторых, нужно по максимуму исключить дублирование текстов в пределах своего сайта, закрыть от индексации все дубли. Этот фильтр зависит от запроса; по одному запросу страница может быть в основном поиске, по другому – в дополнительных результатах.

Вывести страницу из-под этого фильтра можно таким образом:

- покупка на нее трастовых ссылок с качественных ресурсов.

- уникализация title и мета-тегов.

- увеличение количества на ней уникального, качественного контента.

- уменьшение "битых" ссылок на сайте и, как следствие, страниц, выдающих ошибку 404.

- правильная настройка движка.

6. Фильтр на неуникальный контент. Быть может, не стоит выделять его как отдельное явление, но уж очень это массово. Страница, не содержащая уникального контента, попадет на первые позиции разве что заполучив огромную и трастовую ссылочную массу, да и то через долгое время. Из большого количества страниц, содержащих одинаковый текст, Гугл выбирает только несколько, которые и выдает в основной выдаче.

7. Фильтр на нерабочие ссылки. Позиции сайта могут понижаться, если на нем содержится много битых ссылок и страниц с ошибками. Избавиться от него можно, соответственно, избавившись от таких ошибок.

8. Фильтр на долго загружающиеся сайты. Если роботы Гугла не получают быстрый отклик от сервера, позиции сайта понижаются вплоть до полного исключения их из поискового индекса. Несколько лет назад от этого фильтра можно было эффективно избавиться, уменьшив вес страниц и изображений, находящихся на страницах. Сейчас же, когда интернет стал скоростным, и страница, даже занимающая несколько метров, загружается очень быстро, причины подобных задержек могут быть гораздо глубже. Например, в неправильно настроенных скриптах или сервере. Поэтому копать надо глубже, в том числе выяснить у хостера, не ограничивается ли доступ к сайту для роботов поисковых систем.

9. Фильтр цитирования (Co-citation Linking Filter). Суть этого фильтра сводится к тому, что ссылаться надо только на качественные сайты, которые, в свою очередь ссылаются тоже на нормальные ресурсы. Естественно, проследить всю цепочку ссылок невозможно, соответственно, следует исходить из того, что, ставя на своем сайте ссылку на другой, вы рекомендуете его посещение своим посетителям. А если рекомендуются плохие сайты, Гугл делает вывод о том, что сам сайт тоже является некачественным и таким, который не заботится о своих пользователях.

Фильтр может накладываться на сайты, продающие рекламные места в автоматическом режиме, и владельцы которых не особо тщательно фильтруют поступающие рекламные материалы.

10. Фильтр ссылочных помоек. К нему может привести активное участие в системах автоматического обмена ссылками и появление на сайте большого количества страниц, содержащих исключительно ссылки. Обмен ссылками должен быть ручным, меняться нужно только с ограниченным числом качественных сайтов. И первичным на самом сайте должен быть именно его информационное наполнение, а не каталоги ссылок, играющие вспомогательную роль.

11. Фильтр взаимных ссылок. Массовый взаимный обмен, с точки зрения Гугла, это плохо. Поэтому следует использовать более сложные схемы обмена ссылками, например, когда первый сайт ссылается на второй, второй на третий, а третий на первый. Есть и более запутанные схемы обхода фильтра. Многие сеошники создают целые сети сателитов с очень сложным хитросплетением ссылок, так что полностью искоренить такие сайты пока тоже не удается.

12. Фильтр очень быстрого прироста контента. Если сайт обновляется черезчур часто и активно, Гугл может заподозрить его в использовании генераторов контента или парсеров контента и, следовательно, понизить его позиции или исключить из выдачи. Поэтому при использовании подобных генераторов контента стоит поставить ограничение на количество добавляемого материала за определенный промежуток времени.

13. Google Bowling. Фильтр, существование которого подвергается сомнению. Суть его заключается в том, что он отслеживает сайты, занимающиеся нечестной конкурентной борьбой с целью загнать своих конкурентов под фильтры Гугла, например, массово закупая некачественные ссылки или рассылая спам.

14. Trust Rank. Степень доверия Гугла к конкретному сайту. Собственно фильтром траст не является, но сайту с более высоким показателем проще будет достичь высоких позиций. На него влияет фактически все то, что делает сайт интересным пользователям, в том числе и возраст доменого имени, который может говорить о серьезности намерений хозяина.

Надо помнить одно. Качественному сайту, который делается для людей, который регулярно обновляется качественной и интересной информацией, на которой появляются естественные ссылки, фильтры не грозят.
Фильтры Гугля

Теги: Google; Поисковые роботы; Оптимизация; Фильтры;
Источник: Drunya
Автор: Drunya
Категория: Дела SEOшные
Просмотров: 1847
Комментариев: 0

Сейчас online: 6. Зарегистрированных: 0. Гостей: 6.
-->