VIASET eng

Здесь я пишу о том, что мне интересно

Всегда в топе

· профессиональный аудит сайтов
· продвижение проектов любой сложности
· консультации по всем этапам продвижения
· блокады сайта фильтрами поиска
· стратегии непоискового продвижения
· создание компаний контекстной рекламы
· корпоративные аккаунты в соцсетях
· вывод сайтов из под ручных санкций Google
· вывод сайтов из под санкций Яндекс
· гарантированное удаление любых ссылок
· индивидуальные консультации

ноябрь 14, 2012, 15:16

Google vs. черное SEO




«Черные шляпы» настойчиво теснят позиции Google. Панды, пингвины, и прочая чистка поисковой выдачи, в том числе и путем предоставления лучших условий для тех, кто пользуется брендовой тактикой, все это, несмотря на первичную эффективность, в итоге, уступает хитрым методам представителей черного SEO.

К примеру, такая известная газета как The Independent опубликовала материал, в котором рассматривается анализ положения сайтов, предлагающих краткосрочные кредиты. Понятно, что ниша отличается очень высокой конкуренцией, но все же, как ежедневно появляющиеся сайты с подобными предложениями, умудряются занять высокие позиции среди себе подобных? Такая же ситуация просматривается и среди сайтов азартных игр и прочих высококонкурентных сфер интернет-деятельности.

В чем скрыты «хитрости» черных оптимизаторов и как Гугл может с этим бороться?


Попасть в топ выдачи для черного сеошника – довольно не сложно. Если проверить, откуда идут ссылки на любой из сайтов в топ-10 англоязычного Гугла по запросу «payday loan», то станет ясно, что основными «поставщиками» таких ссылок являются блоги или сети сайтов (некое подобие ботнетов, но созданных вручную, с целью «поддержки» одного-двух главных сайтов). Как правило ссылки на блогах ставятся либо их владельцами, либо, что происходит гораздо чаще, самими черными сеошниками после взлома блога. Опять-таки, если посмотреть на топ-10 выдачи Гугла то становится ясно, что это, как правило, еще очень и очень молодые сайты.

Логичнее всего, такая ситуация объясняется взломом блогов, после которого специальный код, выдает целую кучу «правильных» ссылок на соответствующий домен.

Создав необходимую сеть сайтов самостоятельно, либо путем взлома блогов, ее эффективность в «поднятии» сайта, сначала тестируется на каком-нибудь неизвестном портале, владелец, которого и не подозревает о таком подарке. Как только этот сайт появляется в топе поисковой выдачи, тесты прекращаются и вся сеть нацеливается на вполне конкретный домен. Как правило, хватает пары недель, усиленной «бомбардировки» ссылками, после чего позиции сайта в выдаче начинают резко расти.

А как же Пингвин?


Почему, в таком случае, боты Гугла допускают такое непотребство прямо у себя под носом? И здесь появляется очередное хитрое изобретение черных оптимизаторов.

В-первую очередь, надо понять принцип работы «пауков» от Гугла. Итак, Googlebot сканирует сайты, «читая» их код. Но, тут появляется интересная гипотеза, основанная на визуальном представлении сайтов в выдаче, новомодных браузерах без пользовательского интерфейса и том, что известный всем Google Chrome изначально помогает исследовать веб всему Гуглу. Так вот, гипотеза заключается в том, что поисковая машина не только «читает», но и «видит» страницы сайта. Однако, для этого необходимо предположить, что «текстовые» и «визуальные» боты не обмениваются информацией. Черные сеошники предположили такую возможность, и, похоже, не ошиблись.

Дело в том, что если ссылку спрятать в «сильном» месте с помощью CSS-скрипта, которое передаст весь свой вес, то это поможет обмануть паука и оставит сайт в топе выдачи.

Часто такие ссылки не то что невооруженным глазом, а даже глазом вооруженным гуглопауком – трудно разглядеть. И неудивительно, вы часто смотрите в заголовок, особенно на пиксель расположенный в какой-нибудь -9999px позиции? Вот поэтому недобросовестные сайты и задерживаются в топе поисковой выдачи на длительное время, пока в их хитрости не «разберется» сам Гугл.

Более того, в результате этого приема, Гугл сам, как бы способствует черным оптимизатором, потому как еще в 2004г. Гугл решил, что ссылки, стоящие в заголовке должны цениться выше и предложил придавать таким ссылкам больше релевантности.

Когда-нибудь, Гугл поймет, в чем дело, и тогда Песочница, или панда с пингвином «отомстят» заносчивому сайту, но пока это не произошло, недобросовестный владелец продолжает получать прибыль, и вполне вероятно, к тому времени как Гугл разберется с проблемой, накопит достаточно денег, чтобы обойти очередную «заплатку».

Что же делать Гуглу в такой ситуации?


Впрочем, с высокой долей уверенности, можно утверждать, что специалисты Гугла, прекрасно понимают, в чем дело (не зря же они создали Пингвина?!). И все же, что можно сделать (имея деньги и силы)?

Проверить все вручную. Такой подход кажется наиболее логичным и простым, но практически невозможным для гугла, поскольку, поисковик сразу, же начнут обвинять в редактировании результатов поисковой выдачи. Ведь такой подход подразумевает, ежедневную ручную проверку сайтов, которые попали в выдачу по тем или иным фразам, а также проверку ссылочного профиля этих сайтов, возраста домена и многих других факторов.

Проверить редирект 301. Иногда явно черное продвижение уходит от фильтров и возвращается в в топы выдачи из-за редиректа с уже подозрительных доменов, на новые. Гугл, в общем-то, может начать поиски таких редиректов, особенно при анализе доменов из топа выдачи, а также начать исторический анализ и проверить уже фильтруемые домены на наличие редиректов.

Проверить работу пауков. Иными словами, хорошо бы было, объединить работу всех гуглопауков. Как? Например, заставить их обмениваться информацией, или же собирать данные от каждого и них в централизованное хранилище, после чего проводить ее анализ. Такой метод, наверняка, позволит довольно быстро вывести всех черных оптимизаторов на чистую воду и решить проблему невидимых ссылок.

Данные примеры, будут особенно эффективны, если подтвердится идея о том, что Chrome является браузером, лишь, во-вторых, а во-первых – он самый, что ни на есть паук (поисковый краулер).

Правда, не совсем ясно, что в этом случае делать со взломанными блогами. Вероятнее всего, потребуется ручная проверка. Но в любом случае, только от Гугла зависит, как скоро он решит проблему черных оптимизаторов.



Поделитесь постом

f t                                                                         

Вам будет интересно

Если вас заинтересовали мои услуги


Мои расценки


Аудит сайта
от $900
срок исполнения 6 рабочих дней


Консультация
$200-$400 в час
в рабочее по Москве время


Мои реквизиты


OK Technologies
Zona Tebquinho, Santa Maria,
4111, Cape Verde
+213 913 77 28

+213 913 77 28Продвижение сайтов
TOP