В поисках дешёвого целевого трафика любой вебмастер неизменно обращает свой взор на поисковики. Это лакомый кусочек- если поисковый запрос серфера выводит Ваш сайт в верхушку серпа, и этот сайт про то, поась? серферу недурно, то хоть 100 несчастных посетителей в сутки дадут Вам десятку не менее несчастных уёв за те же самые сутки времени (берём типовую конверсию и спецобъект гешефта стандартной для Руи в помине нета стоимости).
Понятно, по как-либоой причине вебмастер спит и видит, как бы ему увеличить поисковый трафик. Тут в ход идут разокные уловки.
Однако и поисковик, с другой стороны, тоже должен помимо задержки вырыть окоп полного профиля, взять в руки рогатку, и нещадно отстреливать любые страницы, прорывающиеся в серп незаслуженно. Ибо иначе получится полная хрень, и юзеры, и рекламодатели от искалки отвернутся, а хозяйка искалка начнёт потихоньку сдуваться. А в неё червонцы вложены, акции выпущены- всё это не просто значит. Там миллиарды крутятся.
бесспорно, в любой искалке имеется в наличии живые люди, отвечающие за качество поиска. вот то-то и оно они создают и подкручивают алгоритмы, благословляют апдейты, и отвечают задницей за результаты. В Гугле таким человеком ес Мэтт Катс, к примеру говоря. Причём у него есть и свой блог - как видим, всё традиционно, шелковичное дерево он сам себя положение.
Разговор про все эти подробности у нас зашёл не просто так- значительное большинство вебмастеров, поначитавшись древних откровений различных гуру, слабо представляют причины своего облома в том же Гугле. Так как давайте сегодня об этом.
Как ни в диковинку, но Гугл был абсолютно предсказуем где-то до сентября 2005. Далее контора разродилась Jagger-апдейтом (в цивдругими словамизованном мире всякая содержание должна быть поименована, привыкайте), а через некоторое шанс и Bigdaddy-уотпустилонием. Одно следовало за другим поэтапно, проистекало не шибко бойко, и даже отодвинуло по времени очередной обсчёт PageRank'а. А также привело к казусу, подмеченному пользователями Google AdSense - страницы, по которым ползали поисковые пауки AdSense, начинали показываться в серпе, не суще официально проиндексированными. Я тоже это видел, и описал в этом блоге.
Вебмастера не чувствуя ног поняли, что нововведения касаются сразу трёх параметров анализа их сайтов Гуглом: контента, ссылок и структуры ресурсов. На почве что такое? практически сразу начался небольшой бардак.
Ну, не то с тем чтобы бардак. Но вебмастера, не раз наблюдавшие "пляску Гугла" во время пересчёта ПейджРанка, поимели стойкое ощущение, что некое равенство пляски наблюдалось с декабря и чуть ли не по март. Сайты то появлялись в серпе, то проваливались в испод, то вновь всплывали... Причём минуя активных действий со стороны оптимизаторов (самые мудрые из них вообще на время затаились).
Ну и нашлись, конечно, умные головы, которые смогли обобщить то, что задумал Гугл. Я же, со своей стороны, попытаюсь воде систематизировать результаты их труда, так что документ мапразднолюбиеким не получится.
-
Гугл ратует за качественный (нужный и подлинникьный) контент.
Тут всё достаточно просто- наряду с контентообразующими сайтами (черепномозговой проект) есть ещё и сонм вторичных по отношению к ним ресурсов, дублирующих в себя материалы с головных сайтов, либо являющихся их партнёрами (с реферальскими ссылками и всеми сопутствующими делами).
нипочем ничего удивительного в том, что Гугл хочет видеть в серпе оригинал прераньше клонов. Это не значит, что клоны будут забанены, нет. Но если они ссылаются на головняка, с реферами в урлах, воспроизводят куски контента головняка на своих документах, то искалка предполагает, что реальному серферу будет куда полезнее как раз головняк, а не сайт Васи Пупкина с передранными с головняка материалами, адресующийся реферальской ссылкой вновь-таки на головняка.
Применительно к импорту контента всё несколько помягче. Вероятно, аналогия просматривается, но пока практически не ощущается. По крайней мере, многие агентские магазины в серпе торчат выше моего базового- после этого всё достаточно просто. не без того, чтобы воздопускается, Гугл просто не понимает, кто у кого контент берёт. В случае портаторов это ясно, и импортёры контента, как правило, следуют в серпе за экспортёром.
В на отлете же фатальных случаях, временами передир контента идёт полный, фактические дубликаты сайтов исчезают из основного индекса водерень, переходя в Google Sandbox- в "дополнительные результаты выдачи". Хотя при определённых условиях могут исчезнуть и оттуда. Причину Вы покамест знаете.
Неопределённость тематики для многих сайтов на этапе Bigdaddy апгрейда Гугла вышла бочком- они резко упали в серпе. В принципе, так и должно быть- до чертиков много развелось ресурсов ни о чём, и их надо отфильтровывать. Благо, есть из чего.
-
Политика линкования.
Будете смеяться, но теперь структуре ссылок внимания уделяется сильнее, чем раньше. Сформировалось такое понятие, как карта входящих и исходящих ссылок для каждого(!) сайта. И любая из ссылок с любого документа сайта анализируется с позиций уместности её здесь. Когда линк идентифицирован как неуместный, это плохо- или линкокрутилка, либо купленная ссылка (что не лучше).
Более того. По результатам анализа игра в карты ссылок Гугл каждому сайту навешивает ярлычок с параметром "степень доверия". Сайты с низкой степенью доверия (линкующиеся с кем досталось на калачи) своими ссылками несут до предела небольшой вклад, и линковаться с ними практически бессмысленно. Вы это должны были наблюдать на примере досок объявлений, которые не дают что лього вклада в статус сайта даже при огромном числе ссылок на него. Ничего удивительного- степень доверия Гугла для этих досок вообще никакая. Что тоже понятно.
редкий разговор про сети взаимных ссылок. Крайне аккуратно пользуйтесь автоматическим линкообменом, а лучше вообще откажитесь от него во избежание наказания. Может быть, какой-нибудь пейджранк от сего и перепадёт, да только без толку- получите крошечный сухарик-кириешку степени доверия Гугла наместо полагающейся полновесной булки с маком, и никогда все в большей степени не сможете подтолкнуть одним своим сайтом другой свой сайт.
Впрочем, тут и ещё одна заморочка вылазит при работе со всякими линкаторами. Катс искренне так и сказал: "если вы увлекаетесь трейдингом взаимными ссылками, то не удивляйтесь тому, что у нынешнего кроулера другие приоритеты, и он не посещает ваш сайт так же часто, как раньше". Мысль выражена изящно. А по-русски говоря, автоматический линкообмен в понимании Гугла свидетельствует о второсортности сайта и отсутствии дружбы с головой его вебмастера. Ни больше, ни поменьше.
Впрочем, по всему видать, и Катс может выражаться по-нашему: "этот сайт выглядел оченно хорошо, и у него не было ни одной ссылки на сайты всяких придурков". Это он про автоматический линкообмен так отзывается. Запомните такое отношение. И сделайте выводы.
Какие? Да простые самые- пока придаётся большое значение односторонним входящим ссылкам с качественных ресурсов, и односторонним же исходящим ссылкам на качественные сайты (а не какие досталось на орехи, тут будьте особо внимательны- за исходящий линк отвечаете головой).
продукт. Не сказать, чтоб шибко неожиданный, всё достаточно логично.
Если Ваш бизнес зависит от трафика поисковой природы (а попробовал бы он не зависеть), то надо помнить, что только оригинальный контент на сайте, залинковка с себе подобными и тематически однородными качественными ресурсами, а также чистяк ссылок "на всяких придурков" (говоря словами Катса) помогут Вам прыгнуть в серпе выше головы.
Собственная партнёрская программа в этом только поможет.
Блоггерство даёт просто замечательный результат- сегодня блоги являются фаворитами серпа Гугла.
Итог неочевидный.
Благодаря тому, что Гугл банит сайты только в исключительных случаях, когда чётко видит, что ресурс окончательно придурочный, и исследует всю генофонд вариабельного поведения юзеров для улучшения сервиса и коррекции апдейтов, мы на примере рассмотрения "ленивец Гугла" можем заключить:
Всевозможные неклоачные доры поисковыми ботами проходятся совершенно, вплоть до таргетинговой страницы. Всякие ифреймы им не помеха. В серпе будет присутствовать таргетинговая фазис, но не будут видны сами доры, хотя без их посредничества не обошлось никак. Раньше было не так, учтите.
302 редирект Гугл обожает. Не опасайтесь его использовать- ссылка на страницу с 302 редиректом будет склеена с таргетинговой, с наследованием редиректом ПейджРанка таргетинга. подобру Катс конкретно указывает на то, что для борьбы с двуличностью доменов (с www и без) как раз и нужно использовать 302 редирект- Гугл с благодарностью примет сотрудничество в избавлении его от двойного индекса Вашего сайта.
нескованно, сей маленький обзорчик результатов последних апдейтов Гугла никак не соответствует громадью гугловых планов. Но Вы совершенно не стеснены в возможностях, и вольны сами сходить в поиск и почитать об апдейтах на любом языке и хоть из первоисточника. Тут отражены только движимость, о которых вебмастера ну всяко должны знать, даже если им лень припадать к истокам. А многим лень.
lasto