Оптимальный вариант – если пользователя удовлетворят первые же сайты, которые выдаст ему поисковая система. Именно в целях максимального удовлетворения запросов клиентов и происходят обновления в поисковой системе. Если разбирать детально,
то делается это для того, чтобы улучшить выдачу и убрать из нее некачественные, по мнению самой поисковой системы, проекты. А еще для того, чтобы устранить ошибки, так называемые глюки, накрутки выдачи…
Стоит сказать, что на сегодняшний день поисковик достаточно в этом преуспел и те методы, которыми раньше можно было вывести сайт в топ буквально за три-четыре недели, на него сейчас уже не действуют. За это можно схлопотать или фильтр, или бан (полное исключение сайта из базы поисковика). Можно сказать, что это последствия воздействия оптимизаторов на так называемые дыры в поисковой системе.
Мы думаем, что вам интересно, о каких именно «старых» методах оптимизации идет речь и почему их нельзя использовать сейчас. И мы обязательно расскажем вам об этом.
Но не станем описывать классические и очевидные с логической точки зрения изменения, например почему московский сайт можно раскручивать только в Москве, а опишем те ситуации, которые вызывают максимальное количество вопросов и ответы на которые приходится постоянно давать людям.
Это будут вопросы, напрямую связанные с таким популярным нынче понятием, как «белая» оптимизация (продвижение сайтов без использования «черных» методов).
Почему нельзя брать тексты с других сайтов
Если мы обернемся в прошлое – взглянем на ситуацию, которая была, скажем, лет шесть назад, – то увидим, что алгоритмы поисковых систем были не такими «умными», как сейчас, и их можно было обходить.
Возьмем ситуацию с текстами (контентом сайта). Изначально можно было скопировать статью с другого сайта, поменять слова в предложении местами, вставить ключевые слова – и вуаля! – мы поднимаемся на хорошие позиции (причем стоит отметить, что для старых сайтов этот прием до сих пор периодически срабатывает).
Или другой вариант: можно было взять несколько статей с разных сайтов и объединить их в одну. (Помните, выше мы уже шутили по поводу того, что копирование из одного источника – это плагиат, а из нескольких – уже докторская диссертация? Это из той же оперы.)
И такой прием некогда срабатывал – поисковая система расценивала подобные тексты как уникальные, сайт поднимался в выдаче.
Отметим, что примерно этот же метод (но только, если можно так выразиться, более «человечный») используется сейчас для раскрутки интернет-магазинов. Объясним, каким образом. Допустим, один и тот же одинаковый прайс-лист используется в ста интернет-магазинах. Как вы понимаете, менять названия товаров в прайсе нельзя, поэтому нужно как-то выкручиваться. Вот часть контента и будет неуникальная – с других сайтов. А другая часть – это уже абсолютно уникальные тексты, написанные специально под данный сайт. И против такого симбиоза поисковик ничего не имеет.
Однако в целом в прошлом наблюдалась довольно нехорошая тенденция, а именно: каждый мог создать множество сайтов с помощью текстов, заимствованных нечестным путем, а проще говоря, ворованных с других ресурсов.
Скажем больше: такие сайты делались автоматически, а потому те самые кристально честные веб-мастера, которые писали тексты с нуля, находились, мягко говоря, в неловком положении: можно было корпеть, стараться, писать уникальный текст, а потом обнаружить, что его украли. Причем тот сайт, на котором разместился украденный текст, мог оказаться выше в выдаче, нежели сайт с первоисточником.
А что же сейчас?
А сейчас поисковая система ранжирует сайты с помощью фильтра, выявляющего уникальность/неуникальность текстов. Если выясняется, что сайт берет тексты с других ресурсов и размещает их у себя, то он признается некачественным и частично либо полностью удаляется из поисковика. Правда, эти фильтры работают неидеально – и отсеивается плагиат не всегда.
Именно поэтому выше мы неоднократно говорили о том, что важно писать много качественных – и главное уникальных! – текстов.
Почему нельзя прятать оптимизированный текст
Итак, почему же этого нельзя делать даже в том случае, если «он портит вид моего потрясающего дизайна», «все равно его никто не читает» и т. п.?
Такие просьбы и пожелания – отнюдь не редкость. Оптимизированный текст может быть не таким эффектным, как того хотел бы владелец сайта, не слишком интересным, не вписывающимся в общий дизайн проекта. К тому же владельцу может казаться, что такой текст никто не будет читать – и зачем тогда его размещать на виду, если он будет только место занимать?
Или же другая ситуация: раньше можно было продвигать только главную страницу сайта, поэтому брались, грубо говоря, сто запросов, и писался текст, где по два-три раза нужно было употребить каждый из них.
В итоге получались гигантские тексты, которые было невозможно читать. Такие тексты мешали пользователям – среди этих «простыней» текста сложно найти необходимую информацию. К тому же одна страница не могла в полной мере отвечать сразу на сто запросов.
Тогда оптимизаторы начали прятать тексты – полностью или частично скрывать их на странице или закрашивать под цвет фона, чтобы они сливались с общей картинкой. С помощью этих хитрых способов можно было также вывести сайт в топ – раньше поисковая система пропускала подобные сайты.
А что же сейчас?
А теперь можно легко получить фильтр (штраф) за сокрытие текста, например, если вы полностью или частично скрыли текст на странице или закрасили его под цвет фона. И если вы написали чересчур большой текст, снова можно нарваться на фильтр.
Это мы к тому, что многие владельцы сайтов просят скрывать тексты от пользователей, но, как видите, это чревато неприятными последствиями.
Почему я (или мой сотрудник) не могу сам написать тексты и оптимизировать их
На самом деле, конечно, можете. Но лучше проявлять самостоятельность только в том случае, если вы знаете, как писать тексты, чтобы не впасть в немилость у поисковой системы.
Дело в том, что раньше ситуация была такова: чем больше в тексте ключевых слов, тем выше сайт в выдаче. Незамысловатый алгоритм. Поэтому оптимизаторы, копирайтеры и другие «правнуки Чехова» создавали тексты, которые невозможно было читать (обилие ключей резало глаза и мешало восприятию сути текста, не говоря уже о том, что зачастую в предложениях хромали орфография, пунктуация).
А что же сейчас?
Сейчас в поисковой системе существует фильтр, определяющий плотность ключевых слов. К примеру, на свет появился молодой сайт. На нем разместили тексты, состоящие сплошь и рядом из одних ключевых запросов. Такой текст может частично или полностью попасть под фильтр из-за обилия ключей.