Без рубрики

Три главные ошибки начинающего СЕО-оптимизатора

Все новички, которые принимают решение обзавестись собственным сайтом, чтобы зарабатывать с его помощью деньги, в первую очередь думают о его раскрутке в поисковых системах. Конечно, существуют и некоторые другие варианты раскрутки сайтов, например, в социальных сетях или на тематических форумах или блогах, но, в конечном итоге, все равно все сводится к продвижению в выдаче поисковых систем. Надо заметить, что «правильный» сайт, если его раскручивать как-то иначе, рано или поздно (скорее рано) привлекает внимание поисковых роботов и заносится в базы поисковиков автоматически, в большинстве случаев против воли его владельца. И если сайт соответствует всем критериям, по которым поисковики оценивают веб-ресурсы, то он начинает получать поисковый трафик, и зачастую его масса гораздо мощнее, чем можно получить из социальных сетей или откуда-либо еще. И не найдется ни одного здравомыслящего вебмастера, который бы не переключился в итоге именно на поисковые системы.

 

Однако подавляющее большинство начинающих вебмастеров с самого начала желают стать именно СЕО-оптимизаторами, то есть сразу же пытаются адаптировать свой первый сайт именно под поисковые системы. Кому-то это удается, но большинство новичков сразу же начинают совершать неправильные действия. Конечно, в Интернете размещено поистине огромное количество всяких инструкций, руководств и прочих «научных трудов», посвященных СЕО-оптимизации сайтов. И, на первый взгляд, все в них написано правильно, единственный минус всех этих творений заключается в том, что они пишутся самыми настоящими мошенниками с одной-единственной целью – облапошить новичков, обобрать их до нитки, выкачать с них все финансы, заставить бесплатно работать на своих учителей, а потом выбросить из темы вообще. Ну кому, спрашивается, нужны конкуренты? Доверчивых новичков обманывают, часто – в наглую, но в основном – очень тонко, и, можно даже так сказать – весьма толерантно.

 

В чем же тут заключается мошенничество? Да практически во всем. Мало того, что все сведения устаревшие, к тому же и порядок их изложения переставлен с ног на голову. Вот, к примеру, возьмём постулат, требующий от новичка обязательно составлять для сайта семантическое ядро. Что это такое? Это список тех ключевых запросов, по которым будет продвигаться в выдаче будущий сайт. Вроде все правильно, да и объяснено дельно. Однако в этом пункте ни словом никто не обмолвится о том, что в топы поисковых систем можно вполне успешно продвигать и без всяких семантических ядер. Именно с таких сайтов надо начинать новичкам, но доброхотливые учителя всё же настоятельно рекомендуют неопытным новобранцам собирать ключевики и затачивать под них сайт, невзирая даже на то, что эта задача – не из легких, и правильно ее реализовать не в силах даже многие профессионалы. Но новички принимают всё это за чистую монету, начинают действовать, и, как обычно, неправильно. Сайты, для которых семантика была собрана неправильно, не имеют никаких шансов в поисковых системах. Новички горюют и уходят из темы.

 

Однако те, кто посообразительнее, начинают действовать более профессионально. Они не выискивают всякие непонятные сложности, а сразу приступают к созданию чисто информационных сайтов. Что такое информационный сайт? Это сайт, для которого не надо собирать никаких семантических ядер. Их не надо «затачивать» под какие-то определённые ключевики, на них надо только ставить интересный контент, а все ключевики, по которым таким сайтам суждено «повылазить» в топы выдачи, уже имеются в текстах изначально. Дело в том, что семантика обычно требуется для коммерческих сайтов, которые продвигаются в более-менее конкурентные топы. Новичкам с таких сайтов начинать бесполезно – они просто не прорвутся сквозь плотный заслон конкурентов, и, как правило, не заработают совершенно ничего. Самый лучший вариант – пропихтваться в любые не конкурентные топы, собирать самый разнотематический трафик (так называемый микс), и монетизировать его на специальных партнерских программах, известных как «тизерки». Главный постулат, который можно учитывать в этой «информационной» теме – малоконкурентных запросов в миллионы раз больше, чем конкурентных, то есть их хватит всем, любой новичок может в них найти свое место без особого труда. А то, что по каждому конкретном запросу мало трафика, и то, что такой трафик довольно дешево монетизируется, прекрасно компенсируется большим количеством используемых запросов и, соответственно, большим количеством получаемого трафика.

 

Далее идет проблема уникального контента. Учителя учат начинающих оптимизаторов тому, что шансы в поисковых системах имеют только сайты с уникальным контентом, а сайты, использующие копипаст (неуникальный контент), поисковиками фильтруются и даже банятся. При этом подобные утверждения выглядят настолько убедительно, что новички не испытывают по этому поводу совершенно никаких сомнений. Однако если посмотреть, что в этом плане творится в выдаче поисковых систем, то можно обнаружить картину совсем противоположную. Выдача любой поисковой системы буквально забита сайтами, ворующими друг у друга контент. Ну, конечно же, воруют они не друг у друга, но выглядит это именно так. А если быть точнее, то источники уникального контента для топовых сайтов находятся глубоко на задворках выдачи, и в основном это сайты новичков, которые, принимая на веру наставления своих учителей-мошенников, снабжают контентом более авторитетные сайты. Впрочем, очень быстро любой уникальный контент перестаёт быть уникальным, так что, по большому счёту, можно говорить о том, что по-настоящему уникального контента в Интернете не существует. Как только на каком-то сайте появляется что-то уникальное, оно тотчас же перекочёвывает на другие сайты, и процесс этот не остановить никакой защитой.

 

Как же относятся к этому поисковые системы? Да никак они к этому не относятся, хотя и декларируют постулаты о преимуществах уникального контента перед не уникальным. По-настоящему серьёзно сайты относятся только к поведенческим факторам, а эти факторы не предусматривают качества контента, по крайней мере, в сфере уникальности. Если набитый копипастом сайт по каким-либо запросам располагается на первых позициях выдачи, то для посетителей контент на нем уникальный автоматически, потому что они, кликнув на первый же сайт, контент видят впервые. А так как источник находится на десятых или даже сотых страницах выдачи, то до этого источника обычно не добирается никто. Таким образом, авторитетные сайты кормятся за счет новичков, а поисковые системы буквально всё это поощряют. Другого выражения тут не подобрать. Как говорится – авторитет решает всё. И опять-таки наиболее сообразительные новички всё это прекрасно видят и правильно понимают. Они не тратят свои финансы на приобретение уникального контента для своих сайтов, а просто воруют его у других. Конечно, в этом деле есть кое-какие нюансы, но в техническом плане никакой сложности они не представляют. Например, при копировании статьи следует обязательно ставить ссылку на источник, это надо, чтобы не последовали обвинения в воровстве. Также лучше всего брать контент, наименее заюзанный, хотя, в принципе, это не имеет особого значения. Есть еще некоторые тонкости, но все они проявляются при работе с контентом, так что приводить их тут все нет никакого смысла.

 

Далее в списке самых главных ошибок новичков стоит такой фактор, как ссылочное ранжирование. На самом же деле никакого ссылочного ранжирования не существует, по крайней мере, в том виде, в каком существовало еще лет 10 назад. Дело в том, что в борьбе с дорвеями и прочими дерьмосайтами поисковики поставили большую и жирную точку, отменив фактор ссылочного ранжирования. Сегодня простыми ссылками, даже ведущими с авторитетных сайтов, не раскрутить практически ничего. Работают только те ссылки, по которым переходит большое количество посетителей, да и то только косвенно. Если по ссылке переходит трафик, то он создаёт ссылаемому сайту поведенческие факторы – хорошие или плохие, это суть не важно. Именно благодаря анализу поведенческих факторов поисковики и ранжируют сайты, а сами по себе ссылки ничего не значат.

 

Если по ссылке не переходит трафик, то она не имеет никакого значения, она считается «мертвой». Если ссылка «живая», то она, конечно же, тоже сама по себе не имеет значения, вес ей придает исключительно переходящий по ней трафик. Как только трафик перестает переходить – «живая» ссылка превращается в «мертвую». Отсюда и пошли всякие мифы о каких-то там алгоритмах Гугла и Яндекса, которые отслеживают покупные ссылки и накладывают фильтры на пользующиеся ими сайты. Никаких фильтров не существует в природе. Как только по ссылкам перестает переходить трафик, они исключаются из «табели о рангах» поисковой базы, ссылочный профиль ссылаемого сайта «худеет», и сайт «проседает» по тем или иным позициям. Все естественно и прозрачно, а всякие конспирологические версии скармливаются исключительно новичкам. Финансово состоятельные буквально «тоннами» скупают на биржах ссылки, обогащая владельцев этих бирж, а те, у кого на ссылки денег не имеется, пытаются искать их самостоятельно, создавая на всяких форумах, блогах, в соцсетях множество полезных для этих ресурсов тем взамен на маленькую ссылочку на сайт. А когда через время никаких положительных результатов не наблюдается, большинство потенциальных конкурентов покидают тему и «переквалифицируются в управдомы».

 

Так что же на самом деле способно помочь раскрутить новый сайт в поисковых системах, и не за год-два, а всего за несколько месяцев? Имеется только один фактор, который поисковые системы учитывают в полной мере, игнорируя все остальные, которые работали когда-то давно, но сегодня могут демонстрироваться разве что в виде мошеннической «куклы» для несмышлёных СЕО- новобранцев. Это поведенческие факторы, и ничего более. Только поведение посетителей на страницах сайта могут позволить поисковым системам судить об истинном качестве этого сайта и делать выводы о правомерности вывода его в топы выдачи по тем или иным запросам. Уникальный контент может быть неинтересным для людей, ссылки можно купить для любого дерьмосайта, а вот поведение посетителей накрутить нельзя. Так зачем тогда поисковым системам париться и тратить свои мощности на охоту за покупными ссылками и определение уникального контента? Пробивается в топы тот, чей сайт наиболее интересен людям, и неважно, имеется у него ссылочный профиль, или нет. И неважно, уникальный на его страницах контент, или нет. Поисковые системы созданы исключительно для людей-посетителей, а не для вебмастеров-мошенников, и поэтому определять качество имеют право не владельцы сайтов, а пользователи поисковых систем. Всё, что зависит от вебмастера – это только создание по-настоящему хорошего сайта, а для того, чтобы он не терял своих позиций из-за того, что посетители начали терять к нему интерес, веб-ресурс необходимо постоянно расширять, добавлять новый контент, улучшать юзабельность. И тогда не понадобятся никакие ссылки, уникальный контент и семантические ядра. Удачи!