Наконец настроив площадку, переходим к составлению семантического ядра. Недолго думая, было решено двигаться по НЧ+СЧ (вторых совсем немного), ибо двигаться по некоммерческим ВЧ, на мой взгляд, неоправданно: большинство из таких ВЧ оказываются “пустыми” (об этом ниже). Сразу оговорюсь, для деления запросов на НЧ, СЧ и ВЧ я использую значения 10/1000/10000.
По прикидкам, первоначальное ядро будет включать примерно 800-1000 запросов. После достижения удовлетворительного результата по этим запросам, ядро, соответственно, будет расширяться.
Чтобы обозначить некие отправные точки для составления ядра, я обратился к заранее составленному списку категорий и подкатегорий для сайта. На данном этапе он выглядит примерно так:
Возможно, названия несовершенны или где-то области пересекаются. Это неважно, все лишнее уйдет на этапах группировки ключевиков.
Далее я просто брал название каждой из подкатегорий и парсил в различных вариациях. Или делил на дополнительные подподкатегории и парсил их. К примеру, для “ухода за телом” парсил еще и “уход за кожей“, “уход за волосами“, “уход за ногтями” и т.п. Далее в несколько этапов чистил список, отсеивая нецелевые и запросы-пустышки. Всю работу осуществлял с помощью KeyCollector. Не буду лишний раз рекламировать, скажу лишь, что эта программа из категории “must have”, для любого оптимизатора, кто работает с большим количеством ключевиков (особенно это касается НЧ).
Думаю, лучше всего будет рассмотреть процесс составления ядра на конкретном примере. Для примера мы возьмем запрос “уход за волосами” + производные.
Итак, в КейКоллекторе запускаем парсинг по фразе “уход за волосами“. После получения полного списка определяем нижнюю границу частотности, запросы ниже которой не будут представлять для нас интереса ввиду их непопулярности. Каждый эту границу определяет сам, в зависимости от общего количества трафика в нише и собственной готовности работать с массой непопулярных запросов. Я отделял запросы, имеющие частотность меньше 50-70. В узких нишах пренебрегать такими запросами – непозволительная роскошь, но в женской тематике трафа очень много, посему такие запросы я из ядра исключил. Кликабельно.
Теперь займемся отделением “пустых” запросов. Жмем на кнопку с увеличительным стеклом -> “уточнить частотности “!”” – количество показов запроса именно в той форме, в которой он нам показан (без морфологических изменений или разбавки). Этот пункт является для нас ключевым. Продвижение по таким запросам может отнять массу ресурсов, а трафа там будет, мягко говоря, меньше, чем вы ожидали.
Далее сортируем по частотности “!” и так же удаляем запросы, кол-во показов которых ниже установленной нами границы.
Есть еще один нюанс. Хорошо, когда запрос явно “пустой”, но бывают ситуации, когда сложно однозначно классифицировать его “полезность”. К примеру, если у запроса точных (“!”) 250 показов – это хорошо, но если при этом общая частотность у него, скажем 10000, то стоит задуматься, целесообразно ли продвигать такой запрос. Чтобы мы меньше задумывались в KeyCollector’е реализована функция расчета KEI.
KEI – Keyword Effectiveness Index – если обобщить ту кучу трактовок, которую тянет за собой это понятие, то можно представить KEI как отношение отдачи от ключевого слова к усилиям, затраченным на его продвижение. Формулы приводятся самые разнообразные, и, что интересно, единственно правильной нет и быть не может, посему KEI до сих пор является предметом активных споров. Мне не хотелось бы ничего доказывать или навязывать свою позицию по этому поводу, мы просто воспользуемся готовым решением, которое как-то представил г-н Кокшаров на своем блоге. Нужную формулу также ищите там. В принципе, можно использовать в качестве формулы KEI банальное отношение общего кол-ва показов к кол-ву показов в точной форме ( {WordstatBaseFreq} / {WordstatQuotePointFreq} ), только нужно будет опытным путем выявить нижнюю границу, принимая значения ниже которой KEI будет свидетельствовать о нецелесообразности продвижения данного ключевика. Я же далее буду использовать коэффициенты, актуальные для формулы Кокшарова.
Итак, формулу забили, жмем “Рассчитать KEI по имеющимся данным”. Выполняется это практически мгновенно. Я отсеивал значения KEI ниже 1,5-1,7, в зависимости от общей частотности ключевика: чем больше общая частотность, тем выше должен быть KEI, для НЧ же наоборот, минимально допустимое значение можно уменьшить.
Остался последний этап просеивания. Открываем список стоп-слов и вносим туда вариации “купить“, “заказать“, “скачать“, “форум“, и прочие нецелевые. К сожалению, стоп-слова не смогут решить всех проблем: запросы с геопривязкой (названия городов в запросе), или, к примеру, запросы с названиями болезней (таких было много при парсинге диет, к примеру, “диета при гастрите“), вариаций таких запросов может быть очень много. Тут уж придется просматривать самостоятельно.
В итоге получаем окончательный список запросов, который благополучно копируем в эксель. Чтобы было удобнее в дальнейшем ориентироваться, я, кроме самих запросов, копировал их частотности (общую и в точной форме), KEI каждого запроса, а так же классификацию запросов сервисом rookee.
Далее просто парсим все сопряженные группы запросов. “Как ухаживать за волосами“, “маски для волос“, “выпадают/секутся волосы“, “лечение волос“, “как красить волосы” и т.п. Чтобы лишний раз не ломать над этим голову, парсим вторую колонку вордстата. Если она пуста (такое бывает нередко), просто парсим основной ВЧ, в нашем случае это “волосы“. Сразу увидим все популярные ветки запросов, которые, в свою очередь, также последовательно парсим и просеиваем по вышеприведенной методике.
Все вышеописанное можно проделывать и без спецсофта, через банальные вордстат и адстат (Рамблера), но, сами понимаете, телодвижений придется сделать гораздо больше.
Через n итераций имеет список такого вида:
Собственно, этот кластер семантического ядра можно считать готовым, осталось только преобразовать весь этот хаос к надлежащему виду. Сгруппируем запросы.
Тут ничего сложного нет, просто собираем группы похожих по смыслу ключевиков. На одну страницу будет приходиться одна группа ключей. Статей нужно как можно больше, так что не жадничаем: не стоит собирать группы из более чем 10-15 ключей (в случае с НЧ) и если будут попадаться ключевики, не имеющие похожих, то не стоит такие пытаться запихнуть в другие группы и рушить логическую структуру будущей статьи, уж лучше заказать под такой ключ отдельную небольшую заметку.
Все. Таким же образом проходим по всем подкатегориям + сопряженным (в ходе парсинга таких вы найдете немало). Планомерно проводя парсинг одной субтематики за другой, вы навряд ли что-либо упустите. На выходе мы имеем готовое наглядно упорядоченное семантическое ядро.
Критика, вопросы, пожелания – в комментарии.
В следующей статье будем готовить контент: расчитывать кол-во и тип вхождений каждого ключа, объем статей, теги и т.п. и займемся поиском копирайтера, который реализует все это дело.
UPD.
Если Вы по каким-то причинам не можете/не хотите заниматься подбором запросов, то эту работу могу взять на себя я. Подробнее об услуге можете узнать тут.
—-
Ahawks рассказывает про безопасность блога и варианты его защиты.
А как убрать ссылки со страниц на рубрики? Я что-то этот момент не понял.
На примрере WordPress как можно сделать так, чтобы рубрики не ссылались на главную, а страницы не ссылались на рубрики? Что для этого нужно сделать?
san4izl
Просто в виджетах уберите вывод рубрик + уберите хлебные крошки.
Насчет ссылок с рубрик на главную – можно либо убрать ссылку из лого совсем, либо сделать для страницы рубрик отдельную шапку без ссылки на главную и подключить ее в шаблон. Только зачем это вам, я не понимаю. Если для перелинковки, то здесь игра не стоит свеч, жертвовать юзабилити не стоит в любом случае.
Когда смотрите популярность запросов, то какой регион учитываете? Ваш тестовый сайт, насколько я понимаю, будет нацелен прежде всего на RU-пользователей.
Я просто к тому, что частотность может сильно меняться если убрать из списка регионов например Украину…
inkognito
При парсинге геонезависимых запросов просто не указываю регион. Тестовый сайт нацелен на русскоговорящую аудиторию, не важно, с России они, или с Украины.
Отлично расписанная методика. Спасибо
Каким способом вы посоветуете смотреть конкурентность запросов, или используете Rookee/Seopult?
Я имею в виду какой-то автоматизированный метод, т.к. руками проверять большое их кол-во очень утомительно.
inkognito
Я смотрю через KeyCollector. Он, в свою очередь, может парсить любой из агрегаторов.
Сколько нынче кейколлектор стоит?
Rusfetische
35$
Я извиняюсь за возможно очень глупый вопрос но все же, где нужно использовать эти результаты впихивать их в текст статей или в ключевые слова мета тегов забивать?
@Дмитрий, данные запросы должны быть на продвигаемой вами странице, впихивать в уже существующую или писать новую статью, решать вам.
Отличный пост, по КейКоллу в сети ещё не встречал, добавил бы что ещё по агрегаторам надо смотреть, что они выдают и уже в совокупности решать, что и как.
Придётся начать читать с первого эпизода ;)
короткое видео о том, как правильно составить семантическое ядро – http://video.mail.ru/mail/link-broker.ru/link-broker.ru/13.html
Почему ты не говоришь о конкурентности запроса? Ведь по многим словам возьмем два попавшихся из твоего списка: “как ухаживать за волосами” или “уход за нарощенными волосами” если посмотреть по ним конкуренцию, то там ещё хрен пробъёшься.
[...] Собственно, из названия поста все должно быть понятно. Возиться с ключами я люблю и умею, так что если у кого есть желание [...]
И все же, как управляться с уже готовыми кеями? В мета-теги? В текст вставлять новости? Делать внутреннюю перелинковку?
Саша,
и в мета, и в текст статьи и в перелинковку. Только без фанатизма, главное чтобы это был человеческий текст.
Ясненько, просто не знал где храниться это – “ядро”.
[...] ядра. Простейший алгоритм работы с ним я уже описывал. [...]
Уважаемый Вебмастер, очень классный блог. Читаю с большим интересом. Пишите еще, очень актуальная и своевременная информация. Класс!
И еще прошу напишите статью про сбор семантического ядр в кей коллектор для буржунета. Никак не хочет собирать , в чем причина понять не могу. И эксплоер запускаю и в адвордс захожу.