Семантическое ядро составить. Работа с семантическим ядром на практике. Как использовать семантическое ядро. Планировщик ключевых слов Google

Если у Вас встал вопрос «Как составить семантическое ядро», то перед решением надо сначала разобраться, с чем Вы связались.

Семантическое ядро сайта представляет собой список фраз, которые вводят пользователи в поисковых системах. Соответственно, продвигаемые страницы должны отвечать на пользовательские запросы. Разумеется, нельзя пихать на одну и ту же страницу кучу разнотипных ключевых фраз. Один основной поисковый запрос = одна страница.

Важно, чтобы ключевые слова соответствовали тематике сайта, не имели грамматических ошибок, имели вменяемую частотность, а также соответствовали по ряду других характеристик.

Семантическое ядро обычно хранится в Excel-таблице. Эту таблицу можно хранить/создать где угодно - на флешке, в Google Docs, на Яндекс.Диске либо где-то еще.

Вот наглядный пример простейшего оформления:

Особенности подбора семантического ядра сайта

Для начала следует понимать (хотя бы примерно) какие именно фразы использует Ваша аудитория при работе с поисковой системой. Этого будет вполне достаточно для работы с инструментами по подбору ключевых фраз.

Какие ключи использует аудитория

Ключи — это как раз и есть те самые фразы, которые пользователи вводят в поисковые системы для получения той или иной информации. Например, если человек хочет купить холодильник, он так и пишет - «купить холодильник», ну или «купить холодильник недорого», «купить холодильник samsung» и т.д., в зависимости от предпочтений.

Теперь давайте разбираться с признаками, по которым можно классифицировать ключи.

Признак 1 - популярность . Здесь ключи можно условно разделить на высокочастотные, среднечастотные и низкочастотные.

Низкочастотные запросы (иногда обозначаются как НЧ) имеют частоту до 100 показов в месяц, среднечастотные (СЧ) - до 1000, а высокочастотные (ВЧ) - от 1000.

Однако, эти цифры являются чисто условными, ибо есть масса исключений из этого правила. Например, тематика криптовалюты. Здесь гораздо правильнее считать низкочастотными запросы с частотой до 10000 показов в месяц, среднечастотными - от 10 до 100 тысяч, а высокочастотными - все остальное. На сегодня ключевое слово «криптовалюта» имеет частоту более 1,5 миллионов показов в месяц, а «биткоин» зашкалил за 3 миллиона.

И несмотря на то, что «криптовалюта» и «биткоин», на первый взгляд, являются очень вкусными поисковыми запросами, гораздо правильнее (как минимум на начальных этапах) делать акцент именно на низкочастотых запросах. Во-первых, потому что это более точные запросы, а значит, приготовить релевантный контент будет проще. Во-вторых, низкочастотных запросов ВСЕГДА в десятки-сотни раз больше, чем высокочастотных и среднечастотных (причем в 99,5% случаев - еще и вместе взятых). В-третьих, «низкочастотное ядро» гораздо проще и быстрее расширить, чем два других. НО… Это не значит, что СЧ и ВЧ нужно игнорировать.

Признак 2 - потребности пользователя . Здесь можно условно разделить на 3 группы:

  • транзакционные - подразумевают какое-то действие (содержат в себе слова «купить», «скачать», «заказать», «доставка» и т.д.)
  • информационные - просто поиск тех или иных сведений («что будет, если», «что лучше», «как правильно», «как сделать», «описание», «характеристики» и т.д.)
  • прочие. Это особая категория, т.к. непонятно, чего именно хочет пользователь. Для примера возьмем запрос «торт». «Торт» что? Купить? Заказать? Испечь по рецепту? Посмотреть фотографии? Непонятно.

Теперь о применении второго признака.

Во-первых , данные запросы лучше не «смешивать». Например, у нас есть 3 поисковых запроса - «ноутбук dell 5565 amd a10 8 гб hd купить», «ноутбук dell 5565 amd a10 8 гб hd обзор» и «ноутбук dell 5565 amd a10 8 гб hd». Ключи почти полностью идентичны. Однако, именно отличия и играют решающую роль. В первом случае мы имеем «транзакционный» запрос, по которому нужно продвигать именно карточку товара. Во втором - «информационный», а в третьем - «прочий». И если по информационному ключу нужна отдельная страница, то логично задать вопрос - а что делать с третьим ключом? Очень просто - просмотреть ТОП-10 Яндекса и Google по данному запросу. Если будет много торговых предложений - значит запрос все-таки коммерческий, а если нет - значит информационный.

Во-вторых , транзакционные запросы можно условно подразделить еще и на «коммерческие» и «некоммерческие». В коммерческих запросах придется конкурировать с «тяжеловесами». Например, по запросу «купить samsung galaxy» придется конкурировать с Евросетью, Связным, по запросу «купить духовой шкаф ariston» - с М.Видео и Эльдорадо. И что делать? Очень просто - «замахиваться» на запросы, у которых гораздо более низкая частота. Например, на сегодня запрос «купить samsung galaxy» имеет частоту около 200 000 показов в месяц, в то время, как «купить samsung galaxy a8» (а это уже вполне конкретная модель линейки) имеет частоту 3600 показов в месяц. Разница в частоте громадная, но по второму запросу (именно за счет того, что подразумевается вполне конкретная модель) можно получить гораздо больше трафика, чем по первому.

Анатомия поисковых запросов

Ключевую фразу можно разбить на 3 части - тело, спецификатор, хвост.

Для наглядности возьмем уже рассмотренный ранее «прочий» запрос - «торт». Чего хочет пользователь - непонятно, т.к. он состоит только из тела и не имеет спецификатора и хвоста. Однако, он высокочастотный, а значит имеет бешеную конкуренцию в поисковой выдаче. Однако, 99,9% при посещении сайта скажет «нет, это не то, что я искал» и просто уйдет, а это негативный поведенческий фактор.

Добавим спецификатор «купить» и получаем транзакционный (а в качестве бонуса - еще и коммерческий) запрос «купить торт». Слово «купить» отражает намеренья пользователя.

Поменяем спецификатор на «фото» и получим запрос «торт фото», который уже не является транзакционным, ибо пользователь просто ищет фотографии тортов и ничего покупать не собирается.

Т.е. именно с помощью спецификатора мы и определяем какой это запрос - транзакционный, информационный или прочий.

С продажей тортов разобрались. Теперь к запросу «купить торт» добавим словосочетание «на свадьбу», которое будет являться «хвостом» запроса. Именно «хвосты» делают запросы более конкретными, более детальными, но при этом не отменяют намерений пользователя. В данном случае - раз торт свадебный, то торты с надписью «с днем рождения» отметаются сразу, т.к. они не подходят по определению.

Т.е. если взять запросы:

  • купить торт на рождение ребенка
  • купить торт на свадьбу
  • купить торт на юбилей

то мы увидим, что цель пользователя одна и та же - «купить торт», а «на рождение ребенка», «на свадьбу» и «на юбилей» отражают потребность более детально.

Теперь, когда Вы знаете анатомию поисковых запросов, можно вывести некую формулу подбора семантического ядра. Для начала определяете некие базовые термины, имеющие прямое отношение к Вашей деятельности, а затем собираете наиболее подходящие спецификаторы и хвосты (расскажем немного позже).

Кластеризация семантического ядра

Под кластеризацией подразумевается распределение собранных ранее запросов по страницам (даже если страницы еще не созданы). Зачастую этот процесс называют «группировкой семантического ядра».

И вот тут многие допускают одну и ту же ошибку - разделять запросы нужно по смыслу, а не по количеству имеющихся страниц на сайте или в разделе. Страницы при необходимости всегда можно создать.

Теперь давайте разберемся, какие ключи куда распределять. Сделаем это на примере структуры, в которой уже есть несколько разделов и групп:

  1. Главная страница. Для нее отбираются только самые важные, конкурентные и высокочастотные запросы, являющиеся основой продвижения сайта в целом. («салон красоты в Санкт-Петербурге»).
  2. Категории услуг/товаров. Здесь вполне логично разместить запросы, не содержащие в себе особой конкретики. В случае с «салоном красоты в СПб» вполне логично создать несколько категорий по ключам «услуги визажиста», «мужской зал», «женский зал» и т.п.
  3. Услуги/товары. Здесь уже должны фигурировать более конкретные запросы - «свадебные прически», «маникюр», «вечерние прически», «окрашивание» и т.п. В какой-то степени это «категории внутри категории».
  4. Блог. Сюда подойдут информационные запросы. Их гораздо больше, чем транзакционных, поэтому и страниц, которые будут им релевантны, должно быть больше.
  5. Новости. Сюда выделяются ключи, наиболее подходящие для создания коротких новостных заметок.

Как выполняется кластеризация запросов

Существует 2 основных способа кластеризации - ручная и автоматическая.

У ручной кластеризации есть 2 основных минуса: долго, трудоёмко. Однако, весь процесс контролируется лично Вами, а значит можно добиться очень высокого качества. Для ручной кластеризации будет вполне достаточно Excel’я, Google Таблиц либо Яндекс.Диска. Главное - иметь возможность фильтровать и сортировать данные по тем или иным параметрам.

Многие для кластеризации используют сервис Keyword Assistant. По сути, это ручная кластеризация с элементами автоматики.

Теперь рассмотрим плюсы и минусы автоматической группировки, благо, сервисов много (как бесплатные, так и платные) и выбирать есть из чего.

Например, внимания достоин бесплатный сервис кластеризации от команды SEOintellect. Он подойдет для работы с небольшими семантическими ядрами.

Для «серьезных» объемов (несколько тысяч ключей) уже имеет смысл пользоваться платными сервисами (например, Топвизор, SerpStat и Rush Analytics). Работают они следующим образом: Вы загружаете ключевые запросы, а на выходе получаете готовы Excel-файл. Упомянутые выше 3 сервиса работают примерно по одной и той же схеме - группируют по смыслу, анализируя пересечение фраз, а также по каждому запросу просматривают ТОП-30 поисковой выдачи, чтобы выяснить, на скольких URL встречается запрашиваемая фраза. На основе вышеперечисленного и происходит распределение по группам. Происходит все это «в фоне».

Программы для создания семантического ядра

Для сбора подходящих поисковых запросов есть множество платных и бесплатных инструментов, есть из чего выбрать.

Начнем с бесплатных.

Сервис wordstat.yandex.ru. Это бесплатный сервис. Для удобства рекомендуется установить в Ваш браузер плагин Wordstat Assistant. Именно поэтому мы будем рассматривать эти 2 инструмента в паре.

Как это работает?

Очень просто.

Для примера мы соберем небольшое ядро по путевкам в Анталию. В качестве «базовых» у нас будет 2-й запрос - «туры в анталию» (в данном случае количество «базовых» запросов не принципиально).

Теперь переходим по адресу https://wordstat.yandex.ru/ , логинимся, вставляем первый «базовый» запрос и получаем список ключей. Затем с помощью «плюсиков» добавляем подходящие ключи в список. Обратите внимание, если ключевая фраза окрашена в синий и слева обозначена плюсом, значит ее можно добавить в список. Если же фраза «обесцвечена» и помечена минусом - значит она в список уже добавлена, а нажатие на «минус» приведет к ее удалению из списка. Кстати, список ключей слева и плюсы-минусы - это и есть те самые фишки плагина Wordstat Assistant, без которых работа в Яндекс.Wordstat вообще не имеет смысла.

Также стоит отметить, что список будет сохранен ровно до тех пор, пока он лично Вами не будет откорректирован или очищен. Т.е. если вбить в строку «телевизоры samsung», то список ключей Яндекс.Wordstat обновится, но ранее собранные ключи в списке плагина сохранятся.

По этой схеме прогоняем через Wordstat все заранее подготовленные «базовые» ключи, собираем всё необходимое, а затем путем нажатия на одну из этих двух кнопок копируем собранный ранее список в буфер обмена. Обратите внимание, что кнопка с двумя листиками копирует список без частот, а с двумя листиками и числом 42 - с частотами.

Затем скопированный в буфер обмена список можно вставить в таблицу Excel.

Также в процессе сбора можно просмотреть статистику показов по регионам. Для этого в Яндекс.Wordstat есть вот такой переключатель.

Ну а в качестве бонуса можно глянуть историю запроса - узнать, когда частота повышалась, а когда - понижалась.

Данная фишка может быть полезна при определении сезонности запроса, а также для выявления падения/роста популярности.

Еще одной интересной фишкой является статистика показов по указанной фразе и ее формам. Для этого необходимо заключить запрос в кавычки.

Ну а если перед каждым словом добавить еще и восклицательный знак, то в статистике будет отображено количество показов по ключу без учета словоформ.

Не менее полезным является оператор «минус». Он убирает ключевые фразы, в которых содержится указанное Вами слово (или несколько слов).

Есть и еще один хитрый оператор - вертикальный разделитель. Он необходим для того, чтобы объединить сразу несколько списков ключей в один (речь про однотипные ключи). Для примера возьмем два ключа: «туры в анталию» и «путевки в анталию». В строке Яндекс.Wordstat прописываем их следующим образом и получаем на выходе 2 списка по этим ключам, объединенных в один:

Как видите, у нас куча ключей, где есть «туры», но нет «путевок» и наоборот.

Еще одной важнейшей фишкой является привязка частоты к региону. Регион можно выбрать вот тут.

Использование Wordstat для сбора семантического ядра подойдет в том случае, если Вы собираете мини-ядра для каких-то отдельных страниц, либо не планируете больших ядер (до 1000 ключей).

SlovoEB и Key Collector

Мы не прикалываемся, программа именно так и называется. Если в двух словах, то программа позволяет делать ровно то же самое, но в автоматическом режиме.

Данная программа разработана командой LegatoSoft - та самая команда, которая разработала Key Collector, о нем тоже пойдет речь. По сути, Словоёб является сильно обрезанной (но бесплатной) версией Кей Коллектора, однако для работы со сбором небольших семантических ядер он вполне справляется.

Специально для Словоёба (или Кей Коллектора) имеет смысл создать отдельный аккаунт на Яндексе (если забанят - не жалко).

Единоразово необходимо произвести небольшие настройки.

Пару логин-пароль необходимо прописывать через двоеточие и без пробелов. Т.е. если Ваш логин [email protected] и пароль 15101510ioioio, то пара будет выглядеть вот так: my_login:15101510ioioio

Обратите внимание - прописывать в логине @yandex.ru нет необходимости.

Данная настройка является единоразовым мероприятием.

Сразу проясним пару моментов:

  • сколько проектов создавать для каждого сайта - решать только Вам
  • без создания проекта программа работать не будет.

Теперь давайте разбираться с функционалом.

Для сбора ключей из Яндекс.Wordstat на вкладке «Сбор данных» нажимаем на кнопку «Пакетный сбор слов из левой колонки Яндекс.Wordstat», вставляем список ранее подготовленных ключевых фраз, нажимаем «Начать сбор» и ждем его окончания. Минус у такого способа сбора только один - после окончания парсинга приходится вручную удалять ненужные ключи.

На выходе мы получаем таблицу с собранными из Wordstat ключевыми словами и базовой частотой показов.

Но мы-то с Вами помним, что можно еще задействовать кавычки и восклицательный знак, верно? Этим и займемся. Тем более что данный функционал в Слоёбе реализован.

Запускаем сбор частот в кавычках и наблюдаем за тем, как данные будут постепенно появляться в таблице.

Единственный минус состоит в том, что сбор данных производится через сервис Яндекс.Wordstat, а это значит, что даже на сбор частот по 100 ключам будет уходить достаточно много времени. Однако, эта проблема решена в Key Collector’е.

И еще одна функция, о которой хотелось бы рассказать - сбор поисковых подсказок. Для этого копируем список ранее спарсенных ключей в буфер обмена, нажимаем кнопку сбора поисковых подсказок, вставляем список, выбираем поисковые системы, с которых будет вестись сбор поисковых подсказок, нажимаем «Начать сбор» и ждем его окончания.

На выходе мы получаем расширенный список ключевых фраз.

Теперь переходим к «старшему брату» Словоёба - Key Collector’у.

Key Collector платный, но имеет гораздо более широкий функционал. Так что если Вы профессионально занимаетесь продвижением сайтов или маркетингом - Key Collector просто мастхэв, ибо Словоёба будет уже недостаточно. Если коротко, то Кей Коллектор умеет выполнять:

  • Парсить ключи из Wordstat*.
  • Парсить поисковые подсказки*.
  • Отсечка поисковых фраз по стоп-словам*.
  • Сортировка запросов по частоте*.
  • Выявление запросов-дублей.
  • Определение сезонных запросов.
  • Сбор статистики из Liveinternet.ru, «Метрика», Google Analytics, Google AdWords, «Директ», «Вконтакте» и другие.
  • Определение релевантных страниц по тому или иному запросу.

(знаком * отмечен функционал, имеющийся в Словоёбе)

Процесс сбора ключевых слов из Wordstat и сбор поисковых подсказок абсолютно идентичен тому, что реализован в Словоёбе. Однако, сбор частот реализован двумя способами - через Wordstat (как в Словоёбе) и через Директ. Через Директ сбор частот ускоряется в несколько раз.

Делается это следующим образом: нажимаем на кнопку Д (сокращение от «Директ», ставим галочку о заполнении колонок статистики Wordstat, проставляем галочки (при необходимости) о том, какую именно частоту мы хотим получить (базовую, в кавычках, или в кавычках и с восклицательными знаками», нажимаем «Получить данные» и ждем окончания сбора.

Сбор через данных Яндекс.Директ занимает гораздо меньше времени, чем через Wordstat. Однако, тут есть и один минус - статистика может быть собрана не по всем ключам (например, если ключевая фраза слишком длинная). Однако, этот минус компенсируется сбором данных из Wordstat.

Планировщик ключевых слов Google

Данный инструмент крайне полезен для сбора ядра с учетом нужд пользователей поисковой системы Google.

С помощью Планировщика ключевых слов Google можно найти новые запросы по запросам (как бы странно это ни звучало), и даже сайтам/тематикам. Ну а в качестве бонуса можно даже прогнозировать трафик и комбинировать новые поисковые запросы.

По имеющимся запросам статистику можно получить, выбрав соответствующую опцию на главной странице сервиса. При необходимости можно выбрать регион и минус-слова. Результат будет выведен в CSV-формате.

Как узнать семантическое ядро сайта конкурента

Конкуренты могут нам быть еще и друзьями, т.к. у них можно позаимствовать идеи по подбору ключевых слов. Практически по каждой странице можно получить список ключевых слов, под которые она оптимизирована, причем вручную.

Первый способ - изучить контент страницы, мета-теги Title, Description, H1 и KeyWords. Можно сделать всё вручную.

Второй способ - воспользоваться сервисами Advego или Istio. Для анализа конкретно взятых страниц этого вполне достаточно.

Если же требуется произвести комплексный анализ семантического ядра сайта, то имеет смысл воспользоваться более мощными инструментами:

  • SEMrush
  • Searchmetrics
  • SpyWords
  • Google Trends
  • Wordtracker
  • WordStream
  • Ubersuggest
  • Топвизор

Однако, приведенные выше инструменты больше подходят для тех, кто занимается профессиональным продвижением нескольких сайтов одновременно. «Для себя» даже ручного способа будет вполне достаточно (в крайнем случае - Advego).

Ошибки при составлении семантического ядра

Самая частая ошибка - очень маленькое семантическое ядро

Разумеется, если это какая-то узкоспециализированная ниша (например, ручное изготовление элитных музыкальных инструментов), то ключей при любом раскладе будет мало (сотня-полторы-две).

Чем больше семантическое ядро (но без «мусора») - тем лучше. В некоторых нишах семантическое ядро может состоять из нескольких… МИЛЛИОНОВ ключей.

Вторая ошибка - синонимайзинг. Точнее - его отсутствие

Вспомните пример с Анталией. Ведь в данном контексте «туры» и «путевки» - это одно и то же, но эти 2 списка ключей могут кардинально отличаться. «Стриппер» вполне могут искать по запросу «зачистка для проводов» или «инструмент для удаления изоляции».

Внизу поисковой выдачи у Google и Яндекса есть вот такой блок:

Именно там зачастую и можно подсмотреть синонимы.

Составление семантического ядра исключительно из ВЧ-запросов

Вспомните, что мы в начале поста говорили о низкочастотных запросах, и вопрос «а почему это ошибка?» у Вас больше не возникнет. Низкочастотные запросы как раз и будут приносить основную долю трафика.

«Мусор», т.е. нецелевые запросы

Необходимо удалить из собранного ядра все запросы, которые Вам не подходят. Если у Вас магазин сотовых телефонов, то для Вас запрос «продажа сотовых телефонов» будет целевым, а «ремонт сотовых телефонов» - мусорным. В случае с сервисным центром по ремонту сотовых телефонов все с точностью до наоборот: «ремонт сотовых телефонов» - целевой, а «продажа сотовых телефонов» - мусорный. Третий вариант - если у Вас магазин сотовых телефонов, к которому «прикреплен» сервисный центр, то оба запроса будут целевыми.

Еще раз - мусора в ядре быть не должно.

Отсутствие группировки запросов

Разбивать ядро на группы строго обязательно.

Во-первых, это позволит составить грамотную структуру сайта.

Во-вторых, не будет «ключевых конфликтов». Например, возьмем страницу, которая продвигается по запросам «купить наливной пол» и «купить ноутбук acer». Поисковая система может прийти в замешательство. В итоге будет провалено по обоим ключам. А вот по запросам «ноутбук hp 15-006 купить» и «ноутбук hp 15-006 цена» уже имеет смысл продвигать одну страницу. Более того, не просто «имеет смысл», а будет единственным правильным решением.

В-третьих, кластеризация позволит прикинуть сколько страниц еще нужно создать, чтоб ядро было охвачено полностью (а главное - нужно ли?).

Ошибки в разделении коммерческих и информационных запросов

Основная ошибка в том, что коммерческими могут оказаться и запросы, в которых нет слов «купить», «заказать», «доставка» и т.п.

Например, запрос «». Как определить, коммерческий это запрос, или информационный? Очень просто - смотрим поисковую выдачу.

Google нам говорит, что это коммерческий запрос, т.к. в выдаче у нас первые 3 позиции занимают документы со словом «купить», а на четвертой позиции хоть и расположились «отзывы», но взгляните на адрес - это достаточно известный интернет-магазин.

А вот с Яндексом все оказалось не так просто, т.к. в ТОП-5 у нас 3 страницы с обзорами/отзывами и 2 страницы с торговыми предложениями.

Тем не менее, данный запрос все-таки относится к коммерческим, т.к. коммерческие предложения есть и там, и там.

Однако, есть и инструмент для массовой проверки ключей на «коммерцию» - Semparser.

Подобрали «пустые» запросы

Частоты необходимо собирать и базовые, и в кавычках. Если частота в кавычках равна нулю - запрос лучше удалить, т.к. это пустышка. Нередко бывает даже так, что базовая частота превышает несколько тысяч показов в месяц, а частота в кавычках - нулевая. И сразу же конкретный пример - ключ «крем для кожи недорого». Базовая частота 1032 показа. Выглядит вкусно, правда?

Но весь вкус теряется, если пробить эту же фразу в кавычках:

Не все пользователи печатают без ошибок. Из-за них «кривые» ключевые запросы в базу и попадают. Включать их в семантические ядро бессмысленно, поскольку поисковые системы все равно перенаправляют пользователя на «исправленный» запрос.

И с Яндексом ровно то же самое.

Так что «кривые» запросы (даже если они высокочастотные) удаляем без сожаления.

Пример семантического ядра сайта

Теперь переходим от теории к практике. После сбора и кластеризации семантическое ядро должно выглядеть примерно вот так:

Итог

Что же нам требуется для составления семантического ядра?

  • хотя бы немного мышления бизнесмена (или хотя бы маркетолога)
  • хотя бы небольшие навыки оптимизатора.
  • важно уделить особое внимание структуре сайта
  • прикиньте, по каким запросам пользователи могут искать нужную им информацию
  • на основе «прикидок» собираете список наиболее подходящих запросов (Яндекс.Wordstat + Wordstat Assistant, Словоёб, Key Collector, Планировщик ключевых слов Google), частоты с учетом словоформ (без кавычек), а также без учета (в кавычках), удаляете «мусор».
  • собранные ключи необходимо сгруппировать, т.е. распределить по страницам сайта (даже если эти страницы еще не созданы).

Нет времени? Обращайтесь к нам, мы сами все за Вас сделаем!

Нашей статьи мы рассказали, что такое семантическое ядро и дали общие рекомендации о том, как его составить.

Пришло время разобрать этот процесс в деталях, шаг за шагом создавая семантическое ядро для вашего сайта. Запаситесь карандашами и бумагой, а главное временем. И присоединяйтесь …

Составляем семантическое ядро для сайта

В качестве примера возьмем сайт http://promo.economsklad.ru/ .

Сфера деятельности компании: складские услуги в Москве.

Сайт был разработан специалистами нашего сервиса сайт, и семантическое ядро сайта разрабатывалось поэтапно в 6 шагов:

Шаг 1. Составляем первичный список ключевых слов.

Проведя опрос нескольких потенциальных клиентов, изучив три сайта, близких нам по тематике и пораскинув собственными мозгами, мы составили несложный список ключевых слов, которые на наш взгляд отображают содержание нашего сайта: складской комплекс, аренда склада, услуги по хранению, логистика, аренда складских помещений, тёплые и холодные склады .

Задание 1: Просмотрите сайты конкурентов, посоветуйтесь с коллегами, проведите «мозговой штурм» и запишите все слова, которые, по вашему мнению, описывают ВАШ сайт.

Шаг 2. Расширение списка.

Воспользуемся сервисом http://wordstat.yandex.ru/. В строку поиска вписываем поочерёдно каждое из слов первичного списка:


Копируем уточнённые запросы из левого столбца в таблицу Excel, просматриваем ассоциативные запросы из правого столбца, выбираем среди них релевантные нашему сайту, так же заносим в таблицу.

Проведя анализ фразы «Аренда склада», мы получили список из 474 уточнённых и 2 ассоциативных запросов.

Проведя аналогичный анализ остальных слов из первичного списка, мы получили в общей сложности 4 698 уточнённых и ассоциативных запросов, которые вводили реальные пользователи в прошедшем месяце.

Задание 2: Соберите полный список запросов своего сайта, прогнав каждое из слов своего первичного списка через статистику запросов Яндекс.Вордстат .

Шаг 3. Зачистка

Во-первых, убираем все фразы с частотой показов ниже 50: «сколько стоит аренда склада » - 45 показов, «Аренда склада 200 м » - 35 показов и т.д.

Во-вторых, удаляем фразы, не имеющие отношения к нашему сайту, например, «Аренда склада в Санкт-Петербурге » или «Аренда склада в Екатеринбурге », так как наш склад находится в Москве.

Так же лишней будет фраза «договор аренды склада скачать » - данный образец может присутствовать на нашем сайте, но активно продвигаться по данному запросу нет смысла, так как, человек, который ищет образец договора, вряд ли станет клиентом. Скорее всего, он уже нашёл склад или сам является владельцем склада.

После того, как вы уберетё все лишние запросы, список значительно сократится. В нашем случае с «арендой склада» из 474 уточнённых запросов осталось 46 релевантных сайту.

А когда мы почистили полный список уточнённых запросов (4 698 фраз), то получили Семантическое Ядро сайта, состоящее из 174 ключевых запросов.

Задание 3: Почистите созданный ранее список уточнённых запросов, исключив из него низкочастоники с количеством показов меньше 50 и фразы, не относящиеся к вашему сайту.

Шаг 4. Доработка

Поскольку на каждой странице можно использовать 3-5 различных ключевиков, то все 174 запроса нам не понадобятся.

Учитывая, что сам сайт небольшой (максимум 4 страницы), то из полного списка выбираем 20, которые на наш взгляд наиболее точно описывают услуги компании.

Вот они: аренда склада в Москве, аренда складских помещений, склад и логистика, таможенные услуги, склад ответственного хранения, логистика складская, логистические услуги, офис и склад аренда, ответственное хранение грузов и так далее….

Среди этих ключевых фраз есть низкочастотные, среднечастотные и высокочастотные запросы.

Заметьте, данный список существенно отличается от первичного, взятого из головы. И он однозначно более точен и эффективен.

Задание 4: Сократите список оставшихся слов до 50, оставив только те, которые по вашему опыту и мнению, наиболее оптимальны для вашего сайта. Не забудьте, что финальный список должен содержать запросы различной частоты.

Заключение

Ваше семантическое ядро готово, теперь самое время применить его на практике:

  • пересмотрите тексты вашего сайта, быть может, их стоит переписать.
  • напишите несколько статей по вашей тематике, используя выбранные ключевые фразы, разместите статьи на сайте, а после того, как поисковики проиндексируют их, проведите регистрацию в каталогах статей. Читайте «Один необычный подход к статейному продвижению ».
  • обратите внимание на поисковую рекламу. Теперь, когда у вас есть семантическое ядро, эффект от рекламы будет значительно выше.

Всем привет! Когда ведешь блог или контентный сайт, всегда есть необходимость в составлении семантического ядра для сайта, кластера или статьи. Для удобства и системности лучше работать с семантическим ядром по отлаженной схеме.

В этой статье мы рассмотрим:

  • как происходит сбор семантического ядра для написания статьи;
  • какие сервисы можно и нужно использовать;
  • как правильно вписывать ключи в статью;
  • мой личный опыт подбора СЯ.

Как собрать семантическое ядро онлайн

  1. Первым делом, нам нужно использовать сервис от Яндекс — . Здесь мы сделаем первоначальную выборку возможных ключей.

В этой статье, я буду собирать СЯ на тему, «как укладывать ламинат». Подобным образом можно использовать эту инструкцию по составлению семантического ядра для любой темы.

  1. Если наша статья будет на тему «как укладывать ламинат», то мы введем этот запрос для получения информации о частотности в wordstat.yandex.ru .

Как мы видим, помимо целевого запроса нам выпало много похожих запросов содержащих фразу «укладывать ламинат» , тут можно от сеять все лишнее, все ключи, которые не будут рассмотрены в нашей статье. Например, мы не будем писать на схожие темы, такие как «сколько стоит уложить ламинат» , «неровно уложили ламинат» и т. п.

Для избавления от множества заведомо не подходящих запросов, рекомендую использовать оператор «-» (минус) .

  1. Подставляем минус, а после него все слова не в тему.

  1. Теперь, выделяем все что осталось и копируем запросы в блокнот или в Word.

  1. Вставив все в файл Word, пробегаемся глазками и удаляем все, что не будет раскрыто в нашей статье, если встречаются ложные запросы, то проверить на наличие их в документе поможет сочетание клавиш Ctrl+F , открывается окно (боковая панель слева), куда мы вводим искомые слова.

Первая часть работы выполнена, теперь можно проверить нашу заготовку семантического ядра Яндекс на чистую частотность, в этом нам поможет оператор кавычки.

Если слов мало, то это легко сделать прямо в вордстат, подставив фразу в кавычках и найдя чистую частотность (кавычки показывают, сколько было запросов с содержанием именно этой фразы, без дополнительных слов) . А если, как в нашем примере семантического ядра статьи или сайта, получилось много слов, то лучше автоматизировать эту работу с помощью сервиса Мутаген .

Для избавления от цифр используйте следующие действия с документом Ворд.

  1. Ctrl+A — для выделения всего содержимого документа.
  2. Ctrl+H — вызывает окно для замены символов.
  3. Подставляем в первую строку ^# и жмем «заменить все» эта комбинация удалит все цифры из нашего документа.

Будьте осторожны с ключами, которые содержат цифры, вышеперечисленные действия могут изменить ключ.

Подбор семантического ядра для сайта/статьи онлайн

Итак, подробно о сервисе я писал . Здесь мы продолжим обучение составлению семантического ядра.

  1. Заходим на сайт и пользуемся этой программой для составления семантического ядра, так как более лучшей альтернативы я не встречал .
  1. Сначала отпарсим чистую частотность для этого проходим «парсер вордстат» → «массовый парсинг»


  1. Вставляем все наши отобранные слова из документа в окно парсера (Ctrl+C и Ctrl+V) и выбираем «Частотность вордстат» в кавычках .

Данная автоматизация процессов стоит всего 2 копейки за фразу ! Если вы подбираете семантическое ядро для интернет магазина, то такой подход вам сэкономит время за сущие копейки!

  1. Жмем отправить на проверку и, как правило через 10-40 секунд (в зависимости от количества слов) вы сможете скачать слова уже имеющие частотность в кавычках.
  1. Файл на выходе имеет расширение.CSV он открывается в Эксель. Начинаем фильтровать данные чтобы сделать семантическое ядро онлайн.


  • Дописываем третью колонку, она нужна для выставления конкуренции (в следующем шаге).
  • Ставим фильтр по всем трем столбцам.
  • Отфильтровываем «по убыванию» столбец «частотность».
  • Все что имеет частотность ниже 10 — удаляется .

Мы получили список ключей , который можем использовать в тексте статьи, но для начала необходимо проверить их на конкуренцию . Ведь если эта тема изъезжена в интернете вдоль и поперек, имеет ли смысл писать по данному ключу статью? Вероятность, что наша статья по нему выйдет в ТОП, крайне мала!

  1. Для проверки конкуренции онлайн семантического ядра заходим в «конкуренция».


  1. Начинаем проверять каждый запрос и полученную величину конкуренции подставляем в соответствующий столбец в нашем файле эксель.

Стоимость проверки одной ключевой фразы составляет 30 копеек .

После первого пополнения баланса, вам будет доступно 10 бесплатных проверок каждые сутки.

Для определения фраз, которые стоят для написания статьи берите наилучшее соотношение частотность-конкуренция .

Писать статью стоит:

  • частотность не менее 300;
  • конкуренция не выше 12 (лучше меньше).

Составление семантического ядра онлайн применяя низкоконкурентные фразы даст вам трафик. Если у вас новый сайт, то он появиться не сразу придется ждать от 4 до 8 месяцев.

Почти в любой тематике можно найти СЧ и ВЧ с низкой конкуренцией от 1 до 5, по таким ключам реально в день получать от 50 посетителей.

Для кластеризации запросов семантического ядра используйте , они помогут вам сделать правильную структуру сайта.

Куда вставлять семантическое ядро в тексте

После сбора семантического ядра для сайта пора вписать ключевые фразы в текст и вот несколько рекомендаций для начинающих, и тех, кто «не верит» в существование поискового трафика.

Правила вписывания в текст ключевых слов

  • Ключ достаточно употребить 1 раз;
  • слова можно склонять по падежам, менять местами;
  • можно разбавлять фразы другими словами, хорошо, когда все ключевые фразы разбавлены и читабельны;
  • можно убирать/заменять предлоги и вопросительные слова (как, что, зачем и т. д.);
  • можно вставлять во фразу знаки «-» и «:»

например:
есть ключ: «Как уложить ламинат своими руками» в тексте он может выглядеть так: «…для того, чтобы уложить доски ламината своими руками нам потребуется…» или так, «Каждый, кто пытался уложить ламинат своими собственными руками…» .

Некоторые фразы уже содержат в себе другие , например фраза:
«как уложить ламинат своими руками на кухне» уже содержит в себе ключевую фразу «как уложить ламинат своими руками» . В таком случае, разрешается опустить вторую, так как она уже присутствует в тексте. Но если ключей мало , то лучше ее также употребить в тексте или в Title, или в Description.

  • если не получается впихнуть фразу в текст, то оставьте, не делайте этого (минимум две фразы можно употребить в Title и Description и не писать их в тело статьи);
  • Обязательно , одна фраза — это название статьи (самая жирная частотность-конкуренция) , на языке вебмастеров — это H1, эту фразу достаточно употребить один раз в теле текста.

Противопоказания к в писанию ключей

  • нельзя разделять ключевую фразу запятой (только в крайнем случае) или точкой;
  • нельзя вписывать ключ в текст в прямом виде так, что он будет смотреться не естественно (не читабельно);

Заголовок и описание страницы

Title и Description — это заголовок и описание страницы, они не видны в статье, их показывает Яндекс и Google при поисковой выдаче пользователю.

Правила написания:

  • заголовок и описание должны быть «журналистские», то есть привлекательны для перехода;
  • содержать в себе тематический (релевантный запросу) текст, для этого вписываем в заголовок и в описание ключевые фразы (разбавленные).

Общие требования по количеству символов у плагина All in one SEO pack , следующие:

  • Title — 60 символов (включая пробелы).
  • Description — 160 символов (включая пробелы).

Проверить на плагиат свое творение или полученное от можно с помощью .

На этом с темой, что делать с семантическим ядром после составления мы разобрались. В заключении поделюсь собственным опытом.

После составления семантического ядра по инструкции — мой опыт

Вы можете подумать, что я Вам втюхиваю что-то не правдоподобное. Чтобы не быть голословным вот скриншот статистики за последний, (но не единственный) год этого сайта, как мне удалось перестроить блог и начать получать трафик.

Это обучение составлению семантического ядра хоть и длинное но действенное, ведь в сайтостроении главное правильный подход и терпение!

Если остались вопросы или есть критика, то пишите в комментарии, мне будет интересно, также делитесь своим опытом!

Вконтакте

Здравствуйте, уважаемые читатели блога сайт. Хочу сделать очередной заход на тему «сбора семядра». Сначала , как полагается, а потом много практики, может быть и несколько неуклюжей в моем исполнении. Итак, лирика. Ходить с завязанными глазами в поисках удачи мне надоело уже через год, после начала ведения этого блога. Да, были «удачные попадания» (интуитивное угадывание часто задаваемых поисковикам запросов) и был определенный трафик с поисковиков, но хотелось каждый раз бить в цель (по крайней мере, ее видеть).

Потом захотелось большего — автоматизации процесса сбора запросов и отсева «пустышек». По этой причине появился опыт работы с Кейколлектором (и его неблагозвучным младшим братом) и очередная статья на тему . Все было здорово и даже просто замечательно, пока я не понял, что есть один таки очень важный момент, оставшийся по сути за кадром — раскидывание запросов по статьям.

Писать отдельную статью под отдельный запрос оправдано либо в высококонкурентных тематиках, либо в сильно доходных. Для инфосайтов же — это полный бред, а посему приходится запросы объединять на одной странице. Как? Интуитивно, т.е. опять же вслепую. А ведь далеко не все запросы уживаются на одной странице и имеют хотя бы гипотетический шанс выйти в Топ.

Собственно, сегодня как раз и пойдет речь об автоматической кластеризации семантического ядра посредством KeyAssort (разбивке запросов по страницам, а для новых сайтов еще и построение на их основе структуры, т.е. разделов, категорий). Ну, и сам процесс сбора запросов мы еще раз пройдем на всякий пожарный (в том числе и с новыми инструментами).

Какой из этапов сбора семантического ядра самый важный?

Сам по себе сбор запросов (основы семантического ядра) для будущего или уже существующего сайта является процессом довольно таки интересным (кому как, конечно же) и реализован может быть несколькими способами, результаты которых можно будет потом объединить в один большой список (почистив дубли, удалив пустышки по стоп словам).

Например, можно вручную начать терзать Вордстат , а в добавок к этому подключить Кейколлектор (или его неблагозвучную бесплатную версию). Однако, это все здорово, когда вы с тематикой более-менее знакомы и знаете ключи, на которые можно опереться (собирая их производные и схожие запросы из правой колонки Вордстата).

В противном же случае (да, и в любом случае это не помешает) начать можно будет с инструментов «грубого помола». Например, Serpstat (в девичестве Prodvigator), который позволяет буквально «ограбить» ваших конкурентов на предмет используемых ими ключевых слов (смотрите ). Есть и другие подобные «грабящие конкурентов» сервисы (spywords, keys.so), но я «прикипел» именно к бывшему Продвигатору.

В конце концов, есть и бесплатный Букварис , который позволяет очень быстро стартануть в сборе запросов. Также можно заказать частным образом выгрузку из монстрообразной базы Ahrefs и получить опять таки ключи ваших конкурентов. Вообще, стоит рассматривать все, что может принести хотя бы толику полезных для будущего продвижения запросов, которые потом не так уж сложно будет почистить и объединить в один большой (зачастую даже огромный список).

Все это мы (в общих чертах, конечно же) рассмотрим чуть ниже, но в конце всегда встает главный вопрос — что делать дальше . На самом деле, страшно бывает даже просто подступиться к тому, что мы получили в результате (пограбив десяток-другой конкурентов и поскребя по сусекам Кейколлектором). Голова может лопнуть от попытки разбить все эти запросы (ключевые слова) по отдельным страницах будущего или уже существующего сайта.

Какие запросы будут удачно уживаться на одной странице, а какие даже не стоит пытаться объединять? Реально сложный вопрос, который я ранее решал чисто интуитивно, ибо анализировать выдачу Яндекса (или Гугла) на предмет «а как там у конкурентов» вручную убого, а варианты автоматизации под руку не попадались. Ну, до поры до времени. Все ж таки подобный инструмент «всплыл» и о нем сегодня пойдет речь в заключительной части статьи.

Это не онлайн-сервис, а программное решение, дистрибутив которого можно скачать на главной странице официального сайта (демо-версию).

Посему никаких ограничений на количество обрабатываемых запросов нет — сколько надо, столько и обрабатывайте (есть, однако, нюансы в сборе данных). Платная версия стоит менее двух тысяч, что для решаемых задач, можно сказать, даром (имхо).

Но про техническую сторону KeyAssort мы чуть ниже поговорим, а тут хотелось бы сказать про сам принцип, который позволяет разбить список ключевых слов (практически любой длины) на кластеры, т.е. набор ключевых слов, которые с успехом можно использовать на одной странице сайта (оптимизировать под них текст, заголовки и ссылочную массу — применить магию SEO).

Откуда вообще можно черпать информацию? Кто подскажет, что «выгорит», а что достоверно не сработает? Очевидно, что лучшим советчиком будет сама поисковая система (в нашем случае Яндекс, как кладезь коммерческих запросов). Достаточно посмотреть на большом объеме данных выдачу (допустим, проаналазировать ТОП 10) по всем этим запросам (из собранного списка будущего семядра) и понять, что удалось вашим конкурентам успешно объединить на одной странице. Если эта тенденция будет несколько раз повторяться, то можно говорить о закономерности, а на основе нее уже можно бить ключи на кластеры.

KeyAssort позволяет в настройках задавать «строгость», с которой будут формироваться кластеры (отбирать ключи, которые можно использовать на одной странице). Например, для коммерции имеет смысл ужесточать требования отбора, ибо важно получить гарантированный результат, пусть и за счет чуть больших затрат на написание текстов под большее число кластеров. Для информационных сайтов можно наоборот сделать некоторые послабления, чтобы меньшими усилиями получить потенциально больший трафик (с несколько большим риском «невыгорания»). Как это сделать опять же поговорим.

А что делать, если у вас уже есть сайт с кучей статей, но вы хотите расширить существующее семядро и оптимизировать уже имеющиеся статьи под большее число ключей, чтобы за минимум усилий (чуток сместить акцент ключей) получить поболе трафика? Эта программка и на этот вопрос дает ответ — можно те запросы, под которые уже оптимизированы существующие страницы, сделать маркерными, и вокруг них KeyAssort соберет кластер с дополнительными запросами, которые вполне успешно продвигают (на одной странице) ваши конкуренты по выдаче. Интересненько так получается...

Как собрать пул запросов по нужной вам тематике?

Любое семантическое ядро начинается, по сути, со сбора огромного количества запросов, большая часть из которых будет отброшена. Но главное, чтобы на первичном этапе в него попали те самые «жемчужины», под которые потом и будут создаваться и продвигаться отдельные страницы вашего будущего или уже существующего сайта. На данном этапе, наверное, самым важным является набрать как можно больше более-менее подходящих запросов и ничего не упустить, а пустышки потом легко отсеяться.

Встает справедливый вопрос, а какие инструменты для этого использовать ? Есть один однозначный и очень правильный ответ — разные. Чем больше, тем лучше. Однако, эти самые методики сбора семантического ядра, наверное, стоит перечислить и дать общие оценки и рекомендации по их использованию.

  1. Яндекс Вордстат и его аналоги у других поисковых систем — изначально эти инструменты предназначались для тех, кто размещает контекстную рекламу, чтобы они могли понимать, насколько популярны те или иные фразы у пользователей поисковиков. Ну, понятно, что Сеошники этими инструментами пользуются тоже и весьма успешно. Могу порекомендовать пробежаться глазами по статье , а также упомянутой в самом начале этой публикации статье (полезно будет начинающим).

    Из недостатков Водстата можно отметить:

    1. Чудовищно много ручной работы (однозначно требуется автоматизация и она будет рассмотрена чуть ниже), как по пробивке фраз основанных на ключе, так и по пробивке ассоциативных запросов из правой колонки.
    2. Ограничение выдачи Вордстата (2000 запросов и не строчкой больше) может стать проблемой, ибо для некоторых фраз (например, «работа») это крайне мало и мы упускаем из вида низкочастотные, а иногда даже и среднечастотные запросы, способные приносить неплохой трафик и доход (их ведь многие упускают). Приходится «сильно напрягать голову», либо использовать альтернативные методы (например, базы ключевых слов, одну из которых мы рассмотрим ниже — при этом она бесплатная!).
  2. КейКоллектор (и его бесплатный младший брат Slovoeb ) — несколько лет назад появление этой программы было просто «спасением» для многих тружеников сети (да и сейчас представить без КК работу над семядром довольно трудно). Лирика. Я купил КК еще два или три года назад, но пользовался им от силы несколько месяцев, ибо программа привязана к железу (начинке компа), а она у меня по нескольку раз в год меняется. В общем, имея лицензию на КК пользуюсь SE — так то вот, до чего лень доводит.

    Подробности можете почитать в статье « ». Обе программы помогут вам собрать запросы и из правой, и из левой колонки Вордстата, а также поисковые подсказки по нужным вам ключевым фразам. Подсказки — это то, что выпадает из поисковой строки, когда вы начинаете набирать запрос. Пользователи часто не закончив набор просто выбирают наиболее подходящий из этого списка вариант. Сеошники это дело просекли и используют такие запросы в оптимизации и даже .

    КК и SE позволяют сразу набрать очень большой пул запросов (правда, может потребоваться много времени, либо покупка XML лимитов, но об этом чуть ниже) и легко отсеять пустышки, например, проверкой частотности фраз взятых в кавычки (учите матчасть, если не поняли о чем речь — ссылки в начале публикации) или задав список стоп-слов (особо актуально для коммерции). После чего весь пул запросов можно легко экспортировать в Эксель для дальнейшей работы или для загрузки в KeyAssort (кластеризатор), о котором речь пойдет ниже.

  3. СерпСтат (и другие подобные сервисы) — позволяет введя Урл своего сайта получить список ваших конкурентов по выдаче Яндекса и Гугла. А по каждому из этих конкурентов можно будет получить полный список ключевых слов, по которым им удалось пробиться и достичь определенных высот (получить трафик с поисковиков). Сводная таблица будет содержать частотность фразы, место сайта по ней в Топе и кучу другой разной полезной и не очень информации.

    Не так давно я пользовал почти самый дорогой тарифный план Серпстата (но только один месяц) и успел за это время насохранять в Экселе чуть ли не гигабайт разных полезняшек. Собрал не только ключи конкурентов, но и просто пулы запросов по интересовавшим меня ключевым фразам, а также собрал семядра самых удачных страниц своих конкурентов, что, мне кажется, тоже очень важно. Одно плохо — теперь никак время не найду, чтобы вплотную заняться обработкой всей это бесценной информации. Но возможно, что KeyAssort все-таки снимет оцепенение перед чудовищной махиной данных, которые нужно обработать.

  4. Букварикс — бесплатная база ключевых слов в своей собственной программной оболочке. Подбор ключевиков занимает доли секунды (выгрузка в Эксель минуты). Сколько там миллионов слов не помню, но отзывы о ней (в том числе и мой) просто отличные, и главное все это богатство бесплатно! Правда, дистрибутив программы весить 28 Гигов, а в распокованном виде база занимает на жестком диске более 100 Гбайт, но это все мелочи по сравнению с простотой и скоростью сбора пула запросов.

    Но не только скорость сбора семядра является основным плюсом по сравнению с Вордстатом и КейКоллектором. Главное, что тут нет ограничений на 2000 строк для каждого запроса, а значит никакие НЧ и сверх НЧ от нас не ускользнут. Конечно же, частотность можно будет еще раз уточнить через тот же КК и по стоп-словам в нем отсев провести, но основную задачу Букварикс выполняет замечательно. Правда, сортировка по столбцам у него не работает, но сохранив пул запросов в Эксель там можно будет сортировать как заблагороссудится.

Наверное, еще как минимум несколько «серьезных» инструментов собора пула запросов приведете вы сами в комментариях, а я их успешно позаимствую...

Как очистить собранные поисковые запросы от «пустышек» и «мусора»?

Полученный в результате описанных выше манипуляций список, скорее всего, будет весьма большим (если не огромным). Поэтому прежде чем загружать его в кластерезатор (у нас это будет KeyAssort) имеет смысл его слегка почистить . Для этого пул запросов, например, можно выгрузить к кейколлектор и убрать:

  1. Запросы со слишком низкой частотностью (лично я пробиваю частотность в кавычках, но без восклицательных знаков). Какой порог выбирать решать вам, и во многом это зависит от тематики, конкурентности и типа ресурса, под который собирается семядро.
  2. Для коммерческих запросов имеется смысл использовать список стоп-слов (типа, «бесплатно», «скачать», «реферат», а также, например, названия городов, года и т.п.), чтобы заранее убрать из семядра то, что заведомо не приведет на сайт целевых покупателей (отсеять халявшиков, ищущих информацию, а не товар, ну, и жителей других регионов, например).
  3. Иногда имеет смысл руководствоваться при отсеве показателем конкуренции по данному запросу в выдаче. Например, по запросу «пластиковые окна» или «кондиционеры» можно даже не рыпаться — провал обеспечен заранее и со стопроцентной гарантией.

Скажите, что это слишком просто на словах, но сложно на деле. А вот и нет. Почему? А потому что один уважаемый мною человек (Михаил Шакин) не пожалел времени и записал видео с подробным описанием способов очистки поисковых запросов в Key Collector :

Спасибо ему за это, ибо данные вопрос гораздо проще и понятнее показать, чем описать в статье. В общем справитесь, ибо я в вас верю...

Настройка кластеризатора семядра KeyAssort под ваш сайт

Собственно, начинается самое интересное. Теперь весь этот огромный список ключей нужно будет как-то разбить (раскидать) на отдельных страницах вашего будущего или уже существующего сайта (который вы хотите существенно улучшить в плане приносимого с поисковых систем трафика). Не буду повторяться и говорить о принципах и сложности данного процесса, ибо зачем тогда я первую часть этой стать писал.

Итак, наш метод довольно прост. Идем на официальный сайт KeyAssort и скачиваем демо-версию , чтобы попробовать программу на зуб (отличие демо от полной версии — это невозможность выгрузить, то бишь экспортировать собранное семядро), а уже опосля можно будет и оплатить (1900 рубликов — мало, мало по современным реалиям). Если хотите сразу начать работу над ядром что называется «на чистовик», то лучше тогда выбрать полную версию с возможностью экспорта.

Программа КейАссорт сама собирать ключи не умеет (это, собственно, и не ее прерогатива), а посему их потребуется в нее загрузить. Сделать это можно четырьмя способами — вручную (наверное, имеется смысл прибегать к этому методу для добавления каких-то найденных уже опосля основного сбора ключей), а также три пакетных способа импорта ключей :

  1. в формате тхт — когда нужно импортировать просто список ключей (каждый на отдельной строке тхт файлика и ).
  2. а также два варианта экселевского формата: с нужными вам в дальнейшем параметрами, либо с собранными сайтами из ТОП10 по каждому ключу. Последнее может ускорить процесс кластеризации, ибо программе KeyAssort не придется самой парсить выдачу для сбора эти данных. Однако, Урлы из ТОП10 должны быть свежими и точными (такой вариант списка можно получить, например, в Кейколлекторе).

Да, что я вам рассказываю — лучше один раз увидеть:

В любом случае, сначала не забудьте создать новый проект в том же самом меню «Файл», а уже потом только станет доступной функция импорта:

Давайте пробежимся по настройкам программы (благо их совсем немного), ибо для разных типов сайтов может оказаться оптимальным разный набор настроек. Открываете вкладку «Сервис» — «Настройки программы» и можно сразу переходить на вкладку «Кластеризация» :

Тут самое важное — это, пожалуй, выбор необходимого вам вида кластеризации . В программе могут использоваться два принципа, по которым запросы объединяются в группы (кластеры) — жесткий и мягкий.

  1. Hard — все запросы попавшие в одну группу (пригодные для продвижения на одной странице) должны быть объединены на одной странице у необходимого числа конкурентов из Топа (это число задается в строке «сила группировки»).
  2. Soft — все запросы попавшие в одну группу будут частично встречаться на одной странице у нужного числа конкурентов и Топа (это число тоже задается в строке «сила группировки»).

Есть хорошая картинка наглядно все это иллюстрирующая:

Если непонятно, то не берите в голову, ибо это просто объяснение принципа, а нам важна не теория, а практика, которая гласит, что:

  1. Hard кластеризацию лучше применять для коммерческих сайтов . Этот метод дает высокую точность, благодаря чему вероятность попадания в Топ объединенных на одной странице сайта запросов будет выше (при должном подходе к оптимизации текста и его продвижению), хотя самих запросов будет меньше в кластере, а значит самих кластеров больше (больше придется страниц создавать и продвигать).
  2. Soft кластеризацию имеет смысл использовать для информационных сайтов , ибо статьи будут получаться с высоким показателем полноты (будут способны дать ответ на ряд схожих по смыслу запросов пользователей), которая тоже учитывается в ранжировании. Да и самих страниц будет поменьше.

Еще одной важной, на мой взгляд, настройкой является галочка в поле «Использовать маркерные фразы» . Зачем это может понадобиться? Давайте посмотрим.

Допустим, что у вас уже есть сайт, но страницы на нем были оптимизированы не под пул запросов, а под какой-то один, или же этот пул вы считаете недостаточно объемным. При этом вы всем сердцем хотите расширить семядро не только за счет добавления новых страниц, но и за счет совершенствования уже существующих (это все же проще в плане реализации). Значит нужно для каждой такой страниц добрать семядро «до полного».

Именно для этого и нужна эта настройка. После ее активации напротив каждой фразы в вашем списке запросов можно будет поставить галочку. Вам останется только отыскать те основные запросы, под которые вы уже оптимизировали существующие страницы своего сайта (по одному на страницу) и программа KeyAssort выстроит кластеры именно вокруг них. Собственно, все. Подробнее «курите» в этом видео:

Еще одна важная (для правильной работы программы) настройка живет на вкладке «Сбор данных с Яндекс XML» . вы можете прочитать в приведенной статье. Если вкратце, то Сеошники постоянно парсят выдачу Яндекса и выдачу Вордстата, создавая чрезмерную нагрузку на его мощности. Для защиты была внедрена капча, а также разработан спецдоступ по XML, где уже не будет вылезать капча и не будет происходить искажение данных по проверяемым ключам. Правда, число таких проверок в сутки будет строго ограничено.

От чего зависит число выделенных лимитов? От того, как Яндекс оценит ваши . можно перейдя по этой ссылке (находясь в том же браузере, где вы авторизованы в Я.Вебмастере). Например, у меня это выглядит так:

Там еще есть снизу график распределения лимитов по времени суток, что тоже важно. Если запросов нужно пробить много, а лимитов мало, то не проблема. Их можно докупить . Не у Яндекса, конечно же, напрямую, а у тех, у кого эти лимиты есть, но они им не нужны.

Механизм Яндекс XML позволяет проводить передачу лимитов, а биржи, подвязавшиеся быть посредниками, помогают все это автоматизировать. Например, на XMLProxy можно прикупить лимитов всего лишь по 5 рублей за 1000 запросов, что, согласитесь, совсем уж не дорого.

Но не суть важно, ибо купленные вами лимиты все равно ведь перетекут к вам на «счет», а вот чтобы их использовать в KeyAssort, нужно будет перейти на вкладку "Настройка " и скопировать длинную ссылку в поле «URL для запросов» (не забудьте кликнуть по «Ваш текущий IP» и нажать на кнопку «Сохранить», чтобы привязать ключ к вашему компу):

После чего останется только вставить этот Урл в окно с настройками KeyAssort в поле «Урл для запросов»:

Собственно все, с настройками KeyAssort покончено — можно приступать к кластеризации семантического ядра.

Кластеризация ключевых фраз в KeyAssort

Итак, надеюсь, что вы все настроили (выбрали нужный тип кластеризации, подключили свои или покупные лимиты от Яндекс XML), разобрались со способами импорта списка с запросами, ну и успешно все это дело перенесли в КейАссорт. Что дальше? А дальше уж точно самое интересное — запуск сбора данных (Урлов сайтов из Топ10 по каждому запросу) и последующая кластеризация всего списка на основе этих данных и сделанных вами настроек.

Итак, для начала жмем на кнопку «Собрать данные» и ожидаем от нескольких минут до нескольких часов, пока программа прошерстит Топы по всем запросам из списка (чем их больше, тем дольше ждать):

У меня на три сотни запросов (это маленькое ядро для серии статей про работу в интернете) ушло около минуты. После чего можно уже приступать непосредственно к кластеризации , становится доступна одноименная кнопка на панели инструментов KeyAssort. Процесс этот очень быстрый, и буквально через несколько секунд я получил целый набор калстеров (групп), оформленных в виде вложенных списков:

Подробнее об использовании интерфейса программы, а также про создание кластеров для уже существующих страниц сайта смотрите лучше в ролике, ибо так гораздо нагляднее:

Все, что хотели, то мы и получили, и заметьте — на полном автомате. Лепота.

Хотя, если вы создаете новый сайт, то кроме кластеризации очень важно бывает наметить будущую структуру сайта (определить разделы/категории и распределить по ним кластеры для будущих страниц). Как ни странно, но это вполне удобно делать именно в KeyAssort, но правда уже не в автоматическом режиме, а в ручном режиме. Как?

Проще опять же будет один раз увидеть — все верстается буквально на глазах простым перетаскиванием кластеров из левого окна программы в правое:

Если программу вы таки купили, то сможете экспортировать полученное семантическое ядро (а фактически структуру будущего сайта) в Эксель. Причем, на первой вкладке с запросами можно будет работать в виде единого списка, а на второй уже будет сохранена та структура, что вы настроили в KeyAssort. Весьма, весьма удобно.

Ну, как бы все. Готов обсудить и услышать ваше мнение по поводу сбора семядра для сайта.

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Vpodskazke - новый сервис Вподсказке для продвижения подсказок в поисковых системах SE Ranking - лучший сервис мониторинга позиций для новичков и профессионалов в SEO Сбор полного семантического ядра в Топвизоре, многообразие способов подбора ключевых слов и их группировка по страницам Практика сбора семантического ядра под SEO от профессионала - как это происходит в текущих реалиях 2018 Оптимизация поведенческих факторов без их накрутки SEO PowerSuite - программы для внутренней (WebSite Auditor, Rank Tracker) и внешней (SEO SpyGlass, LinkAssistant) оптимизации сайта Подбор ключевых слов в Яндекс Вордстате - анализ статистики вручную и с помощью программ Slovoeb или Key Collector
Serpstat - обзор инструментов "Мониторинг позиций", "Кластеризация" и "Текстовая аналитика"

Семантическое ядро — довольно избитая тема, не так ли? Сегодня мы вместе это исправим, собрав семантику в этом уроке!

Не верите? - посмотрите сами - достаточно просто вбить в Яндекс или Гугл фразу семантическое ядро сайта. Думаю, что сегодня я исправлю эту досадную ошибку.

А ведь и в самом деле, какая она для вас - идеальная семантика ? Можно подумать, что за глупый вопрос, но на самом деле он совсем даже неглуп, просто большинство web-мастеров и владельцев сайтов свято верят, что умеют составлять семантические ядра и в то, что со всем этим справится любой школьник, да еще и сами пытаются научить других… Но на самом деле все намного сложней. Однажды у меня спросили — что стоит делать вначале? — сам сайт и контент или сем ядро , причем спросил человек, который далеко не считает себя новичком в сео. Вот данный вопрос и дал мне понять всю сложность и неоднозначность данной проблемы.

Семантическое ядро — основа основ — тот самый первый шажок, который стоит перед и запуском любой рекламной кампании в интернете. Наряду с этим — семантика сайта наиболее муторный процесс, который потребует немало времени, зато с лихвой окупится в любом случае.

Ну что же… Давайте создадим его вместе!

Небольшое предисловие

Для создания семантического поля сайта нам понадобится одна-единственная программа — Key Collector . На примере Коллектора я разберу пример сбора небольшой сем группы. Помимо платной программы, есть и бесплатные аналоги вроде СловоЕб и других.

Семантика собирается в несколько базовых этапов, среди которых следует выделить:

  • мозговой штурм - анализ базовых фраз и подготовка парсинга
  • парсинг - расширение базовой семантики на основе Вордстат и других источников
  • отсев - отсев после парсинга
  • анализ - анализ частотности, сезонности, конкуренции и других важных показателей
  • доработка - групировка, разделение коммерческих и информационных фраз ядра

О наиболее важных этапах сбора и пойдет речь ниже!

ВИДЕО - составление семантического ядра по конкурентам

Мозговой штурм при создании семантического ядра — напрягаем мозги

На данном этапе надо в уме произвести подбор семантического ядра сайта и придумать как можно больше фраз под нашу тематику. Итак, запускаем кей коллектор и выбираем парсинг Wordstat , как это показано на скриншоте:

Перед нами открывается маленькое окошко, где необходимо ввести максимум фраз по нашей тематике. Как я уже говорил, в данной статье мы создадим пример набор фраз для этого блога , поэтому фразы могут быть следующими:

  • seo блог
  • сео блог
  • блог про сео
  • блог про seo
  • продвижение
  • продвижение проекта
  • раскрутка
  • раскрутка
  • продвижение блогов
  • продвижение блога
  • раскрутка блогов
  • раскрутка блога
  • продвижение статьями
  • статейное продвижение
  • miralinks
  • работа в sape
  • покупка ссылок
  • закупка ссылок
  • оптимизация
  • оптимизация страницы
  • внутренняя оптимизация
  • самостоятельная раскрутка
  • как раскрутить ресурс
  • как раскрутить свой сайт
  • как раскрутить сайт самому
  • как раскрутить сайт самостоятельно
  • самостоятельная раскрутка
  • бесплатная раскрутка
  • бесплатное продвижение
  • поисковая оптимизация
  • как продвинуть сайт в яндексе
  • как раскрутить сайт в яндексе
  • продвижение под яндекс
  • продвижение под гугл
  • раскрутка в гугл
  • индексация
  • ускорение индексации
  • выбор донора сайту
  • отсев доноров
  • раскрутка постовыми
  • использование постовых
  • раскрутка блогами
  • алгоритм яндекса
  • апдейт тиц
  • апдейт поисковой базы
  • апдейт яндекса
  • ссылки навсегда
  • вечные ссылки
  • аренда ссылок
  • арендованные ссылке
  • ссылки с помесячной оплатой
  • составление семантического ядра
  • секреты раскрутки
  • секреты раскрутки
  • тайны seo
  • тайны оптимизации

Думаю, достаточно, и так список с пол страницы;) В общем, идея в том, что на первом этапе вам необходимо проанализировать по максимуму свою отрасль и выбрать как можно больше фраз, отражающих тематику сайта. Хотя, если вы что-либо упустили на этом этапе — не отчаивайтесь — упущенные словосочетания обязательно всплывут на следующих этапах , просто придется делать много лишней работы, но ничего страшного. Берем наш список и копируем в key collector. Далее, нажимаем на кнопку — Парсить с Яндекс.Wordstat :

Парсинг может занять довольно продолжительное время, поэтому следует запастись терпением. Семантическое ядро обычно собирается 3-5 дней и первый день у вас уйдет на подготовку базового семантического ядра и парсинг.

О том, как работать с ресурсом , как подобрать ключевые слова я писал подробную инструкцию. А можно узнать о продвижении сайта по НЧ запросам.

Дополнительно скажу, что вместо мозгового штурма мы можем использовать уже готовую семантику конкурентов при помощи одного из специализированных сервисов, например — SpyWords. В интерфейсе данного сервиса мы просто вводим необходимое нам ключевое слово и видим основных конкурентов, которые присутствуют по этому словосочетанию в ТОП. Более того - семантика сайта любого конкурента может быть полностью выгружена при помощи этого сервиса.

Далее, мы можем выбрать любого из них и вытащить его запросы, которую останется отсеять от мусора и использовать как базовую семантику для дальнейшего парсинга. Либо мы можем поступить еще проще и использовать .

Чистка семантики

Как только, парсинг вордстата полностью прекратится — пришло время отсеять семантическое ядро . Данный этап очень важен, поэтому отнеситесь к нему с должным вниманием.

Итак, у меня парсинг закончился, но словосочетаний получилось ОЧЕНЬ много , а следовательно, отсев слов может отнять у нас лишнее время. Поэтому, перед тем как перейти к определению частотности, следует произвести первичную чистку слов. Сделаем мы это в несколько этапов:

1. Отфильтруем запросы с очень низкими частотностями

Для этого наживаем на символ сортировки по частотности, и начинаем отчищать все запросы, у которых частотности ниже 30:

Думаю, что с данным пунктом вы сможете без труда справиться.

2. Уберем не подходящие по смыслу запросы

Существуют такие запросы, которые имеют достаточную частотность и низкую конкуренцию, но они совершенно не подходят под нашу тематику . Такие ключи необходимо удалить перед проверкой точных вхождений ключа, т.к. проверка может отнять очень много времени. Удалять такие ключи мы будем вручную. Итак, для моего блога лишними оказались:

  • курсы поисковой оптимизации
  • продам раскрученный сайт

Анализ семантического ядра

На данном этапе, нам необходимо определить точные частотности наших ключей, для чего вам необходимо нажать на символ лупы, как это показано на изображении:

Процесс довольно долгий, поэтому можете пойти и приготовить себе чай)

Когда проверка прошла успешно — необходимо продолжить чистку нашего ядра.

Предлагаю вам удалить все ключи с частотностью меньше 10 запросов. Также, для своего блога я удалю все запросы, имеющие значения выше 1 000, так как продвигаться по таким запросам я пока что не планирую.

Экспорт и группировка семантического ядра

Не стоит думать, что данный этап окажется последним. Совсем нет! Сейчас нам необходимо перенести получившуюся группу в Exel для максимальной наглядности. Далее мы будем сортировать по страницам и тогда увидим многие недочеты, исправлением которых и займемся.

Экспортируется семантика сайта в Exel совсем нетрудно. Для этого просто необходимо нажать на соответствующий символ, как это показано на изображении:

После вставки в Exel, мы увидим следующую картину:

Столбцы, помеченные красным цветом необходимо удалить. Затем создаем еще одну таблицу в Exel, где будет содержаться финальное семантическое ядро.

В новой таблице будет 3 столбца: URL страницы , ключевое словосочетание и его частотность . В качестве URL выбираем или уже существующую страницу или страницу, которая будет создана в перспективе. Для начала, давайте выберем ключи для главной страницы моего блога:

После всех манипуляций, мы видим следующую картину. И сразу напрашивается несколько выводов:

  1. такие частотные запросы, как должны иметь намного больший хвост из менее частотных фраз, чем мы видим
  2. сео новости
  3. всплыл новый ключ, который мы не учли ранее — статьи сео . Необходимо проанализировать этот ключ

Как я уже говорил, ни один ключ от нас не спрячется. Следующим шагом для нас станет мозговой штурм этих трех фраз. После мозгового штурма повторяем все шаги начиная с самого первого пункта для этих ключей. Вам может все это показаться слишком долгим и нудным, но так оно и есть — составление семантического ядра — очень ответственная и кропотливая работа. Зато, грамотно составленное сем поле сильно поможет в продвижении сайта и способно сильно сэкономить ваш бюджет.

После всех проделанных операций, мы смогли получить новые ключи для главной страницы этого блога:

  • лучший seo блог
  • seo новости
  • статьи seo

И некоторые другие. Думаю, что методика вам понятна.

После всех этих манипуляций мы увидим, какие страницы нашего проекта необходимо изменить (), а какие новые страницы необходимо добавить. Большинство ключей, найденных нами (с частотностью до 100, а иногда и намного выше) можно без труда продвинуть одними .

Финальный отсев

В принципе, семантическое ядро практически готово, но есть еще один довольно важный пункт, который поможет нам заметно улучшить нашу сем группу. Для этого нам понадобится Seopult.

*На самом деле тут можно использовать любой из аналогичных сервисов, позволяющих узнать конкуренцию по ключевым словам, например, Мутаген!

Итак, создаем еще одну таблицу в Exel и копируем туда только названия ключей (средний столбец). Чтобы не тратить много времени, я скопирую только ключи для главной страницы своего блога:

Затем проверяем стоимость получения одного перехода по нашим ключевым словам:

Стоимость перехода по некоторым словосочетаниям превысила 5 рублей. Такие фразы необходимо исключить из нашего ядра.

Возможно, ваши предпочтения окажутся несколько иными, тогда вы можете исключать и менее дорогие фразы или наоборот. В своем случае, я удалил 7 фраз .

Полезная информация!

по составлению семантического ядра, с упором на отсев наиболее низкоконкурентных ключевых слов.

Если у вас свой интернет-магазин — прочитайте , где описано, как может быть использовано семантическое ядро.

Кластеризация семантического ядра

Уверен, что ранее тебе уже доводилось слышать это слово применительно к поисковому продвижению. Давай разберемся, что же это за зверь такой и зачем он нужен при продвижении сайта.
Классическая модель поискового продвижения выглядит следующим образом:

  • Подбор и анализ поисковых запросов
  • Группировка запросов по страницам сайта (создание посадочных страниц)
  • Подготовка seo текстов для посадочных страниц на основе группы запросов для этих страниц

Для облегчения и улучшения второго этапа в списке выше и служит кластеризация. По сути своей - кластеризация это программный метод, служащий для упрощения этого этапа при работе с большими семантиками, но тут не все так просто, как может показаться на первый взгляд.

Для лучшего понимания теории кластеризации следует сделать небольшой экскурс в историю SEO:

Еще буквально несколько лет назад, когда термин кластеризация не выглядывал из-за каждого угла - сеошники, в подавляющем большинстве случаев, группировали семантику руками. Но при группировке огромных семантик в 1000, 10 000 и даже 100 000 запросов данная процедура превращалась в настоящую каторгу для обычного человека. И тогда повсеместно начали использовать методику группировки по семантике (и сегодня очень многие используют этот подход). Методика группировки по семантике подразумевает объединение в одну группу запросов, имеющих семантическое родство. Как пример - запросы “купить стиральную машинку” и “купить стиральную машинку до 10 000” объединялись в одну группу. И все бы хорошо, но данный метод содержит в себе целый ряд критических проблем и для их понимания необходимо ввести новый термин в наше повествование, а именно – “интент запроса ”.

Проще всего описать данный термин можно как потребность пользователя, его желание. Интент является ни чем иным, как желанием пользователя, вводящего поисковый запрос.
Основа группировки семантики - собрать в одну группу запросы, имеющие один и тот же интент, либо максимально близкие интенты, причем тут всплывает сразу 2 интересных особенности, а именно:

  • Один и тот же интент могут иметь несколько запросов не имеющих какой-либо семантической близости, например – “обслуживание автомобиля” и “записаться на ТО”
  • Запросы, имеющие абсолютную семантическую близость могут содержать в себе кардинально разные интенты, например, хрестоматийная ситуация – “мобильник” и “мобильники”. В одном случае пользователь хочет купить телефон, а в другом посмотреть фильм

Так вот, группировка семантики по семантическому соответствию никак не учитывает интенты запросов. И группы, составленные таким образом не позволят написать текст, который попадет в ТОП. Во временя ручной группировки для устранения этого недоразумения ребята с профессией «подручный SEO специалиста» анализировали выдачу руками.

Суть кластеризации – сравнение сформировавшейся выдачи поисковой системы в поисках закономерностей. Из этого определения сразу следует сделать для себя заметку, что сама кластеризация не является истиной в последней инстанции, ведь сформировавшаяся выдача может и не раскрывать полностью интент (в базе Яндекс может просто не быть сайта, который правильно объединил запросы в группу).

Механика кластеризации проста и выглядит следующим образом:

  • Система поочередно вводит все поданные ей запросы в поисковую выдачу и запоминает результаты из ТОП
  • После поочередного ввода запросов и сохранения результатов, система ищет пересечения в выдаче. Если один и тот же сайт одним и тем же документом (страница сайта) находится в ТОП сразу по нескольким запросам, то эти запросы теоретически можно объединить в одну группу
  • Становится актуальным такой параметр, как сила группировки, который говорит системе, сколько именно должно быть пересечений, чтобы запросы можно было добавить в одну группу. К примеру, сила группировки 2 означает, что в выдаче по 2-м разным запросам должно присутствовать не менее двух пересечений. Говоря еще проще – минимум две страницы двух разных сайтов должны присутствовать одновременно в ТОП по одному и другому запросу. Пример ниже.
  • При группировках больших семантики становится актуальна логика связей между запросами, на основе которой выделяют 3 базовых вида кластеризации: soft, middle и hard. О видах кластеризации мы еще поговорим в следующих записях этого дневника