Получи клиентов из интернета!



Конец проблеме по съему позиций — классные отчеты + функциональность

Дата: 25.10.2013
Рубрика: SEO

Пожалуй, эту статью начну с вопроса: как и чем вы снимаете позиции для своих/клиентских сайтов?

Для нескольких сайтов не проблема найти сервис, т.к. на небольших объемах цены примерно одинаковые. Но как быть когда куча клиентских проектов и ты работаешь по большому семантическому ядру с каждым из них?!

И вопрос даже не в цене, ведь чекалку позиций можно заложить в стоимость услуг. Главное выбрать действительно удобный и полезный сервис, с хорошими отчетами, графиками, группировками и пр.

Мы перепробовали много онлайн-сервисов, но каждый чем-то отталкивал. Где-то с отчетностью туговато, где-то не очень корректно или с опозданием шел съем позиций, где-то группировка запросов и само юзабилити хромало. Пробовали Сеолиб, Топинспектор, Allposition, ссылочные агрегаторы (исключительно для съема позиций) и еще пару менее известных сервисов. Вы наверняка пробовали хоть один из них! Ну и как, они смогли закрепиться в вашем арсенале? В нашем как-то нет…

Может все таки десктоп?

Я никогда не смотрел в сторону десктопного приложения из-за определенных ограничений. В первую очередь это то, что самостоятельно необходимо запускать проверки и, конечно, это съем позиций с твоего же IP , а IP имеет свойство быстро банится, особенно Гуглом.

Однако, как ни странно, остановились мы именно на десктопе – SERP Parser.

Не раз поднимал вопрос в твиттере об этой программе. Многие остаются довольны и уже приноровились обходить бан IP Гуглом. Но не будем забегать вперед…

Какие задачи можем решать

1. Группировка запросов

Мы со всеми проектами работаем по большому семантическому ядру. Даже сайты-визитки в узких нишах продвигаются более чем по 100 запросам. В средних интернет-магазинах это число доходит и до 500.

Естественно, продвигать все 500 запросов единовременно – это слишком трудозатратно и положительного результата достичь гораздо сложней. Мы двигаем их частями из месяца в месяц, а вот количество зависит от бюджета, который выделяет клиент.

Сами ключи выбираем из конкуренции по ним, занимаемой позиции и недополучаемого трафика (если берем относительно старый сайт, у которого уже есть хоть какая-то посещаемость).

В любом случае важно следить за позициями как отобранных в этом месяцев ключевых слов, так и для всех 500 штук, чтобы следить за видимостью сайта в поисковиках и в целом за состоянием по проекту.

Поэтому мы создаем группу запросов, в которой содержатся все ключевые слова, а также группу актуальных слов, над которыми работаем в данном месяце:

1

2. Съем позиций

Начать его проще простого — нажать правой кнопкой мыши по категории запросов, в контекстном меню выбрать пункт «обновить» и процесс сбора данных начинается. Задать региональность конечно же можно.

2

Здесь следует отметить, что смело можно за раз проверять 200 запросов в 10 потоков. Если делаем больше/чаще/интенсивнее – получаем бан IP от Гугла.

У вас объемы больше 200 слов по проекту? Тогда уменьшаем темп (потоки) или делаем в несколько заходов и все. Либо используем прокси, если у вас есть качественный источник таковых.

Обязательно подключайте Antigate и не забывайте ставить галку автоматического распознавания, а то сотрете пальцы в кровь вводя капчу 🙂

3

3. Отчеты

Первый и самый интересный отчет это «Сводка по проекту»:

4

Здесь показывается общая динамика по проекту. Отчет удобен для беглого анализа ситуации – можно видеть, сколько запросов находится в том или ином топе и видеть динамику внутри ТОПа. Также данного вида отчеты можно скидывать клиенту, чтобы он следил за общей картиной.

Второй интересный отчет «Отчет по группе»:

5

Доступ к нему можно получить или перейдя по вкладке или нажав кнопку под меню.

Все изменения считаются с момента предыдущего съема позиций. Обозначения в полях поисковых систем означают следующее:

  1. «- или + число» — это изменение позиции фразы по сравнению с предыдущим съемом позиций,
  2. «B число» — это лучшая позиция по фразе за весь период съема данных,
  3. U — изменение релевантного урла фразы,
  4. A — изменение title фразы,
  5. S – изменение сниппета у фразы.

Нажатие правой кнопкой мыши по поисковой фразе в этом отчете вызовет контекстное меню, через которое можно выгрузить отчет:

6

Если перейти по вкладке «Поисковой системы» в этом отчете, то можно увидеть какие Урлы, Сниппеты и Title соответствуют поисковой фразе. Почему-то Title зовется Анкором в отчете, так что не пугайтесь 🙂

7

Имеется удобная система настройки вида отчета, можно скрыть или показать какие угодно столбцы:

8

Так же в контекстном меню по нажатию по поисковой фразе есть замечательная опция «Serp-браузер», выбрав которую можно увидеть, как выглядел сниппет в браузере на момент съема позиций. Эта функция в копилку методов по работе с поведенческими:

9

10

Остальные отчеты — «Сводка по источнику» «Сводка по целям» «Сводка по дням» и «Сводка по датам» в целом дублируют информации из первых двух отчетов, просто строятся по критерию из их названия.

«Сводка по источнику» — позволяет построить отчет по Поисковой системе (Яндекс/Google):

11

«Сводка по целям» — позволяет построить отчет по настроенным для поисковых фраз целям.

Все цели делятся на: «свой сайт» и «конкуренты». Если для поисковых фраз добавить цели конкурентов, то в отчете будет указываться, на сколько позиций вы опережаете или отстаете от конкурента по данному запросу.

«Сводка по дням» — позволяет построить отчет по датам съема позиций. Удобный отчет для съема позиций после апдейтов поисковых систем и замеров общей динамики каждого запроса во времени.

12

«Сводка по датам» — позволяет построить отчет по собственно указанным датам, чтобы его построить, предварительно нужно снять позиции в эти дни.

И самая основная фишка – можно отсматривать количество переходов на сайт по той или иной фразе. Для этого нужно лишь подключить Я.Метрику, G.Analytics или LiveInternet!

Как мы используем программу внутри студии

Важнее всего конечно результаты в конце месяца – по каким направлениям удалось достичь желаемых позиций, по каким нет, а по какими вовсе провалы. Но раз в месяц подходить к этому тоже неправильно, т.к. теряется контроль над ситуацией, над проделанными действиями.

Поэтому стараемся еженедельно отсматривать основные отчеты по позициям и видимости тех ключевых слов, над которыми работаем. А уже раз в месяц делаем большую отчетность и по источникам, и по переходам, и динамику по дням – в общем, все все все.

Плюсы программы

— независимость от стороннего ресурса
— большие возможности мониторинга (позиции, сниппеты, урлы, title, конкуренты, переходы)
— возможность настройки автоматического съема позиций
— наглядные отчеты для себя, отчеты для заказчика, возможность настроить отчеты по себя
— низкая стоимость программы (1000 руб это примерная стоимость съема 200 запросов в месяц на большинстве платных ресурсов)

Минусы

— желательно наличие прокси-серверов, Google не дремлет, банит только влет

Welcome

К обсуждению данной статьи подключиться создатель программы SERP Parser! Поэтому если есть вопросы по работе программы или какие-то предложения и нововведения «Welcome».

А на этом все. Надеюсь помог определиться с выбором для тех, у кого еще нет постоянной чекалки позицйи в своем арсенале!

P.S. буду стараться регулярно вас баловать всякими плюшками. Сегодня:

— халявный VPS на 1 месяц от Reg.ru

vps

— регистрация доменов в зоне .ru .рф всего за 125р

rurf

Кто первый встал того и тапки! Коды активировать можно только один раз, поэтому просьба забравшего, отписаться в комментариях!

Заявка на бесплатный аудит вашего сайта

Оставляйте адрес вашего сайта – мы найдем все ошибки, мешающие его продвижению и предложим дальнейшее его развитие!

x

Заявка на бесплатный аудит

Лайкаем!
Хочешь получать свежие статьи о продвижении, smm и заработке в интернете самым первым? Не забудь подписаться на рассылку!
Мнения:
  • стас
    25 октября 2013 в 15:20

    серп парсер годится только для яндекса, у гугла он выдает не то чтобы не реальные результаты, а результаты не имеющие почти ничего общего с реальностью. в алпозишенс, хоть немного ближе к истине, хотя по гуглу уже никто не может показать более менее реальных позиций

    • SEOinSoul
      25 октября 2013 в 17:33

      хммм у нас в большинстве случаев совпадают позиции
      а такое различие может быть из-за региональности, ведь в гугле уже есть также вплоть до города региональность

  • 008
    25 октября 2013 в 16:07

    Круто, но.. так и не раскрыто как работать с позициями в команде на декопе и епть.. наличие прокси-серверов, сразу все останавливает желание.. где их брать? сколько это стоит? как часто менять и так и атк адлее и так далее

    • SEOinSoul
      25 октября 2013 в 17:35

      ну так мы как раз обходимся без прокси, за счет правильно выстроенной внутренней системы отчетности
      т.е. по многу запросов у проекта мы парсим только 1 раз в месяц и делаем это небольшими темпами
      Самого прокси отпугивают)

  • Владислав Иващенко
    26 октября 2013 в 19:54

    SERP Parser хорош, но только на небольших объёмах. У нас он даже сидя на 50-гиговом Azure выдавал не более 100 потоков. В итоге на средней VPS-ке он парсил 80к ключей в Яндексе около двух суток, что неприемлемо, конечно.

    Жрёт он от 20 мб оперативы на поток, работает нестабильно, вылетает периодически, крайне долго пишет к себе в базу (дольше, чем, собственно, парсит), крэшится.

    Сейчас мы юзаем серверные скрипты на никсах, ~1-2 мб на поток, обычно 150-200 потоков. В итоге ~100к запросов за 2-2,5 часа и 3-5 баксов на антигейт в зависимости от времени суток.

    А на публичные сервисы и смотреть смешно, ничего толкового там нет.

  • SEOinSoul
    28 октября 2013 в 10:55

    80к ключей — это конечно пока не наши объемы
    Но прекрасно понимаю, что при большим объемах нужно переходить на свои скрипты

  • Max1mus
    7 ноября 2013 в 18:01

    Почитав тебя, решил купить, чтобы попробовать. Купил, в целом неплохо. Но так было только до тех пор, пока не обнаружил, что из своего файла нельзя импортировать ключевые слова в программу с соответствующими для них (ключевых слов) урл-страницами. То есть, получается, что в программе нужно указать урл сайта, для которого будут анализироваться ключевые слова, а программа уже сама подберет страницы моего сайта, которые будут анализироваться. А если мне нужно указать именно те страрницы, которые мне нужны, а не которые предлагает программа? А в таком случае берешь и начинаешь для каждого ключевого слова указывать свою урл-страницу.

    Так возникает тогда вопрос: в чем же тогда удобство? И как можно софт рассматривать удобным при работе с большим пулом ключевых слов, когда мне нужно сидеть и руками прописывать для каждого отдельно взятого ключевика свой урл-адрес? Это вообще капец какой-то.

    • SEOinSoul
      8 ноября 2013 в 12:40

      Серег, на самом деле у тебя специфический подход.
      Я вот не понимаю зачем жестко указывать страницу, мы так никогда не делаем.
      В чем смысл?

      «а программа уже сама подберет страницы моего сайта»
      ну ведь она берет релевантные страницы из выдачи поисковика, а не сама подбирает

  • Серега
    19 февраля 2014 в 23:19

    Илья, подскажи, сколько вы запросов собираете и какие у вас расходники при этом (антикапча, прокси, мб еще что-то).
    Сколько времени уходит на сбор позиций? Хочется услышать какую-нибудь конкретику

    Не понравилось, то что через год пользования, функционал сбора статистики отрубается, не совсем правильно на мой взгляд

    • SEOinSoul
      21 февраля 2014 в 16:49

      Примерно по 300-400 запросов на проект. Прокси не покупаем, только антигейт.
      По времени, точно не скажу, но приблизительно 30 мин на один проект

Теперь ваше мнение:

x

Заявка на продвижение сайта

x

Заявка на бесплатный аудит