What's new
Runion

This is a sample guest message. Register a free account today to become a member! Once signed in, you'll be able to participate on this site by adding your own topics and posts, as well as connect with other members through your own private inbox!

Мануал/Книга White SEO - [Для чайников]

azcord

Midle Weight
Депозит
$0
Тред в процессе редактирования:
Всем привет, решил перенести свои треды с дружественного форума exploit для братьев наших меньших.
После перенеса запустим старт цикла практических статей по SEO оптимизации

Нажмите, чтобы раскрыть...

Содержание:

1. Введение в сео
- Введение в основные стратегии продвижения
-- Продвижение контентом
-- Особенности визуального поиска
-- Особенности голосового поиск

- Введение в базовые факторы ранжирования
--
--



Список используемых источников:

1. https://drmax.su/seo-monstr-next?ysclid=lq23x7cffz175347683
2. https://ant-team.ru/public/GoogleAnt-Team.ru.v5.pdf
3. https://backlinko.com/
Брайан Дин - топовый англоязычный сеошник
Нажмите, чтобы раскрыть...
4. https://www.searchlogistics.com/
Хороший блог англичанина Мэттью Вудварда - советую
Нажмите, чтобы раскрыть...
5. https://detailed.com/
Глен Аллсоп - топовый сео аналитик
Нажмите, чтобы раскрыть...
6. https://www.robbierichards.com/blog-posts/
Робби Ричардс - еще один именитый сеошник с западных рынков.
Нажмите, чтобы раскрыть...
7. https://www.youtube.com/channel/UCRQ7INXiPlQDFgATzVJQaZA
Канал Олега Шестакова на ютубе
Нажмите, чтобы раскрыть...
 
Не у каждого хватит сил да и денег что бы мутить сео по белому, по чёрному то сложно. по белому же и денег вливать надо много и по времени ждать года два пока выстрелит проект, ну, или не выстрелит - такое тоже может быть.

Хотя я тут думаю насчёт анекдота:

Люди ходят почти всю жизнь на работу вместо того что бы за год-два построить бизнесс, на это им жалко и нет времени.
 
Введение в SEO
Что такое SEO и как работают основные алгоритмы поисковых систем?
Нажмите, чтобы раскрыть...

Search Engine Optimization - комплекс мер по внешней и внутренней оптимизации сайта для повышения уровня позиций в результатах выдачи поисковых систем по определенным запросам. Цель всех мероприятий по оптимизации сводится к увеличение органического трафика с целью его дальнейшей монетизации.

Трафик с поисковой выдачи условно разделяют на два источника:
1. Контекстная реклама:
Относится к платному виду трафика, сайты в поисковый выдачи с контекстной рекламой выводятся в приоритете над органическим поиском
46780392_.png.3ae4ffb753b366a7c2647094f6a2395a.png


2. Органический поиск:
Бесплатный вид трафика — все то, что не есть контекстная реклама, есть органический поиск. В него входят все те сайты которые, соответствуют содержимому задаваемому запросу. Именно SEO является инструментом генерацией органического трафика.
988208857_.png.914f5d48009f8d1884c8b725c2287664.png



Как устроены поисковые системы?
Первое что стоит понять, это то, что поисковые системы не совсем ищут в интернете, при запросе пользователем информации - поисковая система обращается в базу данных, в которой содержится огромное количество просканированной информации.
Собирает эту информацию веб краулер ( поисковый робот ) , он в свою очередь состоит из двух частей. Первая часть краулера представляет собой робота который сканирует полностью все содержимое веб-страниц, вторая часть выделяет в этом содержимом ссылки и перенаправляет на них первого робота. На выходе он имеет два файла, которые в свою очередь уходят в базу данных. При отправке в БД происходит первичная обработка и 3им файлом формируются частотные таблицы.
147852930_.png.7013126a69cadf9668194899799bcf0f.png


Частотная таблица — это список всех упомянутых слов и их количество на веб- странице. Выглядит частотная таблица следующим образом
1130182008_.png.c49fcf5bd9dc54732db164d5341348f8.png


Данный подход позволяет алгоритмам поисковой системы, быстро выбрать потенциально подходящие страницы исходя из поискового запроса, и делать выборку для пользователя.

Как это работает?
-Пользователь гуглит «Что такое SEO» далее поисковая система обрабатывая запрос, обращается в базу данных с уже собранными частотными таблицами в которых упоминаются слова связанные с этой тематикой, и выбирает те страницы в которых содержались слова связанные с этим направлением в должном количестве. После выдает их пользователю.
Нажмите, чтобы раскрыть...

Перед тем как вся информация попадет в базу данных, она обрабатывается программой называемой индексером.

Индексер - это программа осуществляющая обработку предоставленной информацией краулером и последующим составлением частотных таблиц. Она завершает процесс сканирование и передает всю собранную информацию в Поисковый индекс ( Базу данных )

Поисковый индекс - это вся собранная информация в интернете ( База данных )

Индексация - процесс сканирование и попадание в поисковый индекс всех собранной информации.

Стоит отметить что процесс сканирования и индексации — это не есть одно и тоже, страница может быть просканирована, но не проиндексирована.
Нажмите, чтобы раскрыть...
1733848192_.png.3d6419e4f86072de828c0d2bfe010f53.png





Посредством чего поисковая система решает какую страницу показывать, а какую нет?
За процесс выдачи результатов отвечает Поисковая машина — это программа которая осуществляет сортировки и анализ результатов поиска. Именно этот узел поисковой системы отвечает за положение сайта в результатах выдачи.

Именно SEO и занимается оптимизацией сайтов под поисковые машины.
Вместе с понятием поисковой машины приходят такие термины как реливантность и ранжирование
Релевантность
- соответствие результатов поиска к самому запросу у поисковой системы.

Поисковая система ищет адекватные(релевантные) ответы на информационные запросы пользователей, даже если сами пользователи задают неправильные вопросы и ожидают релевантные результаты выдачи.
Нажмите, чтобы раскрыть...
Типичный пример: Гольф
Гольф это может быть машина, это может быть вид спорта или же новости связанные с этим спортом, и даже носки. И не смотря на столь широкий выбор, поисковая система понимает что ищет пользователь в том или ином регионе и делает подборку релевантных веб страниц. Если бы поисковая система не справлялся с этой задачей, вряд ли бы ей кто-то пользовался
1885227620_.png.55639d6533f8a01525bb60ff396ef2a2.png



Ранжирование - процесс сортировки релевантных запросов

Именно релевантность страницы стоит в основе этой сортировки. Лучшие веб-страницы которые основательно раскрывают тему и отвечают на запрос пользователя — получают высокие позиции, менее хорошие страницы соответственно полуют не высокие позиции.

Практические выводы:
Поисковые системы ищут не в интернете, а в поисковом индексе. Для того чтобы отображаться в поиске, нужно быть уверенным, что сайт индексируется.

Как узнать индексируется ли сайт?
Используем специальные команды в поисковой строке — "Site"
Если страницы есть — это хорошая новость. Если нет, делаем так, чтобы они там появились, но об этом позже.

Что делать, если сайт не индексируется?
Самым простым способом являет указать путь на страницу краулеру в инструментах для веб мастеров:
  • Яндекс веб мастер
  • Google search console
Как получить высокие позиции по интересующим запросам?
В белом seo основополагающим фактором ранжирования является сам контент, именно качество контента напрямую влияет на релевантность страницы, по этому наша задача «делать контент для людей»
 
Введение в базовые факторы ранжирования поисковых систем
Какие факторы использует поисковая система для определения позиций сайта в результатах поиска? И посредством чего поисковая система рассчитывает релевантность страницы?
Нажмите, чтобы раскрыть...

Базовые факторы ранжирования страниц
Представим, что наш сайт — это книга. Основой любой книги есть сам текст, он несет в себе сюжет, образы и героев. Исходя из текста, даже не читая название книги, мы можем примерно рассказать о чем она.
Примерно так же работает один из самых базовых алгоритмов поисковых систем. Он анализирует текстовое содержимое веб-страницы, и рассчитывает плотность ключевых слов.

Плотность ключевого слова ( частота упоминая ) — количество упоминаний/на количество слов.
TF= 1/100= 0.01% ( частота упоминания )

Допустим в индексере есть условно 3 качественные страницы которые удовлетворяют запросу пользователей с плотность 1% 2% и 3%. Если взять среднюю частоту ключевого слова с этих 3ех страниц мы получим 2%.

Для чего нам нужен средний показатель плотности?
Нажмите, чтобы раскрыть...

Поисковая система хранит в базе данных тысячи качественных страниц, и учитывая среднюю плотность ключевого слова она может рассчитать доверительный диапазон всех релевантных страниц.
1783839656_.png.ec930503ea279f9990411f1d38fdc621.png



На сегодня, плотность ключевого слова не является решающим факторов ранжирования. Что бы страница считалась релевантной достаточно попасть попасть в диапазон доверия. Выделяют два основных способа:
  • Анализ конкурентов с топ 10
- Сканирование контента конкурентов и анализ частотных таблиц.
  • Контент для людей
- Создания понятного контента для пользователей.

Рассмотрим страницу с текстом о SEO оптимизации
Нажмите, чтобы раскрыть...
2096743112_.png.48df4468cbf1b931c618115ae8d27280.png


Частотная таблица этого текста будет выглядеть следующим образом, где верхушка этой таблицы, будет характеризовать содержимое текста, а столбик с процентами будет указывать частоту ключевого слова.

1978851683_.png.39998df627ce47c2f763a3a31776a263.png


1531264637_.png.efb5a40803ed9f2f4bca214ab49fadd7.png



Именно благодаря такому подходу, поисковая система понимает, что текст о SEO оптимизации, и при совокупности других факторов присваивает n место в органическом поиске.

Данный алгоритм, лежит в основе факторов ранжирования, так как основная контентная составляющая веб-страницы все так же является именно текст. Но у него есть существенный недостаток, и алгоритм весьма не устойчив к манипуляциям со стороны. По этому принимать только его сигналы, было бы весьма не разумно. Сейчас, поисковые системы используют более сложные алгоритмы анализа данных, и все же учитывают каждый в совокупности с другими. К тому же, на сегодня, поисковые системы обладают алгоритмами машинного обучения, позволяющие людям учить поисковую систему выбирать потенциально хорошие страницы по набору субъективным факторов.

Как устроен процесс обучения людьми поисковой системы ?
Условно в таких компаниях как Google и Yandex есть специальные отделы которые занимаются оценкой веб-страниц. Они анализируют содержимое и ставят оценки по пунктам из некоторого документа, который гласит о том, как должна выглядеть качественная страница. Собранные страницы передают в алгоритм машинного обучения
1738560632_.png.9cf535e8c324584b4fe242c19946fb0e.png


Алгоритм сравнивает страницы и ищет совпадения, после формирует ряд факторов в совокупности которых страница считается качественной. Далее эти факторы начинают использоваться поисковой системой как сигналы влияющие на позицию веб страницы в поисковой выдаче.

Допустим: все интернет магазины имеют хорошо проработанные страницы доставки, или… Все коммерческие сайты имеют хорошо проработанные страницы «О Компании»
На основе сравнения, алгоритму удается выделить нечто общее и вынести собранные наблюдение в один фактор. После, алгоритм тестирует свои наблюдения на группе пользователей и на основе их положительного поведения принимает решение о внедрении фактора в поисковую систему, на примере выше — Коммерческий фактор.
1853668825_.png.479fa37417df2eca6dee9e91a2c9c306.png



Если брать в расчет то, что в основе алгоритма машинного обучения лежит набор субъективных факторов людей, то идея создания контента для пользователей является основополагающей.
Идея контента для людей содержит нюансы. Порой написать текст с оптимальной частотой ключевого слова может быть не достаточно, и этот текст не будет иметь никаких позиций. Связанно это с тем, что сам текст может быть не достаточно полным или же совсем не соответствовать тематике.

Оказывается, что текст о Наполеоне может быть и торте, и о государственном деятели Франции. На первой странице плотность ключевого слова будет 3%, а на второй 2%, и если мы будет утверждать, что основным фактором релевантности будет плотность ключевого слова, то первая страница должна стоять выше второй в поисковый выдаче. Но что если человек ищет информацию именно о торте «Наполеон»? Тогда показывать страницу о Наполеоне государственном деятеле будет не корректно, и пользователь посчитает, что поисковая система не справилась с задачей.

Каким образом поисковая система определяет тематику контента?
Поисковые системы имеют словари задающие тематику. К примеру, если брать запрос о торте «Наполеон», то в частотной таблице страницы будут содержаться такие слова как: рецепт, молоко, яйца и т.д. Если же взять страницу связанную с Наполеоном государственном деятелем, то в частотной таблицы будут слова: биография, революция и другие, связанные с тематикой-история.
Соответственно поисковая система анализирует страницы и на основе их тематических слов определяет интент поискового запроса.

Интент поискового запроса — подтекст, намерение пользователя и его ожидания по интерпретации запроса поисковой системой.

Допустим вы решили продавать кроссовки. В момент создания контента, было принято решения рассказать про создание бренда и его популизации в массах, но совсем упущены такие вещи как характеристики и описание товара. Соответственно поисковая система на основе частотной таблицы определит интент страниц как информационный, а не коммерческий, и вы не получите ожидаемых позиций по тем ключам в которые целились. По этому, при генерации контента обращаем внимание на плотность ключевых слов, а так же на слова задающие тематику.

Развитие факторов ранжирования поисковых систем
Поисковые системы с каждым годом развиваются, и алгоритмы их работы существенно отличаются от того, что было 10 лет назад. На сегодня, текстовых факторов не достаточно для корректной оценки страницы. Если же с информационными запросами достаточно все просто, то с коммерческими запросами стало все куда труднее, ведь их в сотни раз больше и текстовая релевантность 20-30% качественных странниц будет относительно одинакова, и учитывать их релевантность на основе текстовых факторов стало совсем не актуально.

Первые кто начал решать эту задачу, стали инженеры Google . Они решили, что почему бы не рассчитать вес страницы для определения ее значимости. Это идею реализовал один из основателей Google Larry Page путем создания алгоритма Page rank. Суть это алгоритма заключается в том, что входящие ссылки стали учитываться как рекомендации. И на основе этих рекомендаций, стало возможным рассчитать некий рекомендательный вес каждый страницы в сети.

Page rank — вероятностный показатель пребывания пользователя на странице с учетом только ссылочных связей как внутренних так и внешних.

Page rank рассчитается на основе ссылок и каждая ссылка передает вес, передаваемый рейтинг называется — ссылочном массой.
Ссылочный масса
— совокупность всех активных внешних и внутренних ссылок, размещенных как внутри сайте так и на сторонних ресурсах ведущие на сайт.

Благодаря ссылочный массе поисковая система может определить авторитет страницы за счет рекомендаций других источников на эту страницу
1893852097_.png.9a01ce2d48d74eaf9a0bce29f7898433.png



В алгоритме Page Rank важно не только количество ссылок, но и качество этих ссылок передаваемых страницей донором ( ее авторитет )
Работает это следующим образом — одна ссылка с new york times значительно лучше, чем ссылки с кучи мелких новостных каналов. И связанно это не с тем, что new york times имеет огромную посещаемость, а с тем что new york times имеет больше количество входящих ссылок и считается более авторитетный источником.

На втором рисунке страница донор получает большее количество входящих ссылок, тем самым является более авторитетной и передаваемый ею вес будет больше.

Алгоритм Page rank до сих пор входит в тройку самый влиятельных факторов ранжирования в google, как и текстовая релевантность.
Нажмите, чтобы раскрыть...

Практические выводы:
763293860_.png.e62cf13dec6d8c7dabfdda508902e385.png


Базовое начало оптимизации сводится к настройки индексации сайта с дальнейшей работай над оптимизации текстовой релевантности посредством учета базовых факторов таких как: плотность ключевых слов и тематичность контента. И только с момента реализации этих двух факторов, релевантность текста усиливается ссылочной массой. В совокупности эти 3 пункта составляют базовые факторы ранжирования поисковых систем. Абсолютно нет никакого смысла наращивать ссылочную массы, если контент не релевантен интенту запросу, и так же нет никакого смысла работать над контентом если его никто не увидит. Поэтому:

  • Делаем так, чтобы поисковая система проиндексировала сайт.
  • Работаем над контентом
  • Усиливаем контент ссылочный массой

Введение в процессы продвижения и основные факторы ранжирования поисковых систем
Как устроена поэтапная структура SEO продвижения? Какие факторы ранжирования используют поисковые системы? Как они работают и как на них воздействовать?
Нажмите, чтобы раскрыть...
Структура продвижения сайта:
1323465884_.png.063bf33643fef60a0cfdbe3eb3883e63.png


Основные различия при оптимизации готового проекта и нового.

При разработке нового сайта, в основе лежат маркетинговые исследования и сбор семантики + выстраивание идеальной структуры сайта согласно кластерам.
Этот пункт имеет категорический другой подход при работе с готовым проектом.
Нажмите, чтобы раскрыть...

При оптимизации готового сайта, стоит учитывать уже созданную структуру + страницы которые уже имеют позиции. В данном контексте стоит идти по пути улучшения уже имеющихся позиций и поиску новых направлений роста.

Технический аудит сайта
Работа по оптимизации готового сайта начинается с технического аудита. В процессе аудита выявляются все слабые стороны и формируется документ содержащий перечень всех необходимых работ по технической оптимизации.

После выявления всех недостатков и составления общего виденья по состоянию сайта — запускаются маркетинговые исследования и начинается процесс создания полноценного семантического ядра.

Маркетинговые исследования
1. Создание семантического ядра — Сбор исходных стартовых слов, чистка запросов, группировка запросов, вычисление сложности продвигаемых ключей, и создание внутренней структуры сайта исходя из кластеров.

Семантическое ядро — это совокупность всех ключевых слов, словоформ, словосочетаний которые наиболее точно характеризуют выбранную нишу. Все ключи группируются и образуют кластеры которые после рассаживаются по структуре сайта и образуют его будущие веб страницы.

2. Проведение веб аналитики— Анализ конкурентов топ 5страниц выдачи.

Веб аналитика — Расширение семантики. Анализ верстки контентных блоков страниц конкурентов. Выявления необходимых дополнительных страниц для внедрения на продвигаем сайт. Сбор всех интересующих данных в контексте кластеров семантического ядра таких как : title,description,keywords,h1,h2,h3. Аналитика текстового содержимого конкурентов, с целью использования данных для копирайта собственных внедряемых статей.

Результатом этой аналитической деятельности должны быть на выходе два объемных файла. Первый файл заключает в себе полноценное семантическое ядро, второй содержит в себе совокупность всех наблюдений сделанных с сайтов конкурентов.

Данные документы являются отправной точкой для начала оптимизации.

Техническая оптимизация:

Техническая оптимизация сайта — комплекс работ, проводимых для оптимизации технических аспектов сайта с целью улучшения его индексации поисковыми системами.

1. Устранение дубликатов и пустых страниц
2. Работа с robots.txt и sitemap.xml
3. Работал с meta robot и canonical
4. Оптимизация страниц пагинации
5. Устранение лишних редиректов
6. Проверка SSL сертификата + склейка www-http-https
7. Увеличение скорости загрузки сайта

Внутренняя оптимизация:
Внутренняя оптимизация сайта – комплекс работ по улучшению контента, коммерческих факторов, поведенческих факторов и юзабилити сайта.
Нажмите, чтобы раскрыть...

Контентная оптимизация
  • Текстовая оптимизация:
Текстовая оптимизация — разработка текстового контента с учетом плотности ключевых слов и интенту поискового запроса с целью повышения релевантности продвигаемых страниц
Нажмите, чтобы раскрыть...

1. Генерация качественного контента за счет привлечения копирайтеров с учетом технического задания для продвигаемых страниц, или же привлечение специалистов продвигаемой нищи.
2. Оптимизация Title под продвигаемые страницы и указание фокусных слов под кластеры.
  • Оптимизация изображений:
Оптимизация изображений — комплекс работ по увеличению скорости загрузки изображений и внедрения в атрибуты alt ключевых слов
Нажмите, чтобы раскрыть...

1. Сжатие объемов файлом без потери видимого качества изображений.
2. Использование современных форматов изображений
3. Использование атрибута alt для дополнительного внедрения ключевого запроса
  • Оптимизация контентных блоков:
Коммерческие факторы — совокупность всех факторов влияющих на удобство использования, совершения покупок и заказа услуг.
Нажмите, чтобы раскрыть...

1. Человеко-понятные URL и контроль вложенности.
2. Полнота контактных данных: заполненные страницы о доставке, компании, условия возврата денежных средств и т.д
3. Полнота ассортимента, и проработка карточек товаров
4. Внедрения html разметок для: карточек товаров, услуг и контактных данных
5. Обязательно отсутствие рекламы для коммерческих сайтов
6. Создания страниц компании в социальных сетях, подключение social media marketingа
7. Внедрения уникальных торговых предложений таких как : Аукционные товары, скидки и реферальные системы и программы лояльности.
8. Создание службы поддержки клиентов
9. Подключение онлайн консультантов на сайт
10. Региональная привязка
  • Оптимизация поведенческих факторов
Поведенческие факторы - совокупность всех положительных и отрицательных действий посетителей на сайте.
Нажмите, чтобы раскрыть...

1. Веб аналитика посредством яндекс метрики и гугла аналитикс
2. Построение гипотез на основе статистических данных для улучшения юзабилити сайта
3. Тестирование гипотез по улучшению поведенческих факторов
4. Внедрения поправок на основе тестирования поведенческих факторов
5. Оптимизация страниц под мобильные версии.
6. Подключение турбо страниц ( если очень хочется )
7. Генерация хорошего Discription с целью увеличения CTR
8. Генерация расширенного сниппета с целью увеличения CTR
  • Внешняя оптимизация:
Внешняя оптимизация сайта — комплекс мер по увеличению ссылочной массы сайта.
Нажмите, чтобы раскрыть...

Увеличение ссылочный массы сайта:

1. Разработка ссылочной стратегии
2. Расширение анкорного листа
3. Генерация ссылочных доноров
4. Реализация идей краунд-маркетинга
 
Технический аудит/Техническая оптимизация

Для примера будем использовать сайт конкурента с топ 10 по запросу "smm продвижение заказать"
Нажмите, чтобы раскрыть...

Индексация и сканирование
Проверяем индексацию сайта в гугле и яндексе командной Site:
2034587424_.png.a2a0bb64d021445656bd3aa2dff4bfe7.png



Выписываем количество страниц которое содержится в индексе поисковых систем. Я использую гугл таблицы, очень удобно, советую.

1107849196_.png.c0d754e6032a178c16c1f552b0130509.png



Видим разницу в количестве индексируемых страниц в разных поисковых системах. Это нормально, у каждой поисковой системы свой поисковой индекс и свое виденье о качественных веб страницах. К тому же, расхождение может быть обусловлено тем, что некоторые страницы могут быть закрыты для сканирования какой-либо поисковой системы. Но, если разница в количестве индексируемых страниц есть, мы должны задаться вопросами о причинах-следственных связях, и составить предположения — почему количество веб-страниц не сходится? При прочих равных условиях, если мы ничего не делали умышленно, это количество должно более менее совпадать.


Качественные и некачественные веб-страницы
Базовая разница подхода оценки страниц Google и Yandex

  • Yandex: основным моментом оценки качества страницы является содержание (уникальный графический и текстовый контент) + контента не должно быть мало.
  • Google: основным моментом оценки качества страниц в гугле является авторитетность домена( ссылочная масса сайта) . Гугл может индексировать не качественные страницы, если доверяет домену.

С момента как мы узнали количество индексируемых страниц, нам необходимо выяснить общее количество html страниц на сайте + пдфки. Для этого используем сканеры.

Я лично использую на рабочем железе screamingfrog, для тех кто предпочитает работать на mace советую Netpeak Spider, но в контексте этих статей мы будем по максимуму юзать бесплатный софт. Поэтому прибегаем к старому доброму SiteAnalyzer

Перед началом сканирования, заходим в настройки сканера, дальше во вкладку «сканирование» и отключаем галки что на скриншоте в правилах сканирования.
1876225209_.png.80054d80ded050fa7518ead16b922b7d.png



Запускаем сканирование и уходим пить чай

2078281179_.png.2c89066bf02118563956bb915a6f2ae3.png



Нас интересует вкладка внутренние отчеты — html и документы, здесь мы видим все html страницы внутри этого домена, а так же PDF файлы. Html страниц у нас 616, а PDF файлов 0, так и запишем
752580868_.png.25758eb80a37cccf6100eb7b136f8f66.png



Анализируя данные и применяя элементарные вычислительные навыки мы выясняем, что в индексе гугла от куда-то есть еще 200 каких-то страниц. В то время как в индексе яндекса разница минимальная.
Рассмотрим другой пример на условно фантомном домене: когда мы имеем фактическое кол-во страниц на сайте условно 420, а в индексе гугла 50 и в индексе яндекса 60
501347595_.png.ec167713030e0a9e9d6672c146110245.png



Какой практический выводы мы можем сделать из этой собранной информации?

1. В индексе поисковой систем содержится «мусор» в этот мусор могут входить: старые страницы которые требуют удаления, страницы со предыдущим дизайном, страницы которые созданы вредоносными программами, страницы созданные всякими плагинами или скриптами.

2. В поисковом индексе не присутствует большая часть html страниц. Если мы ничего не закрывали осознанно, значит поисковые системы посчитали все те страницы, что не проиндексировал — не качественными. Это могут быть: дубликаты, пустые страницы, если одним словом — не качественные

На основе собранной информации, мы должны понять, что те страницы, которые поисковые системы посчитали не качественными, мы должны сделать качественными или же от них избавиться.

Почему на веб-сайте должно быть как можно больше качественных страниц и меньше некачественных?

Вернемся к нашей аналогии сайта и книги. В нашем случае сайт-это книга, а поисковый индекс-библиотека, где поисковые алгоритмы — библиотекари, а поисковая выдача — стол на который выкладываются книги читателю — пользователю. Когда библиотекарь решает добавить ли книгу в архив он производит ее базовый анализ.

А теперь представьте себе книгу которая состоит из половины пустых страниц. Можно ли назвать такую книгу качественной? А что если вместо пустых страниц, в книги много дубликатов? В обоих случаях библиотекарь решит, что книга весьма подозрительна и посчитает ее не достойной читателя и соответственно не станет ее предлагать.

Теперь рассмотрим этот пример наглядно и уже без аналогий. У нас есть сайт, где 100% это все страницы, из этой 100ни, 60% страниц являются не качественными, поисковая система определив статус 60% страниц как не качественные, решит что остальное содержание сайта является таким же, и источник информации в целом будет весьма сомнительным.

169538026_.png.edbae6594cd2db61f5da3e96f732da96.png



Вывод: на сайт который мы создаем/продвигаем не должно быть некачественных страниц так как они непосредственно влияют на общее качество сайта.


Как искать некачественные страницы?
  • Пустые страницы
Заходим в наш сканер и сортируем html страницы по размеру и идем по порядку.

958754972_.png.c8d2be21348151d5ea345fb22cb38c6e.png



Открываем, смотрим, встречаем первую пустую страницу


526244602_.png.6f5bdda8eb231186da41372856390124.png



Идем дальше. Так, уже что-то, но контента явно не достаточно

1203806696_.png.1e41c1a8176cd1c843bff0e90d56023f.png




Следующая страница у нас посвящена Кейсам по SEO, и еще +1 пустая страница.

618532528_.png.6dde98fd46d54fbe260fee00cd2e1d73.png


Таким образом за пару минут мы уже выяснили, что первые 5 страниц пустые, к тому же открыты для индексации.

1248059312_.png.1b8fae204c67831e2b5ba94b43d0fffd.png



  • Страницы дубликаты
Начать стоит с просмотра Title. Сортируем Title и пытаемся найти похожие или однотипные тайтлы.

1409650418_.png.ce6a66191ced3fde5792e9f7b804d11d.png



Просмотр 600 тайтлов заняло минут 10, стоит отметить, при поверхностном анализе, дубликатов в site analyzer я не нашел. Хотя были мысли исходя из однотипных тайтлов типо : Кейсы по SEO, поисковому продвижению - Примеры задач по SEO от Webnauts и Портфолио по SEO продвижению - Примеры работ SEO от Webnauts. Страницы с схожим интентом, но контент разный.

1986290510_.png.fb97fc08d1cc3687f63cef9979f8add0.png



По факту нам одного сканера не достаточно, так как некоторые урлы разные сканеры совсем не сканируют. Вторым сканером я использую древний Xenu's Link, примитивный, но надежный как часы. Требует некоторой сноровки, сейчас мы будем с ним разбираться.
Закидываем сайт в сканер и уходим пить чай

733317732_.png.016ac09506f1de06864ecc95dc358c14.png



Далее сохраняем полученный файл и экспортируем его в любую программу для работы с электронными таблицами с кодировкой UTF — 8, разделитель ставим «табуляция»

534652033_.png.0edff72bffbe8910fe9ce0683219f27d.png



На выходе получаем красивую табличку которую по желанию можно импортировать в гугл таблицы

774010743_.png.aabad40861a532779ca1ebb922e87ed4.png



Далее ставим фильтры и нас интересует столбик Type, сортируем по text/html

1786871049_.png.b35611570661020ce38390261eca89e0.png



Собираем полученную сортировку и создаем еще один файл. На выходе получаем весь список html страниц

1630027688_.png.cf6d30ab24035d6841facaa7d4bf16ac.png



Для поиска пустых страниц нас интересует столбик Size. Ставим фильтры и сортируем от А-Я, получаем сортировку по весу страниц. Где первая страница самая маленькая, а последняя соответственно самая большая по размеру. И идем просматриваем урлы по порядку

Стоит отметить что Ксена сканирует абсолютно все, и мы должны рассматривать только урлы в пределах нашего домена

835684302_.png.f2bc30960428cc1f50812d2d7e180ef7.png



Пропускаем урлы которые к нам не относятся, и находим те самые которые нас интересуют

934988010_.png.48f02b638c2db19f7c2a7e4b2b7965ed.png



Для поиска дубликатов используем столбик Title и сортируем так от А-Я
И в ксене мы уже видим интересные вещи, абсолютно идентичные Title с разными в приставка в урле

1577529294_.png.500c6600b354d905620bb134de2e9662.png



Заходим-смотрим. Видим Одну и ту же страницу, только с разным дизайном.

181231255_.png.6ce3c5d1d948fddd32b090c867fcdbb3.png



Дубликат

Посмотреть вложение 60739

И листая ниже, мы наткнёмся на множество подобных страниц. Которые являются абсолютным мусором, засоряющий индекс.

437809969_.png.5c7f39f83dd7f5fecfe3e70db4d04030.png



На этом примере у нас есть 600 страниц, а что делать если страниц 10000?

На самом деле нам не обязательно просматривать все страницы. Будет достаточно проанализировать часть выборки некачественных страниц и выделить общие элементы, тем самым построить теории о причинах их генерации. На примере выше: мы видим, что многие некачественные страницы идут с приставкой amp/ , соответственно надо выяснять что это за приставка и от куда, а после уже заниматься устранением этих некачественных страниц.

Результатом нашей работы будет файл со списком пустых и дублирующийся веб-страниц.

498411186_.png.db14ec6583c096d6d29d833053ff124d.png



Но мы не выяснили, что за 200 непонятных страниц в индексе гугла. Для этого нам потребуется google search console или яндекс.вебмастер к которому прикручен сайт. В нашем случае доступа к инструментам веб мастеров у нас нет, поэтому посмотрим в целом как это работает.

Как узнать, какие страницы попали в индекс?
Заходим google search console и нас интересует вкладка «Покрытие»

1374973899_.png.5eea9b07e03af520b3926c44c3e32550.png



Здесь мы видим отчеты по страницам с ошибками, страницы с предлагаемыми улучшениями, страницы без ошибок и исключенные страницы. Все эти отчеты нас очень интересуют, но сейчас нам необходим отчет о страницах которые проиндексированы.

949759875_.png.005c0775591f4f70d0be63c166186272.png



Экспортируем данные и из гугл таблиц, и сайт аналайзера. Объединяем их и ставим фильтр от А-Я, далее сравниваем полученные данные.
Страницы которые будут и в индексе, и в сканере — построятся друг под другом, лишние страницы в индексе останутся без пары. Их выносим в отдельный столб и анализируем.

672684341_.png.42d48d33ce9811b741b11ae5e1cabddb.png



Как посмотреть некачественные страницы в google cearch console?
Еще одним полезным отчетом на данном этапе, будет отчет «исключенные страницы»

196171564_.png.713ebf874b9315d8741078383bcfcf11.png



В этом отчете мы можем найти в сведеньях такое описание как: Страница просканирована, но пока не проиндексирована.

1236161983_.png.386d01a5fe7a20b232cfb017bfda6347.png



Открыв этот отчет, мы увидим список всех тех страниц которые поисковая система посчитала не качественными.
Некачественные страниц которые не нужны , ни вам, ни поисковым системам, ни пользователям — мы должны удалять. Но бывает такое, что некачественная страница нужна пользователю или конкретно нам, что тогда?


Инструменты управления индексаций

Как управлять индексацией и какие есть методы закрытия страниц от индексации?

Список типичных страниц, которые нужны нам— но не нужны поисковой системе и требуют закрытия от индексации:


  • Поиск (Всегда дубликат, или пустая страница), Сортировки (Генерирует дубликаты), Режимы отображения (Генерирует дубликаты), Фильтры без семантики (Генерирует дубликаты)
Фильтры без семантики— фильтры которые не будут оптимизирован с точки зрения SEO. Пример типичного бесполезного фильтра — диапазон цены. Генерирует огромное количество дубликатов.

Полностью все фильтры закрываем в том случае, если сайт новый, и постепенно открываем по мере необходимости

Нажмите, чтобы раскрыть...
  • Теги без семантики (генерируют дубликаты)
Теги без семантики — теги которые не будут оптимизирован с точки зрения SEO. Полностью все теги закрываем в том случае, если сайт новый, и постепенно открываем по мере необходимости
Нажмите, чтобы раскрыть...

— Календари (Генерирует пустые страницы), Алфавитные указатели (Генерирует дубликаты), Страницы сравнения товаров и виш листы (Генерирует дубликаты), Страницы пагинации (Страницы не имеющие никакой ценности для поисковой системы)

Список необходимых файлов и ресурсов для открытия индексации:
.png, .jpg, .gif, .css, .js

Отдельно стоит остановится на .css, .js, так как открытие этих файлов для поискового робота является обязательным. Эти файлы необходимы, чтобы поисковая система визуализировала страницу. Массово проверить .css/.sj можно с помощью сервиса от гугла Mobile-Friendly test .

/

Здесь нас интересует больше не оптимизация страниц под мобильные устройства, а проблемы при загрузке страницы. Смотрим статус другая ошибка.

568618984_.png.f457d35dc9109357e4531e5017595dcc.png



В нашем случае мы видим, что в css и js функционируют хорошо, а основные закрытые файлы идут из robots.txt. Такие как: сервиса гугла, яндекса, битрикса ну и других сервисов веб.аналитики

/

Если у нас много страниц с статусом «другая ошибка», это может говорить о том, что на сайте очень маленькая скорость загрузки страниц, что в свою очередь замедляет сканирование сайта поисковым роботом. Проверить скорость загрузки сайта можно воспользовавшийся сервисом от гугла PageSpeed Insight/ Здесь нас больше интересует скорость загрузки мобильный версии

/

Результатом такого быстрого сканирование, будет понимание, оптимизирован ли наш сайт под мобильные версии — что очень важно в современных реалиях, и этот фактор учитывается при ранжировании поисковой системой веб страниц + Мы узнаем на сколько быстр наш сайт, что тоже в свою очередь так же учитывается поисковыми системами при оценки качества сайта. Но к этим моментам мы вернем чуть далее.

Стоит еще выделить один параметр который на стадии сканирования мы можем выявить для дальнейшей эксплуатации. Это узнать возраст домена, я использую сервис Whois

/

Собираем всю информацию в кучу, и отправляем в наш документ

1463409946_.png.58d0fe853aa3fee19e9679fddaa9b3c2.png



Robots.txt — первый инструмент управления индексацией
открываем файл robots.txt — domen/robots.txt

1624289760_.png.b8452678dc19d7759df9cc0a6d3a8a98.png



Тут весьма простой robots.txt, что же смотря на него мы можем сказать?
1. User-agent: * открыт доступ любому поисковому роботу
2. Disallow: /wp-admin/ закрыта админка
3. Disallow: /*?tags= закрыты теги
4. Disallow: */page/ закрыты страницы пагинации

Видим, что разработчики не закрыли от индексации «поиск» в robots.txt, и другие подобные страницы. Стоит отметить, что скорей всего все они закрыты другими инструментами управления индексацией, о которых мы поговорим позже.
Но страницы с префиксами «?tags», «/page/» мы можем проверить, а так же посмотреть открыты ли для индексации такие файлы как: .png, .jpg, .gif, .css, .js
Открываем html код главный страницы и смотрим файлы .png .css и .sj, так же открываем страницы с префиксами «?tags», «/page/»

1593419964_.png.3cdf8fb8efd994edc02dcbd973b30e3a.png



Выбираем урлы и закидываем в проверку robots.txt от яндекса webmaster.yandex.ru/tools/robotstxt/

569570152_.png.508bde85d146cf2ee5cd0efcefc56669.png




Видим страницы с префиксом «?tags», «/page/» закрыты для индексации правилами robots.txt и они нормально работают. Так же видим, что в рамках этого домена открыты для индексации все файлы .png .css и .sj


Что мы должны понять из robots.txt?
При работе с robots.txt, стоит понимать какие команды используются и для чего, и на основе этого понимания, подходить к страницам, которые требуют закрытия от индексации в robots.txt. Зачастую мы можем встретить абсолютно не нужны команды. Пример подобных команд

Allow: /*.png*
Allow: /*.jpg*
Allow: /*.gif*
Allow: /*.css*
Allow: /*.js

Команда «Allow:» в основном требуется для открытия файлов в закрытых частях сайта, например у нас закрыты Disallow: /images/ и только тогда мы используем команду «Allow» Allow: /images/*.png/.jpg/.gif.

и вообще, в целом если что-то не закрыто командой «Disallow:» значит оно уже открыто.

Наша работа с robots.txt заключается в его анализе и если мы находим не нужные команды, мы их убираем, а если что-то требуется открываем.

Но зачем что-то закрывать, а потом открывать?

Бывает такое что мы работает с индексацией фильтрации и у нас есть условно 100 страниц фильтрации которые мы закрыли, а потом мы решили в рамках страниц фильтрации открыть 5страницы с фильтрами по брендам, тогда мы должны указать, что именно эти 5 страниц мы разрешаем индексировать.

Так как мы занимаемся оптимизацией, robots.txt должен быть лаконичный и правильный, а в оптимизации нет места лишним строчкам в коде.

Файл robots.txt — что в него пишется и как он оформляется?


#комментарий ( каждый комментарий пишется с # )
User-agent: *
# Выполняет все команды для любой поисковой системы
User-agent: Yandex
User-agent: Googlebot
# Выполняет все команды для определенной поисковой системой


Disallow: команда запрета
Disallow: /search/ (где «/search» может быть любым другим префиксом)
# Закрытие от индексации всех страниц начинающихся с определенного префикса.


# Закрытия префиксом не всегда является актуальным, тогда работает закрытие индексации всех страниц по шаблону.


Disallow: /*
# /* данная команда значит любые символы (шаблон - закрытия по шаблону)
Disallow: /*sort= ( закрытие по шаблону)


Allow: команда разрешения
Allow: / (Открывает нужные страницы в закрытых частях)
#Закрыты картинки, нам надо открыть картинки в рамках закрытого префикса
Allow: /images/*.gif

Нажмите, чтобы раскрыть...

Как редактировать robots.txt ?

Заходим на хостинг, далее открываем корневой каталог сайта, внутри этого каталога находим файл robots.txt и нажимаем кнопку редактировать. Так же его можно скачать, отредактировать в блокноте, и заменить им старый robots.txt.
Заранее советую делать резервные копии, и не только robots.txt — это касается всего.

Sitemap— второй инструмент управления индексацией
Sitemap — карта сайта. Перечень всех страниц сайта которые мы хотим, чтобы поисковая система проиндексировала. Если robots.txt запрещает что-то для индексации, то sitemap просит поисковую систему пройти на необходимые страницы. Все страницы которые есть в sitemap уйдут на сканирование поисковой системой.

Открываем файл sitemap — domen/sitemap.xml

1006040221_.png.1be17720dcc679c19b382ffff2321d2c.png



Единственный параметр который сейчас учитывается поисковыми системами— это параметр «Last modified»


Last mod — сообщает дату последнего изменения страницы.

Last modified должен быть указан максимально правдиво, нам необходимо чтобы свежие страницы сканировались чаще и поисковая система быстрее замечала эти изменения, а старые страницы сканировались реже.

Sitemap на современных сайтах генерируется автоматически с помощью скриптов. Скрипт в автоматическом режиме, каждый день обновляет sitemap по расписанию, добавляет новые страницы, указывает страницы которые удалены с сайта, а так же проставляет корректный last mod.

Как установить sitemap?

Если используем CMS платформы, есть куча плагинов для генерации sitemap.
Если сайт самописный, используем свои скрипты.

1. Так же мы можем указать sitemap для поисковых роботов, есть несколько вариантов
Добавляем sitemap в конец robots.txt командой Sitemap: domen/sitemap.xml

2. Отправляем sitemap напрямую поисковой системе через инструменты веб-мастеров.

1536382997_.png.be0828a7bc0b6451d4e5928caf07ab82.png



Meta robots— третий инструмент управления индексацией
Meta robots
— продвинутый инструмент закрытия страниц от индексации. Сейчас robots.txt воспринимается как рекомендация, в то время как meta robots является приоритетом.
1337581856_.png.2ed0ea2fd3938db7fa9597c616417723.png


Пример:

1449310105_.png.67fdd7957e5fa15d6fd0fdb51158291f.png



Заходим в html код страницы и ищем meta name «robots»


1572820069_.png.4441b60c88a3643d7eecef2fcd3de79b.png



Видим, что разработчики закрыли страницы поиска через Meta robots, сдается что и остальные необходимые страницы для закрытия от индексации — закрыты инструментом Meta robots


Cannonical— четвертый инструмент управления индексацией

Cannonical — инструмент для склейки системных дубликатов посредством канонического адреса.

1036828802_.png.fef9b77653ec4bfa6d3e916690e75bb9.png



Разберем схему подробнее.


У нас есть интернет магазин с двумя рубрикаторами. Первый рубрикатор по бренду, второй рубрикатор по товарам. В рубрикаторе по товарам у нас есть кроссовки, а в рубрикаторе по брендам у нас есть бренд Nike. Когда мы заходим в раздел кроссовки мы можем выбрать бренд, а внутри рубрикатора по бренду мы можем выбрать тип товара — кроссовки. Соответственно подобная структура генерирует дубликаты, но эти дубликаты нам нужны. Что тогда?

Именно в этом случае мы используем на дублирующей странице конструкцию :

283740886_.png.b538a438c89c69be10b3a976b63773d7.png



и тем самым показываем поисковой системе, что этот дубликат не нужно индексировать, а нужно подклеить к канонической странице.

Canonical позволяет не просто удалить страницы из индекса, он позволяет объединять дубликаты в единое целое с сохранением их ссылочного рейтинга по каждой странице. К тому же Canonical работает кроссдоменно, и мы можем склеивать страницы между сайтами.
Нажмите, чтобы раскрыть...

Как и везде, здесь есть свои нюансы. Canonical может быть проигнорирован поисковой системой. Касается это только гугла, яндекс воспринимает canonical как правило, но хуже к нему относится.

Когда гугл решить проигнорировать canonical мы увидим в Google search console в разделе покрытие — исключенные страницы, текст со следующим содержанием: Страница является копией. Каноническая версия страницы, выбранные гуглом и пользователем, не совпадают.
Нажмите, чтобы раскрыть...

Простым языком, гугл не поверил нашему canonical и выбрал свой канонический адрес для страницы. С чем это чаще всего связано?
Причина игнорирования: гугл может не поверит в canonical, если страницы не полные дубликаты. Достаточно пары лишний абзацев в тексте, или же несколько не идентичных картинок.

Self canonical — каноникал сам на себя

Рассмотрим другой пример использования canonical, а конкретно, указывание каноничной страницы саму на себя. Для чего это нужно?

Self canonical очень актуален если сайт работает на какой-либо CMS платформе. Связано это с тем, что сайты на CMS очень любят дублировать страницы, и конструкция Self canonical позволяет избежать дублирования. По этому, стараемся прописывать Self canonical на всех страницах.
Нажмите, чтобы раскрыть...

canonical можно посмотреть в нашем сканере в разделе отчеты — статистика обхода сайта — мета директивы

893119772_.png.c8ba4787c4c76073863eff962eb3444f.png




в сканере site analyz отчет по дубликатам склеенными canonical называется Wrong Canonical(неправильный canonical), название совсем не удачное и не соответствует сути. Нам нужно понимать, что это не ошибка, т.к дубликаты мы склеиваем осознано.

/

В нашем случае дубликаты склеенными Canonical отсутствуют.

/

Проблема пагинации заключается в том, что страницы пагинации являются частичными дубликатами. И мы уже выяснили, что дубликаты это плохо.

Как работать с индексацией пагинации?

Поисковые системы говорят — ничего не делайте с пагинацией, мы все поймем сами.
Нажмите, чтобы раскрыть...

И это так и есть, но только в случае если страниц пагинации мало, условно до 10шт. Если их более, поисковые системы уже не справляются. По этому:

1. Если сайт маленький, страниц пагинации до 10шт включительно.
Уникализируем название страницы — добавляя номер страницы. В целом этого будет достаточно.

2. Если сайт средний, количество страниц пагинации до 1к
На всех страницах пагинации указываем canonical главной страницы пагинации. Так как яндекс относится к canonical хуже, чем гугл, прописываем со второй страницы meta robots для яндекса, где просим его не индексировать страницы, но переходить по ссылкам.
1262677857_.png.e62c167d943a49a95bbb7643bf80ec4d.png



3. Избегать пагинации
Если есть возможность избегать обычной пагинации, то направляем вектор мышления в сторону динамической подгрузки товаров, статей и т.д. Увеличиваем общее количество товаров на странице. А внутренние ссылки генерируем с помощью других источников, таких как: похожие товары, сопутствующие товары, топ товары, аксессуары, рекомендации и т.д

Почему третий вариант все больше пользуется популярностью, особенно в гугле?
Связано это с тем, что гугл может игнорировать canonical и в последствии может закинуть в индекс страницы которые там не должны быть.

Что делать если все таки пагинация массово зашла в индекс гугла?
Многие в этом случае закрывают напрочь пагинацию через meta robots и линкуют страницы сопутствующими товарами. Лично мне этот вариант не очень нравится, но работает.

Почему нельзя закрывать пагинацию в meta robots или robots.txt?
Если мы закроем пагинацию через meta robots или robots.txt, то мы не дадим доступа поисковым система к ссылкам которые находятся внутри страниц пагинации. По этому закрывать пагинацию через meta robots и robots.txt не стоит. Но если вы все таки закрыли пагинацию через эти инструменты, начинаем линковать страницы с помощью дополнительных контентных блоков.

Как настроить хорошую индексацию сайта?
Зачастую своими ручками мы ничего не сделаем, если конечно не обладаем должными знаниями в front-end и back-end разработке. Даже если часть работ по индексации мы сможем реализовать посредством каких-либо плагинами на CMS платформах, то процентов 30 мы точно никаким образом не реализуем без привлечения веб-разработчика. По этому, нам нужно собрать четкое ТЗ и нанять подрядчика.

На данный момент не одна CMS платформа полностью не адоптирована под SEO. При работе с крупными проектами, рекомендую иметь человека под рукой который шарит в коде.

1931068167_.png.053656702d49bfe764e889e039fdf2ff.png


Вложения​

  • 1236161983_.png.386d01a5fe7a20b232cfb017bfda6347.png
    1236161983_.png.386d01a5fe7a20b232cfb017bfda6347.png
    73.5 КБ · Просмотры: 17
  • 1689255628236.png
    1689255628236.png
    77.3 КБ · Просмотры: 16
 
URL и ответ сервера
URL — унифицированный указатель интернет ресурса
Ответа сервера — это код который указывает на состояние веб страницы.

Нажмите, чтобы раскрыть...

Ответ сервера
Ответ сервера мы можем посмотреть в колонке «код ответа»
1166824819_.png.acaf87f988616666b96972404f3bdcf8.png


В основном нас интересуют 4 набора ответа кода сервера.
1332697117_.png.9c60af95d5c5f29327819b17538154f2.png


Это : 200 коды, 300 коды, 400 коды и 500коды

Когда мы запрашиваем какую либо страницу, мы отправляем запрос на получение данных на сервер, после нам приходит ответ в виде трехзначного числа. По умному это называется : код состояния http

200 ответ сервера — 200 ОК
Значит , что со страницей все хороша, она открыта пользователю и может быть проиндексировала. Все страницы которые мы хотим чтобы были проиндексированы, должны быть в статусе 200 ОК

это все, что нам в целом нужно понимать о 200 ответе сервера.

300 ответы сервера — 301 Moved Permanently, 302 Moved Temporarily
Данные ответы сервера заключают в себе редиректы

Что такое редирект?

redirect —
автоматическое перенаправление посетителя с одного урла на другой.

Редиректы это не плохо, мы будем часто их использовать, но сейчас нас интересуют такое понятие как лишний редирект, посмотреть мы их можем в отчете сканера «Статистика SEO» в списке PageRank

/

Что такое лишний редирект и почему это плохо?
Лишний редект означает — что вместо того, чтобы внутри структуры сайта сослаться сразу на нужную страницу, мы зачем-то сначала ссылаемся на промежуточный редирект, и только после этого редирект ссылается на нужную страницу. Для пользователя это выглядит будто вообще ничего не произошло, но лишний редирект нарушает сканирование сайта и нарушает распределение ссылочного веса. Схема лишнего редиректа:
816857295_.png.0691c475aaa4d3f0b7972e161e2075cf.png



Как искать лишний редирект?
В отчете сканера мы видим все лишние редиректы, возьмем первый урл и посмотри на входящие ссылки этой страницы, нас интересует источник

/

Источник у нас находится на domen/portfolio/sozdanie-3d-modelej/page/2/ , заходим и открывать панель разработчика

/

В панели разработчика нажимаем Ctrl+F и ищем нашу ссылку с лишним редиректом

Вот мы ее и нашли, ребята добавили элемент в пагинацию который вообще не нужен. Это ошибка, и она требует устранения, в наше случае убрать ненужный медиа элемент. А в целом, достаточно просто избавиться от лишнего редиректа и указать путь сразу на нужный урл. Собираем данные по лишним редиректам и выносим в наш документ для дальнейшего исправления.

/

400 ответы сервера — 404 Not Found
Значит, что запрашиваемая страница по адресу не найдена. 404 ответ сервера не проблема сама по себе, но проблема которую вызывает 404 ответ сервера называется — битая ссылка

2140792039_.png.c6cb80fd4f8790315cc2ff694138f28b.png



Что такое битая ссылка?
Допустим у нас есть страница с 200ответом сервера и где-то на этой странице у нас есть ссылка которая ведет на страницу с ответом сервера 404. Простая аналогия — указывать битую ссылку, это все равно, что давать номер телефона который не обслуживается. Битые ссылки мы должны устранять или чинить.

1059772577_.png.0a781dbb6bd7b28151a1783a2bc61fbe.png



Как чинить битые ссылки?
Устранение битых ссылок чинится путем удаление ссылки на 404 страницу. Другой вариант, это заменить битую ссылку на рабочую с 200 ответом сервера.

Кто-то закрывает битые ссылки от индексации, это абсолютно не правильный подход. 404 ответ сервера говорит нам, что у нас нет страницы по этому адресу, закрывать от индексации тут нечего. Единственным верным решением, будет избавиться от битых ссылок путем их устранения.
Нажмите, чтобы раскрыть...

Как искать битые ссылки?
В отчете сканера мы видим все страницы с отчетом 404, возьмем какой нибудь урл и посмотрим на входящие ссылки этой страницы

/

Видим источник битой ссылки на странице / Открываем страницу и запускаем панель разработчика

1719752947_.png.e76d712658ecd837608d0f7f8850c837.png



Видим код страницы нажимаем Ctrl+F и указываем нашу битую ссылку

/

и теперь мы видим, какой элемент страницы ссылается на эту битую ссылку

/

Эту ссылку либо чиним и заменяем на существующую страницу или удаляем.

Собираем данные по битым ссылкам с сканера и выносим в наш документ для дальнейшего анализа и исправления.

/

Почему битые ссылки это плохо?
Когда мы ссылаемся на несуществующую страницу, поисковая система может подумать, что наш сайт плохо работает. К тому же, ссылаясь на битую ссылку, мы теряем внутренний рейтинг сайта за счет внутреннего ссылочного веса. Битые ссылки это мусор, а наша работа при техническом аудите, выявить весь мусор и в дальнейшем его устранить.

500 ответы сервера — к ресурсу не предоставлен доступ или ошибка сервера.
500 ответы это серьезная проблема, самостоятельно мы с этим не разберемся. По этому если такие страницы есть, собираем их в кучу и отправляем разработчику, т.к эти ошибки значат что на сервере происходит ошибка при генерации страницы. 10-15 страниц с 500 ошибками могут серьезно повлияет на рейтинг вашего сайта в глазах посковых систем.

301/302 redirect
Сейчас мы вернем к 300 ответам сервера, и более подробно разберемся в редиректах.

301 Moved Permanently —
постоянное перенаправление
301 основной редирект, используется для передачи ссылочного рейтинга с одной страницы на другую, условно «моментально»

302 Moved Temporarily — временное перенаправление
сейчас 302 редирект в целом работает точно так же как и 301, если 302 редирект указан более 1месяца, то он начинает восприниматься как 301. Смысл в том, что на данный момент, 302 редирект не сразу передает ссылочный рейтинг, должно пройти время и именно по этому я советую клеить все сразу через 301.

Для чего вообще нужны редиректы?

1. Склейка разных доменов.
Например:
мы меняем доменное имя и перевозим сайт на другой домен, olddomen.ru / newdomen.com . Поисковой системе надо указать путем 301 редиректа, что сайт переехал. Благодаря редиректу мы так же перенес рейтинг домена на новый домен

Наше доменное имя на самом деле доступно в 4 форматах написания.

http://domen.com (http://domen.com)
https://domen.com
http://www.domen.com (http://www.domen.com)
https://www.domen.com

По историческим причинам сложилась так, что приставка www до сих пор существует. В конце 90ых интернет был — вебом, www — WorldWideWeb и все сайты условно делился на локальный и те что лежали в «интернете», и для того чтобы подчеркнуть, что сайт лежит в «интернете» использовали приставку www. Сейчас конечно это не актуально, но с тех времен эта приставка осталась.
При создании нового сайта, он доступен по двум разным адресам http://domen.com (http://domen.com) и http://www.domen.com. (http://www.domen.com.) Для поисковой системы это два разных адреса, и чтобы не генерировать дубликаты, мы должны их склеить.

Нужно настроить работу сайта таким образом, чтобы он работал по одному основному домену, а конкретно https://domen.com и для этого мы используем 301 редирект.
Нажмите, чтобы раскрыть...

Посмотрим как корректно работает ответ сервера на нашем сайте-примере
Для проверки ответа сервера я использую сервис — CheckMy
морда — выдает 200 ответ сервера, все отлично

/

А теперь посмотрим морду на протоколе http

/

Вот наш 301 редирект, тоже самое проделываем с www

/

Тут мы видим цепочку редиректов. Не сказал бы, что это хорошо, и можно было бы настроить редирект напрямую, но так же стоит отметить, что в этом случае совсем не критично.

Что нужно делать если у нас не склеены доменные имена?

Есть два основных способа.

A. Идем в настройки хостинга, и проверяем нет ли в настройках сайта — настройки склейки доменов. Если находим такую кнопку, просто ставим галку и все у нас все настроено. Но к сожалению, не на всех хостингах есть такая кнопка.

Б. Настраиваем редирект ручками через файл .htaccess
файл .htaccess лежит в корне сайта на хостинге, найти его достаточно просто, он имеет уникальное название которое начинает с «.» Настоятельно рекомендуется делать резервную копию файла.

Подробнее о настройке 301редиректа через файл .htaccess : Читать

2. Склейка старого контента

Допустим мы продаем айфоны, и на нашем сайты есть страницы о продаже iphone 5s. На сегодня, 5s старая модель и совсем не актуальна. Что нам делать с этой страницей? У нас есть два варианта, избавится от нее или же отредеректить страницу на похожий товар с нового ассортимента, например: iphone X. Вместе с редиректом мы передаем часть рейтинга страницы, допустим наша страница iphone 5s имела какие-то позиции, и если мы ее просто удалим — то потеряем весь рейтинг.


Важно: не редеректить все подряд, мы должны осознано подходит к этому моменту, и клеить страницы только с схожим контентом, только в таком случае мы передадим часть рейтинга. Сюда можно отнести статьи, старые акции, товары и т.д

3. Склейка дублей
Если у нас возникло случайное дублирование —то это дублирование можно починить редиректом. Такое бывает, например когда страница доступна по кириллическому и латинскому написанию адреса, или одна и та же страница имеет адрес в виде какого-то динамического индификатора с приставкой и еще какой-нибудь красивый второй адрес. Конечно можно склеить эти страницы через каноникал, но и склеить их через редирект тоже можно, об этом стоит сказать.

При склейки дубликатов через редирект не стоит забывать о внутренних ссылках страницы, которые будут указывать на канонический адрес — это будет правильно и в таком формате у нас не будет лишних редиректов. Посмотрим как это выглядит на схеме:

У нас есть старая статья «как выбрать телефон» в конце статьи мы ссылались на флагман того времени iphone 5s, но сейчас наш флагман iphone X. Страницу 5s мы уже отредеректили на iphone X, и если мы не заменим ссылку в статье и не укажем сразу линку на Iphone X мы создадим лишний редирект и создадим трудности для поисковой системы.

1806803237_.png.2d1485de378e89ff15ba6d895aa33db6.png



Структура URL

URL —
универсальный показатель адресов
URL состоит из четырех основных частей

https://domen.com/catalog/1h.html

Протокол соединения — http/https
Доменное имя — domen
Доменная зона — .com
Адрес страницы — /catalog/1h.html

Когда мы запрашиваем страницу, она обычно открывает по одному из двух протоколов. А именно : http или https.

http — гипер текст трансфер протокол
https — гипер текст трансфер защищенный протокол

На сегодня, поисковые системы настаивают на то, чтобы все наши страницы работали через протокол https. Для поисковых систем важно, чтобы пользователи сайта были защищены от злоумышленников, соответственно при ранжировании позиций поисковая система учитывает этот фактор, и отдает предпочтение именно сайтам работающим по защищенному протоколу.

Как настроить https?

Защищенное соеденение обеспечивается такой штукой как SLL — сертификат. Они бывает платные и бесплатные, если подходить со стороны SEO то нам абсолютно не важно какой именно сертификат использовать, важен лишь один момент — кем выдан этот сертификат. Советую сертификационный центр Let's Encrypt для получения бесплатного SLL сертификата от авторитетного источника. Бывает такое, что по какой-то причине мы не можем подключить бесплатный SLL сертификат, тогда покупаем самый дешевый на каком-нибудь авторитетном источнике. Я покупаю комодовские сертификаты для «личного сайта» почти под любой проект за 13-15 баксов в год, с точки зрения SEO такого сертификата более чем достаточно. Купить комодовский сертификат можно тут но вы можете использовать любой другой хорошо сертификационный центр.

Если мы купили сертификат, заходим на хостинг и идем в настройки SLL. К этому моменту у нас на руках два файла и ключ, которые нам выдал источник покупки сертификата. Вставляем файлы на хостинг, вписываем ключ и сохраняем. Готово, SLL сертификат подключен и в течении суток сайт заработает на защищенном протоколе. Еще один приятный момент, во многих хороших хостингах уже реализовано получение сертификата Let's Encrypt, и все что остается — это нажать на одну кнопку «Получить бесплатный SLL сертификат»

Что делать если наш сайт работал на http, а потом мы переехали на https? И как правильно переехать?
A.
Настроить редирект с http на https
Б. Проверяем как прописывается каноникал.

Иногда случается так, что в canonical попадает адрес с http, в этом случае меняем canonical на https
Нажмите, чтобы раскрыть...

В. Проверяем sitemap

Если в sitemap остаются старые адреса с http — он перестает обрабатываться. И гугл нам скажет, что sitemap не принадлежит домену. Если мы столкнулись с этим, вносим правки в sitemap.
Нажмите, чтобы раскрыть...

Г. Берем несколько основных страниц таких как: главная, товары, статьи. Заходим на страницы, и открываем панель разработчика, нас интересует вклада «Security»

1862874680_.png.11546995fba9c6e604ff06f864bacde6.png



если видим зеленый статус «This page is security» то все хорошо, сайт обрабатывается через протокол https. Если видим красный статус, то возвращаемся к пункту 1 и перепроверяем настройки редиректа. Помимо красного и зеленого статуса, бывает желтый статус — mixed content

mixed content —
страница загружается по https, но отдельные ресурсы подгружаются ( изображения, css, скрипты ) через http.

Если на странице есть mixed content поисковая система будет считать эту страницу не полностью безопасной.

Как искать mixed content?

Заходим в сканер, и идем в отчеты — статистика обхода — протоколы

2062925251_.png.8d8f6d16ef3227f6a2e3bf943083640f.png



На нашем сайте mixed content отсутствует, отлично.

Как устранять mixed content?
Для этого открываем исходных код сайта и переподключаем все ресурсы подключенные через http к https. Проблема возможно будет найти именно те ресурсы, что подключены через http, если не справляемся, подключаем разработчика. По факту, при определения всех ресурсов, везде будет достаточно указать только букву «S» и тем самым устранить mixed content.

Д. Если работаем под Яндекс.
Заходим в яндекс веб мастер, ищем вкладку переезд сайта и ставим галочку напротив HTTPS

Е. Если работаем под Гугл
Для получение актуальной информации в гугле, необходимо передобавить сайт в google search console с протоколом https

Следующий кусок урла состоит из названия домена и доменной зоны

Существует два основных вида доменных зон : зависимые и не зависимые. Некоторые доменные зоны означают, что наш сайт работает в определенном регионе: domen.ru ( Россия ) domen.ua ( Украина ). Регионально зависимые домены лучше отображаются в поисковой выдачи региона который указан в доменной зоне, но хуже за приделами этого региона. Не зависимые региональные зоны подходят в том случае, если наш сайт не ограничен каким-то одним регионом, к таким зонам относятся: domen.com, domen.net, domen.org и т.д

Все что нам нужно из этого взять на карандаш — делаем домен уникальным, чтобы в выдаче при указания доменного имени отображался навигационный запрос. Доменую зону выбираем исходя из того, на какую аудиторию рассчитан сайт. Берем те домены, которые на слуху у людей, для простоты запоминания.
Нажмите, чтобы раскрыть...

Теперь перейдем к самой важной части урла — адрес страницы. У этой части урла есть несколько параметров которые нас могут интересовать.

1. Формат ЧПУ ( Человеко-понятный-урл )
ЧПУ считается адрес который понятен пользователю по смыслу. Возьмем страницу с таким адресом «domen.com/?p=1234», абсолютно не понятно, что содержит в себе этот адрес. Посмотрим другой пример «domen.com/noutbuki/acer» из этого адреса мы можем понять, что страница о ноутбуках acer, второй вариант и есть ЧПУ. Советую использовать в урлах только латиницу, английский язык интернациональный и этим все сказано.

2. Вложенность
Изначально урл был придуман чтобы указывал путь, где и какой файл находится на сервере. Аналогия абсолютно идентичная с расположением файла на ПК. Сейчас, урл не отображает файловую структуру на сервере. На сегодня, урл —это способ сделать навигацию более удобной и понятной. На нашем примере с «domen.com/noutbuki/acer» мы видим, что есть страница ноутбуки и в нее вложены уже бренды. Страница ноутбуков содержит второй уровень вложенности, а acer третий уровень.

Для чего нам нужно понимание вложенности?
Нам стоит учитывать, что чем больше уровень вложенности, тем больше создается впечатление для поисковой системы, что страница слишком глубоко зарыта на сайте и соответственно не имеет весомой значимости для пользователя. Поэтому: делаем вложенность не далее 5го уровня.
Нажмите, чтобы раскрыть...

3. Длина урл
Тут стоит учесть тот момент, что поисковая система быстрее индексирует страницы с короткими урлами. По этому делаем урлы до 70-100 символов.

Стандартные приемы использования вложенности урла

Для маленького сайта — условно 100-200 страниц
Идеальная структура
— второй уровень вложенности: domen.com/page1, domen.com/page2
В этом случае будут все урлы коротки, никаких лишних вложенностей, сайт будет оперативно индексироваться. Такая структура подойдет: сайтам услуг, небольшим интернет магазинам.

Для среднего сайта — до 1000 страниц условно
Урл Отражает структуру сайта —
«domen.com/uslugi/SMM » . У нас есть раздел услуги, и в этом разделе мы предоставляем услуги SEO, урл полностью отражает структуру сайта. Это достаточно классический пример

Для большого сайта — от 1000 до 10000+ страниц
Урл отображает тип контента.
На данный момент, самый успешный вариант. Выглядит это следующим образом. Берем разные типы страниц и складываем в разные вложенности , например у нас есть товары, и в них мы вкладываем все товары «domen.com/tovar/iphone X» тоже самое касается каталогов «domen.com/catalog/noutbuki» если есть блог, выносим блог в отдельную вложенность и выглядит это «domen.com/blog/blog-page1» . Таким образом мы указываем поисковой системе, к какому типу контента относится наша страница. Если идти таким путем, все наши страницы будут не дальше третьего уровня вложенности и с оптимальной длиной урла.

Если мы запускаем проект, руководствует подходом выше. Если проект уже готов, и структура уже есть, придется работать с ней, и как то выкручиваться, вед при серьезных изменениях мы можем нарушить весь внутренний ссылочный рейтинг, что в свою очередь создаст вероятно больше проблем, чем внесет какой-то значительной плюс.

Оптимизация скорости загрузки сайта
Следующим важным моментом при технической оптимизации - есть увеличение скорости загрузки сайта. Сейчас, очень важно, чтобы сайт грузился быстро, этот фактор я включаю в 10ку важнейших факторов в 2020-2021 году. Оптимизация этого параметра сильно сказывается на росте позиций в совокупности с другими факторами. Из чего же складывается скорость загрузки сайта?
Нажмите, чтобы раскрыть...

Рассмотрим как это работает:
Пользователь при загрузки страницы обращается к серверу на котором находится вся информация, после сервер обрабатывает запрос и передает данные пользователю. Следствие — это занимает время. Из этого следует, что удаленность сервера от пользователя может сказываться на скорости загрузки. Стоит понимать, что магистрали интернета — это провода ( оптоволоконные кабели ) Простым языком, если наш сайт размещен на серверах которые находятся в РФ, а наши клиенты например в США, удаленность будет сказываться на скорости.

1574588680_.png.130517ee08436fc8572a7aca53d72653.png



Второй момент. Когда сервер получил запрос, он начинает генерировать страницу. Стоит учитывать, что страницы не хранятся в виде статистических данных. Большинство сайтов, работаю динамически. Основная часть современных сайтов созданы на CMS системах. CMS системы работают как связующее звено которое соединяет еще два узла — это база данных и шаблон.

Максимально примитивно представить базу данных можно как огромную таблицу в которой содержится вся информация о страницах, из этой базы данных берется информация о странице и подставляется в шаблон дизайна. Подобный подход позволяет создавать динамически 1000+ страниц максимально быстро, для создания новой страницы не нужно делать страницу физически, все сводится к созданию новой запись в БД и данные из последней подставляются в шаблон. Из выше сказанного можно понять, что на генерацию страниц тоже уходит время. Скорость генерации страницы зависит от: как хороша работает CMS, на сколько оптимально она делает запросы к БД, на сколько мощный наш сервер и как много запросов идет к этому серверу.
1816740221_.png.17178081768f1fcd2714cebf3f3b75f8.png



Когда страница сформирована, ее нужно скачать, а скачивание в свою очередь зависит объема килобайтов. Теперь время еще тратится на скачивание
1108668556_.png.bfde7aedfb0e63e97de7596af1f2176d.png



Когда страница скачалась, и вроде бы нам показалось что все, страница скачалась пользователю на компьютер, но для просмотра этой странице, ее нужно сначала нарисовать. Отрисовка страницы называется — рендеринг.

Рендеринг — процесс получения изображения модели с помощью компьютерной программы.

Рендеринг зависит от того, на сколько хорошо реализовал технологии доступные в html front-end разработчиком. На сколько хорошо создана архитектура сайта.
998613428_.png.3161c04ad4c571ce82ae9a6947423941.png



Теперь мы можем выделить 4 составляющих которые влияют на скорость загрузки сайта.

1. Обращение к серверу
2. Генерация страницы на сервере и получение первого ответа от сервера
3. Скачивание страницы
4. Рендеринг страницы

На нашем подопытном сайте скорость загрузки мягко говоря совсем не очень
2020760397_.png.de2818994ce294ecd9146aea215e70f8.png


Нас интересует скорость загрузки как и для мобильных версий ( основной приоритет) , так и для десктопов. Разработчики не любят данный сервис, так как он якобы не отображает действительную скорость загрузки страницы, от части они правы. Но, нам нужно, чтобы данный сервис показывал оптимальную скорость загрузки, так как в основе этого алгоритма оценки лежат все те самые алгоритмы которые используют поисковые системы. В PageSpeed Insights удобно реализованы отчеты, давайте их посмотрим

139811924_.png.eae869aa708cef8670faeaebc245d938.png



Открываем расширенный отчет, и в целом, здесь все сказано, что нам требуется сделать, чтобы страница отображалась быстрее.

1262420620_.png.c3b0c0f65da13243bce4a984a3b79301.png



Массово можно проверить скорость загрузки сайта, в гугл аналатика в разделе поведение «скорость загрузки сайта» где нам покажут показатели по всем страницам.

Что конкретно делать, если сайт грузится медленно?

1. Подключение технологии серверного кэширования

Технологии серверного кэширования позволяет сохранять страницы в специальное хранилище (кэш), посредством которого страница не генерируется, а уже в готовом виде предоставляется пользователю. Технология серверного кэширования реализована в CMS системах посредством модулей, или плагинов, все что нам необходимо, это установить нужный модуль и поставить необходимые галочки. Например в WD плагин — w3 total cache

2. Подключение технологии минифицирования html, css, java script

Минификация позволяет убрать лишние символы из кода страницы. Типичные символы в коде — это пробелы и перевод строки. Данная технология позволяет облегчить рендеринг страниц браузером. Минификация так же реализована в CMS системах посредством модулей. В WD тот же самый — w3 total cache. Так же есть серверы в которые внедрена эта технология, и все что нужно — это включать галочку на хостинге.
Статья о gzip сжатие посредством внедрения кода в файл .htaccess

3. Подключение технологий браузерного кэширования

Технология браузерного кэширования чем то похожа на технологию серверного кэширования, но идея заключается в том, что страница сохраняется на устройстве пользователя, а не на сервере. Включается браузерное кэширование на многих хостингах в настройках сайта. Так же для все тех же наших CMS систем тоже реализованы технологии браузерного кэширования, в WD это можно настроить используя все тот же плагин w3 total cache

Статья о кэшировании посредством внедрения кода в файл .htaccess

4. Подключение отрисовки контента до загрузки шрифтов.

Этот пункт касается если мы не используем стандартные веб шрифты на своем сайте. Посмотреть стандартные шрифты можно тут . Если используем красивые шрифты, то нам потребуется разработчик который внесет поправки в css файлы, и отложит загрузку шрифтов до отрисовки основного контента. Выглядит это примерно таким образом, пользователь попадает на сайт, сначала подгружается весь контент с стандартным шрифтов, после уже подгружается наш шрифт.

5. Оптимизация изображений

Первое от чего нам нужно отталкиваться при оптимизации изображения — это размер и качество. Чем меньше размер тем меньше вес, достаточно логично. Зачастую можно встретить на сайтах изображения с огромном разрешением, которые в исходном виде мы посмотрим только на плазме. По этому, используем картинки в «нормальном» разрешении 1000p на 700p оптимально, можно меньше. Следующим пунктом у нас идет качество изображения, картинку можно сжать без существенной потери качества. 80% будет достаточно, чтобы изображение выглядело хорошо. Далее мы еще можем уменьшить вес картинки, путем удаления всех метаданных. Я использую File Optimizer. Если сайт большой, то ручками мы явно устанем оптимизировать изображения. Если сайт на своем движке, использую какие-нибудь скрипты, наш случай это CMS платформы, для WD я использую плагин EWWW image Optimizer, очень удобный советую.

Для интернет магазинов в основном используют миниатюры. На сервере установлен скрипт который сохраняет картинку в 3-4 вариантах размеров, и в соответствии с позицией картинки на странице показывается нужный размер. Сделано это для того, что не масштабировать лишний раз полные изображения посредством html, а сразу показывать пользователю тот размер который изначально был задуман при верстке. Если у нас витрины, каталоги используем миниатюры, на хороших CMS системах данные скрипты уже внедрены в начинку.

У нас еще есть два способа оптимизации изображений. Первый — это использовать современные форматы изображений. Суть в том, что не все устройства, особенно старые, их могут обрабатывать. На самом деле это не проблема, и она решает путем внедрения скриптов, которые будут учитывать устройство пользователя, и если устройство воспринимает эти форматы, то скрип показывает пользователю изображение в современном формате. Настроить это можно в том же самом EWWW image Optimizer в вкладке Webp поставив 3 галочки.

Второе — это ленивая загрузка ( Lazy loading ), если простым языком, эта технология позволяет сначала загрузить страницу без изображений, в те места, где должны быть расположены изображения подгружаются заглушки и уже после догружаются картинки. Стоит учесть, что этот пункт больше важен для пользователя, т.к юзер быстрее начинает взаимодействовать с контентом. На Page Speed он почти не влияет.

6. Если делаем сайт на CMS, стараемся сразу выбрать шаблон который из коробки имеет хорошую скорость загрузки, после накидываем сверху плагины и можно разогнать мобильную версию до 90 балов и выше.

7. CDN сети

693536489_.png.4155b3ef85c172b9259d64b9b2623db1.png


Part IV — Технический аудит/Техническая оптимизация, изображение №88

Мы выяснили, что скорость загрузки сайта зависит в том числе от удаленности сервера от пользователя. CDN сервисы — являются распределительными сетями, которые работаю по принципу промежуточных серверов. Когда пользователь запрашивает какой либо ресурс, который физически находится далеко от него, CDN видит это, и при не однократном посещении пользователем этого ресурса, делает заметку и заносит ресурс в кэш на ближайшем к нему сервер. Фактически наш контент становится ближе к пользователю, и уменьшается нагрузка на наш сервер. К тому владельцы таких сервисов заинтересованы в сжатии страниц, так как это все объем, а сервера не резиновые. Грубо говоря, подключение CDN обеспечит почти все те пункты что мы описали выше. Я использую Cloudflare / вообще данные сервисы не позиционирует себя как нечто такое, что увеличивает скорость загрузки, основная их задача это безопасность. Подключение такое сети обеспечит защиту от мамкиных ддосеров, от серьезных ддос атак вряд ли спасет.

Мобильная оптимизация

Итак, для начала разберемся в принципиальных различиях к подходу мобильной оптимизации в гугле и ядексе
Гугл уже порядка двух лет использует во всех своих алгоритмах и стратегиях развития подход который называется - Mobile first.

Mobile first —
один из подходов разработки сайтов лежащий в основе удобства для мобильных устройств.

Идея mobile first заключается создании программ, сервисов и других сопутствующих вещей в поиской системе прежде всего для мобильных устройств. Стратегии развития в этом направлении обусловлена тем, что мобильные устройства стали основным инструментом выхода в интернет, более 60% всех поисковых запросов в гугле идет именно с них, и с каждым годом эта цифра растет повсеместно. На основе сказанного выше гугл индексирует сайты с подходом Mobile first, и он лучше ищет сайты для мобильных и соответственно лучше их показывает.

Яндекс же при сканирования сайте не использует подход Mobile first, он пользуется консервативном методом — берет код страницы, анализирует содержимое и вытаскивает куски контента из html кода. Нельзя сказать, что Яндекс полностью игнорирует Mobile first, я бы сказал что он пытается перейти к внешнему анализу страницы, но пока у него это получается мягко говоря не очень. И когда яндекс перейдет на Mobile first индексацию остается загадкой

Что для нас из этих различий важно? Когда мы пытаемся понять, какой текст для гугла будет более важен или менее важен — смотрим на мобильную версию сайта, для яндекса же можем продолжать анализировать эти моменты с помощью Desktop.

Как лучше реализовать идею сайта для мобильных устройств?
Тут два подхода, сразу отмечу, что я сторонник второго , это — мобильная версия или адаптивная верстка.

Адаптивная верстка — простым языком, это изменение внешнего вида сайта с учетом размера устройства с которого происходит вход
В 99 % случаях именно адаптивная верстка будет единственным и верным решением. Но для общего понимания различий этих подходов, давайте поговорим о мобильной версии сайта.

Мобильная версия — Отдельно сверстная страница под мобильные устройства, всегда является дубликатом, что в свою очередь создает небольшую проблему с индексацией, которую можно решить путем склейки мобильной версии с десктопом путем canonical. Работает следующим образом, при обротке запроса сервером, он учитывает устройство с которого отправляется запрос, и выдает соответствующую страницу.

Данный подход старинный и остался еще с времен когда мобильные устройства начали отжимать рынок у десктопов. Сейчас более чем не актуален, особенно учитывая, что гугл любит игнорировать canonical.

AMP и Яндекс Турбо — ускоренные мобильные страницы
В гугле и яндексе реализована эта технология, и в основных достаточно реализация схожа. Давайте разбираться, что это за ускоренные мобильные страницы и зачем они вообще нужны?
Ускоренная мобильная страница — совокупность нескольких технология целью которых является увеличение скорости загрузки страницы на мобильных устройствах.

AMP (Accelerated Mobile Pages) — гугл говорит ,— ребята, вот у вас есть сайт, а почему бы вам не сделать ускоренные копии страниц вашего сайта для мобильных устройств использую специальную библиотеку разметки AMP, которая содержит в себе готовые решения по css и java script, имеет ограниченный функционал, но сделана таки образом, что страницы созданные на библиотеки AMP будут являться супер быстрыми мобильными страницами.
По мимо этого, гугл предлагает закэшировать страницы созданные на библиотеки AMP в специальное хранилище AMP кэш, и тем самым еще увеличить скорость подачи контента пользователю. Библиотека AMP

Технология позволяет загружать страница почти моментально, но есть и обратная сторона, а именно. Страницы на библиотеке AMP имеют очень упрощённый дизайн, и еще использую эту технологию мы создаем копии своих страниц. В самом начале зарождения идеи ускоренных мобильных страниц, веб-мастера не охотно приняли эту идею, ведь по сути мы плодили бы дубли. Но со временем многие CMS платформы начали внедрять модули по управлению AMP внутри своего сайта. Для WD плагин так и называется — Accelerated Mobile Pages. Управление индексацией страниц AMP версии достаточно просто, достаточно добавить в код основной страницы следующие конструкции:

263541245_.png.8ce359183e666b752b9ba20fa741b100.png



Стоит ли подключать AMP?
Если мы не информационный ресурс(новостник), то можем не подключать. К счастью гугл не воспринимает отсутствие AMP как негативный сигнал. Если мы информационный ресурс, то делаем их обязательно, т.к можем попасть в сервисы гугла типо ленты новостей.
Еще важный момент, AMP страницы часто требует доработок, т.к изначально в основном страшные сами по себе, по этому требуется привлекать разработчика. Это стоит учитывать. К тому же AMP версии не дают никакого + на увеличение позиций сайта.

Яндекс турбо страницы
Яндекс примерно работает так же как и страницы AMP в гугле, но в отличии от гугла, подключение турбо страниц в яндексе дает + в росте позиций.

Не смотря на схожесть, есть принципиальное различие в технологиях AMP и Турбо страниц. AMP — это отдельная страница, а Турбо страница — это все та же страница, но видоизменённая самим яндексом. Нам просто нужно передать данные Яндексу для генерации турбо страницы. Передаются данные путем RSS-файла. RSS файл можно подготовить самостоятельно или же использовать модуль на CMS платформе. Для веб-разработчиков технология турбо страниц реализована более удобней в яндексе, турбо-страница есть только в системе Яндекс. Не нужно заморачиваться с индексацией. Яндекс еще побеспокоился в отличии от гугла, на счет генерации необходимого файла, и он создал плагины для всех популярных CMS платформ

После генерации файла, мы подключаем его в яндекс веб-мастере в раздели «Турбо страницы» — источники - добавить. Готово, у нас есть турбо-страницы созданные самим яндексом. Очень круто, не забываем включить в настройках турбо страниц счетчик веб-аналитики. В настройках можно еще поковыряться, но вот счетчик веб-аналитики очень важно.

Для интернет магазинов, генерируем YML файл — работает абсолютно точно так же, как и RSS.

Так же не забывает тестировать страницы, и смотреть как они выглядят. Если они улучшают поведенческий опыт, подключаем, если негативно сказываются — черт с ними, и вообще ими не занимаемся.
 
Маркетинговые исследования
Создание семантического ядра


  • Яндекс

Создания семантического ядра начинает с сбора стартовых слов. Что же это за такие слова? На нашем примере, мы будем рассматривать сем.ядро для digital агентства и первые стартовые слова, что приходят на ум — это: Маркетинговое агентство, SEO оптимизация, SMM, Контекстная реклама. Так и запишем

1984272117_.png.858bf6c7c2c3a85aea7f924559fc48f3.png



Теперь берем самый первый ключ с широким интентом, в нашем случае это «Маркетинговое агентство» и идем смотреть поисковую выдачу по этому запросу.

1616184737_.png.6f7306c284cef99e711e9e1820cf3148.png



Открываем 3-4 конкурентов из топ выдачи, и начинаем анализировать страницы для расширения стартовых слов.

774544095_.png.dde670f5220bdf6051fdfaf976908ebf.png



Вот то, что нам нужно, забираем все и отправляем в наш документ.

1214610437_.png.d69ccaa197ee12573ae474394ba7068b.png



Собрали 31 стартовых слов. Стоит учитывать, что мы брали не все подряд, а только то, что можем реализовать. Так как мы планируем организовывать бизнес в РФ, будем собирать сначала семантку для Яндекса. Яндекс плоховато обрабатывает словоформы, по этому указываем некоторые стартовые слова в нескольких словоформах. Гугл же обрабатывает все словоформы, респект ему.

Теперь идем в яндекс вордстат и вставляем наш первый ключ. В вордстате нас интересуют две вещи, это частота и правая колонка вордстата для расширения стартовых слов. Вбиваем все ключи которые собрали, и из правой колонки выбираем запросы которые нам подходят.

1060871547_.png.0c4b17342608e3176cdb76765a2f8c72.png


Расширили стартовые слова до 50

1230093573_.png.5a792604335c48ed8fc78d1fd0c3c03c.png



Теперь нам необходимо собрать левую колонку яндекса

1261817410_.png.c7ee361ec6eb6782b261f6dd6ee7c2c9.png



Естественно ручками все это делать мягко говоря долго. Сейчас нам потребуется парсер, я использую Key Collector, он платный, но у него есть и бесплатная версия под названием СЛОВОЕБ

На этом этапе нам потребуются левые аккаунты под яндекс и прокси. Заходим в софт, проходим в настройки и закидываем аккаунты.
Нажмите, чтобы раскрыть...

Как только настроили все, запускаем и уходим пить чай. Это на долго

550005338_.png.d516419f1396b5f85baf56728fd441d2.png



  • Google

Для сбора семантики в гугл создаем аккаунт в гугл Adwords. Регистрация потребует некоторой сноровки, а конкретно будет необходимо создать фиктивную рекламную компанию для доступа к подбору ключевых слов.

Итак, с этой задачей мы справились, теперь переходим непосредственно к сбору семантики

1719497515_.png.9eb33e40ea274edbd8910331b76d155e.png



Заходим и видим непосредственно инструмент гугла keyword-planner

1967028134_.png.6f4810fb6d344635d2764b25a0e52164.png



Кликаем показать результаты, и вылетает список всех ключей по этому запросу.
Чтобы расширить список, указываем источник не только гугл, но и их партнеров. ГЕО оставим Россию матушку, сейчас ее будет за глаза.

68680231_.png.e8d0a53c85cda32abef5962b77729368.png



один из плюсов гугла, в том, что он хорошо обрабатывает словоформы, и не требует дублирования ключей в разных форматах. Сразу находит все, и это не может не радовать.

Скачиваем файл, и проделываем всю туже самую работу со всеми ключами. В результате работы у нас должна появится папка с списком всех csv файлов

616159486_.png.a3fddf2b90e07275f695e39f4136f4dc.png



Следующая задача, это объединить все файлы в один. Для этого заходим в консоль и прописываем следующие команды:

1. cd расположение папки\название папки
2. copy /b *.csv all.scv

И так, мы объединили все файлы в один, и теперь можем базово его обработать. Импортируем объединенный файл в гугл таблицы

Импортирвоали, отлично, теперь базово его обрабатываем. Удаляем все кроме самих слов и частоты, забежав чуток вперед на самом деле и частоту удалить можно, но ладно

350512318_.png.1d8c1d3482fb5700cc769dd9bf48a18d.png



Далее чистим дубли. Заходим в вкладку «Данные» нажимаем удалить повторы


Это далеко еще не семантическое ядро, но у нас есть список тех ключей, что нас интересовали.

Чистка семантического ядра

Когда мы собрали предсемантику в ней есть куча не нужных для нас запросов, назовем их мусорными запросами. Мусорные запросы — это все то, что не интересует наш бизнес. Например: навигационные запросы конкурирующих компаний, запросы которые не относятся к нашему бизнесу, или те запросы которые относятся к бизнесу, но мы никак не сможем их реализовать.

Мы рассмотрим два варианта, первый это чистка в Key Collector и в гугл таблицах ручками. Есть огромное кол-во и других сервисов, большая часть из них платная. Посмотрим самые тривиальные.

Начнем с последнего, итак у нас есть предсемантика с гугла в 5.5к ключевых запросов, берем кусок семантики в 2-2.5к ключей копируем и отправляем их в анализатор текста

1480259808_.png.8e22de0105eb324528225a609535b8f6.png



Я использую Simple Seo Tools, заходим - вставляем наш текст и указываем 100 слов в кол-ве и получаем две частотные таблицы

1668770269_.png.382511b3c873ba529979e93bfde86a69.png



Таким образом, мы разложили все ключи на слова и словоформы и теперь можем посмотреть из чего состоят наши ключи и выдернуть слова которые нам совсем не соответствуют.

141550593_.png.19026f406a9b6b4d351249361047a1a4.png



отличный пример : БЕСПЛАТНО. Естественно бесплатно мы ничего делать не хотим, по этому возвращаемся в гугл таблицы, ставим фильтры по условию — текст содержит — указываем слово «Бесплатно»

313820516_.png.d66b879454f316a498f1c02270daf91a.png



Получили все ключи со словом «бесплатно» создаем еще один столбик под названием «фильтр» и проставляем везде маркер который нам будет удобен, для наглядности я использовал цифры, в своей работе маркером я указываю «не целевое слово».

1515014804_.png.2ca2e0be044d97358951c90873823ae7.png



Далее идем по списку, на этом этапе главное не удалить лишнего, по этому маркируем все, а после уже решим.

1955419182_.png.55c5edced7e93baf60d2707f554ac26c.png



Вот например спорное слово «Раскрутка» в профессиональном обществе вообще его не слышу, обычно употребляют люди которые толком не понимают, что хотят — зачастую физики или мелкие юрики.
Лично я не хочу работать с физиками и мелкими юриками у которых бюджет с гулькин нос. Но мне же нужен трафик, по этому оставлю на всякий случай, быть может и использую.

Итак, за 30 минут, при поверхностной чистке методом, что я описал выше, мы выделили 1.5к не целевых запросов, и остаток у нас в районе 4к.

В целом, механизм понятен. Пока мы чистили ручками сеантику в гугле, Key Collector собрал под яндекс 25000запросов. Внушительно, что же, давайте посмотрим как чистить семантику в софте.

Заходим в вкладу данные и нажимает на анализ групп

1604613156_.png.cf0f13bf393600a06208a6d55dfb656f.png



Далее выбираем настройку группировки — по отдельным словам, и нажимаем «вычислить группировку» и вот мы вернулись все к тем же частотным таблицам, но в Key Collector нам достаточно поставить галочки

1859167391_.png.efceeebfe97435600966cf5fc915a6a1.png



После часа кропотливой работы, нажимая просто галочки мы избавились от почти 20к нецелевых запросов.

273088535_.png.c029c488e76c3973545e902ff978ad32.png



На больших объемах даже при использовании софта можно что-то пропустить.
Пройдемся еще раз

745631179_.png.b409266de6ed51be40b85a3b408a53be.png



Выяснили, что еще есть 1000 каких то не важных запросов, создадим новую папку и отправим их в «Возможные целевые запросы» на тот случай, если захотим что-нибудь вернуть.

Следующим этапом, будет чистка по стоп словам и фильтрация коммерческих запросов от информационных. Заходим в «Стоп слова», закидываем пачку наших слов и нажимаем «отметить в таблице»

664111480_.png.885463fc8862a5b224383f1764e91511.png



Самый типичный пример стоп слов — это не целевые регионы, фильтруем и выносим в отдельную папку. В нашей семантики мы все нецелевые города выкинули мусор на первом этапе чистки. По этому переходим к информационным запросам — это все те вопрос которые звучат: как, зачем, почему, для, и т.д. Выносим их в отдельную папку. В итоге мы имеет более менее чистую семантику, из 25к запросов, остаток у нас 4700

Переходим к следующему этапу чистки. Яндекс выдает относительную частоту которой абсолютно никак нельзя оперировать, по этому нам требуется выяснить «уточненную частоту» для этого заходим в вкладку «Сбор статистики яндекс директ» ставим галочки как на скриншоте и нажимаем получить данные.

1390262899_.png.3cd05bd30f86097e367d1de775a6d872.png



Пока софт собирает данные вернемся к нашему сбору семантики в гугл таблицах.

Итак, аналогия такая же как и в Key Collector, только работаем с фильтрами, единственный момент, стоп слова вы никак не укажете и не выделите автоматически. Ну и сами понимаете, что использование софта многократно упрощает работу. Семантику гугла, я так же буду импортировать в Key Collector и уже там проводить всю работу.

После того как почистили семантику, сбор уточненной частоты в гугле отличается от Яндекса, нам потребуется какой-нибудь сервис который снимает частоту. Я использую топвизор, тут придется заплатить денежку в районе 5 баксов, но это того стоит.

Заходим в топвизор, создаем проект, нажимаем — поисковые запросы, далее импортируем ключи из csv, и снимаем уточненную частоту

89070893_.png.bae2fdc22e94dd6a8562bc5ad2ce9007.png



Key Collector тоже собрал уточнению частоту, в столбике «уточненная частота» ставим условия фильтрации = 0, те запроса что с частотой 0 можем смело удалять.

1633016727_.png.2d42581a92fad9b5e207dfa1681e02e0.png



Следующим шагом, будет отсортировать прям очень низкочастотные запросы близкие к 0, например до 10 — и выносим их в сверх - низкочастотные запросы. Сухой остаток 2к ключей.

Я делаю следующим образом, чищу семантику гугла и яндекса отдельно, после объеденяю их - ( удаляю дубликаты) получаю общий пул - после и узнаю уточненную частоту в топ визоре.

2137507852_.png.61bd6b4aaad150047408f849a7e26ec8.png




В общей сложности вышло 4600 ключей, не плохо. Запросы с частотой 0 в гугле я оставлю, чтобы картину в целом видеть в купе с яндексом.

Теперь нам надо раскластерезировать семантику. Эту задачу передадим тому же самому топвизору, за бабосики он разобьет всю семантику на группы.

Нажимаем на кластеризацию — далее кластеризировать по топ 10

879932296_.png.0733986e849adb8ece61f8221cffa82e.png



Далее у нас есть два варианта, это кластеризация по софт и хард

1883893694_.png.6cbb63a779de07f8daf868efeed27b22.png



Софт подходит для информационных сайтов и сайтов услуг, степень группировки от 4-5, хард подходит для коммерческих сайтов ( магазинов ) и для высоконкурентных сайтов услуг. Мы проводим кластеризацию по харду на 3 и импортируем данные в гугл таблицы.

1034623974_.png.67377096c2714ed5dd57423e1c74c56b.png



Отлично, сейчас пройдемся по группам, посмотрим, может что на этапе чистки забыли убрать, возможно остались какие-нибудь не целевые запросы уже собранные в группы. Прошлись, нашел две мусорные группы которые пропустил в общей сумме с 15 запросами.

Конечно кластеризацию можно сделать и в Key Collector, сейчас посмотрим как работает кластеризация в софте

1790246321_.png.826b576c84344ba4da55a96a60f250de.png



Для начала снимаем данные с поисковой выдачи в гугле и яндексе, далее идем в «Данные» — анализ групп

2123557597_.png.106964488eb142dc379a31cc07cd250c.png



Группируем по поисковой выдаче, и получаем кластеры. Те запросы, что не определились с кластерами, уже закидываем в ручную по смыслу. Стоит отметить справедливости ради, что в топвизоре тоже часть ключей не определится по группам, и их тоже придется группировать руками.

Вычисление конкуренции
И вот мы почти на финише. При работе с ядром, ко всему прочему неплохо было бы узнать конкуренцию в гугле и яндексе при условия если сайт молодой или его вообще еще нет как в нашем случаи. Хоть эти величины относительные, и все же иногда бывают достаточно полезны.

Для яндекса рассчитаем KEI в сервисе Мутаген, хотя есть и бесплатный способ снять KEI в Key Collector который мы посмотрим чуть позже. Мутаген специализируется на вычисления сложности для Яндексе, имеет якобы уникальную формулу которую не разглашает, собственно именно из-за этого и пользуюсь. Хотя и есть сомнения

277316593_.png.5751bc9b57dda577395ec5778cc53a5c.png



Заходим в Конкуренцию, делаем новое задание, закидываем ключи. Проверку 100 ключей будет стоить 30 рублей. У нас 4600 ключей, вышло в районе 1400. Издержки есть издержки

1593769572_.png.7393c39c37fb23c41d3e9521232f182e.png



Итак, мы выяснили конкуренцию, нас интересуют все ключи которые с числовым показателем до 15. Чем ниже тем лучше. Остальные продвигать будем потом.

В Key Collector тоже можно рассчитать KEI, если для себя любимого мутаген на этапе разработки, то для простых смертных использую формулу Семен Ядрен и то когда просят, посмотреть все формулы можно тут. Какую именно использовать решать уже вам. Вообще KEI достаточно относительный показатель вокруг которого ведутся дискуссии, кто-то считает что им можно оперировать, кто-то нет. Я больше склоняюсь к второму, но на этапе разработки собственных серьезных проектов, считаю необходимом собрать как можно больше информации.

2065307308_.png.0116e58a1fb6f86223856d5f06d6c13f.png



Выбрали для себя нужную формулу, закинули в настройки. После рассчитываем KEI

547690891_.png.d94734e06f6033d58995cba5b4849527.png



Для гугла потребуется ахревс, он тоже платный. В отличии от KEI инструмент ахревса Keywords explorer рассчитываем KD на основе анализа конкурентов и выдает примерное количество необходимых ссылок для увеличения ссылочной массы. Это уже поинтересней чем KEI в яндексе однозначно.

1690699275_.png.a2b3ea5ddfeea52651c48ee684f4ee0a.png



Отправляем наши слова, и получаем всю нужную для нас информацию

1660768113_.png.281be5da91d195403b2ad9573429a2bd.png



Видим что у нас не по всем запросам Ахревс показал KD, из за этого нарушилась структура кластеров. Как закинуть всю информацию о KD в наш исходный файл? Качаем файл, открываем его в exel, создаем еще один лист с перечнем нашего ядра уже разбитого по кластерам, далее прописываем формулу =ВПР в второй столбик

700918263_.png.e0c30e35b6ee48b3d5371f7c4ed5a716.png



и все значения со второй таблицы ( которую мы скачали с ахревса) , подставятся в первую, далее нам ничего не остается скопировать и отправить в наш исходный файл.

Рассадка посадочных страниц по семантическому ядру
Итак, начнем с первого. Страницу которую мы собираемся садить на кластер, должна соответствовать интенту запроса. Если по группе ключей у нас отображаются страницы услуг, то мы должны делать страницу услуг. Если отображается товары, то делаем страницу товара, и т.д по этой логике. Выделяют несколько видов страниц: Товар, статья, листинг товаров ( категория или фильтры), листинг статей, лендинги по услуге(формы, таблицы). К всем этим страницам должно применяться базово ЧПУ, вложенность и длина урла, внутренние ссылки и перелинковка, ну и конечно страница должна быть открыта для индексации. Это те вещи, которые стоит учитывать уже на этапе создания.

Расширение посадочных страниц согласно семантики.
В нашем случае мы имеем 100тни кластеров, и просто плодить разделы и подразделы — весьма глупая затея. По этому, на этом этапе подключаются такие такие методы как: размножение лендингов, тегирование и оптимизация страниц фильтрации.

Если у нас был бы сайт с 20 кластерами, можно было бы вообще толком не заморачивать — это стоит понимать. Достаточно будет организовать простую древовидную структуру сайта с адекватным меню.
Нажмите, чтобы раскрыть...

1. Размножение лендингов.

Этот сайт как и наш связан с услугами, и его услуги имеют огромный пул подуслуг. Каждая из этих подуслуг является самостоятельным кластером, и требует свою посадочную страницу - лендинг. Господа веб мастера данного сайта, не стали заморачиваться, а создали облако ссылок в конце страницы с перечнем всем подуслуг основной услуги. Такой подход обеспечивает адекватную вложенность и генерирует огромное кол-во внутренних ссылок.

222930012_.png.5f04242caabe9a9c20e072b373a89fd0.png



2. Оптимизация страниц фильтрации ( Google )

Работает это следующим образом, мы берем и садим кусок семантики на результат фильтрации в каталоге. Метод достаточно популярен в интернет магазинах и крупных каталогов.

1231457610_.png.e15842a621082453de2f1846339f6130.png



Дело в том, что мы бы не смогли красиво рассадить семантику в меню из-за большого количества дополнительных кластеров, по свойствам, по размерам, по цене и т.д. И тогда приходит на помощь оптимизация страниц фильтрации.

При работе с интернет магазинами, если только запуск проекта, советую закрывать все фильтры от индексации и в процессе работы открывать нужные фильтры.
Нажмите, чтобы раскрыть...

У данного способа есть недостаток, но он весьма просто решается. Недостаток следующий — страницам фильтрации не хватает количества внутренних ссылок, по этому на странице товаров, в характеристиках делают кликабельные ссылки на основные моменты характеризующий отдельный кластер. Выглядит это следующим образом:

1777973109_.png.7b08a7c67d880f9d3c6358810c20b343.png



Благодаря такому подходу, все кластеры будут иметь достаточный внутренний ссылочный вес.

3. Тегирование
Тегирование мы можем чаще всего встретить в яндексе. Почему? Потому что формат оптимизации страниц фильтрации под яндекс не подходит из-за того, что он плохо обрабатывает java script. Посмотрим пример тегирования

1600468386_.png.a3543206e054aa0bedafd86579bd88dc.png



Тегирование — набор быстрых ссылок над каталогом товаров. Они могут выглядеть как : Часто ищут: (тег, тег, тег), популярные товары (тег, тег, тег), может вас заинтересует (тег, тег, тег). Плюс тегирования заключается в том, что тегирование не требует доработки функционала фильтрации.

С теоретической часть разобрались
По итогу мы выписываем имеющиеся страницы под кластеры, и указываем те которые нужно создать. В нашем случае создать надо все
1539970034_.png.923b402bb0b82f612e9dd4b8dfa4348d.png



Создание структуры сайта согласно семантики

У нас есть раскластеризованная семантика и еще кусочек запросов которые не попали не под один кластер. Для начала давайте посчитаем аудиторию каждого кластера, а после будем строить древовидную структуру сайта исходя из кластеров, не далее 5го уровня сложности.

Для подсчета аудитории кластера мы будем использовать сервис гугла datastudio. Создаем отчет

168165878_.png.5230a9f3e77d84e9cae2f16ab850a4b8.png



Выбираем источник данных гугл таблицу

1831296015_.png.31a25ec4d677391868c494f893b41503.png



Выбираем наш документ

505170083_.png.54c12150d21ef96dfa64da3539f12bdf.png



Создаем таблицу

261977511_.png.2e44fbe9219fe0d7ac1de6148291ca5d.png



И выбираем нужные пункты которые хотим подгрузить в таблицу. Нас интересует: имя группы, частота в режиме суммы (возьмем яндекс) и посадочная страница + сортировка по частоте

1191308530_.png.b55bda059c3011a4ca2c25fe4fc71dc7.png



Итак, теперь мы видим список с перечнем самых популярных групп к менее популярным по уточненной частоте + страницы которые нужно создать или уже созданы. Качаем, базово обрабатываем и отправляем в гугл таблицы.



543858589_.png.8ed30928e56e8c97658f2ecc302c382b.png


Видим имена всех наших групп, теперь нам нужно рассадить кусок семантики который топвизор не смог рассадить автоматически, после проделываем все те-же шаги выше, чтобы посчитать аудиторию уже с дополнительными ключами в кластерах и начинаем рисовать структуру нашей мечты.

Выносим 15-20 групп и начинаем их раскидывать по структуре


1320263937_.png.4a480420f4b1a0f38fd8608294cbf7e6.png

Рассадить 600 кластеров, не сказать чтобы много, ведь некоторые можно будет объеденить, но время уйдет достаточно. Этот рутинный процесс оставлю за кадром.

Анализ контентный блоков конкурентов

Поисковые системы очень активно используют алгоритмы на основе поведенческих связей. Они видит какие страницы предпочитают пользователи. Собрав достаточное количество данных о положительных поведенческих, поисковая система начинает сравнивать страницы и выделяет общие контентные блоки. На основе этих наблюдений она начинает оценивать другие страницы с тем же интентом. И мы можем это использовать

Итак, мы создали структуру сайта. Мы знаем какие страницы нам необходимы, и с чего мы будем начинать. Начнем с главной страницы, и на основе кластера который мы запихали на главную, мы проведем анализ конкурентов. По такой аналогии потребуется проводить аналитику по каждому кластеру — это не трудно. Начнем.

Возьмем наш кластер: «smm агентство». Теперь берем кластер и идем в поисковую выдачу и открываем топ 5 компании и начинаем анализировать их контентные блоки, на выходе получим таблицу, такого формата

1277988259_.png.11d45d99e7e96da5a565fd35bf7db7f8.png

Где зеленые строки 100% очень важные блоки, желтые средней важности, и красные грубый почти мусор. SEO текст о котором пойдет речь далее, разбиваем по этим блокам, красиво верстая страницу. Проделываем все тоже самое под каждый кластер.
 
Контентная оптимизация

Текстовая релевантность

Итак, мы собрали семантическое ядро, определились с посадочными страницами, теперь нам нужно сделать эти посадочные — релевантными.
Существует два базовых подхода на основе которых поисковая система рассчитывает текстовую релевантность.

1.Подход TF-IDF

TF-IDF — TF(частота упоминания слов) TF = кол-во упоминаний/кол-во слов = 1/100= 0,01, если мы умножим частоту упоминания слова на 100 то мы получим плотность ключевого слово TF*100=1%

Плотность ключевого слова по сей день является серьезным сигналом для поисковой системы. TF никогда не работал сам по себе, TF всегда учитывается в контексте показателя IDF
Нажмите, чтобы раскрыть...

IDF — информационная ценность слова. Суть следующая, если слово встречается часто в языке — то, оно имеет низкую информационную ценность, в то время как редкие тематические слова — имеют высокую информационную ценность. По этому, именно тематические слова нас в основном и интересуют, так как они дадут больший прирост к релевантности.

На этом этапе нужно понять, что например слово «купить» может быть в тексте написано условно 100 раз, и это будет считаться поисковой системой в целом нормально, а вот если мы напишем монооксид углерода 10-15 раз — это уже будет подозрительно, и поисковая система решит, что мы злоупотребляем тематическим словом. У разных слов — разные веса(показатель информационной ценности)
Нажмите, чтобы раскрыть...

Когда поисковая система рассчитывает примитивный показатель текстовой релевантности — он считает не вхождение фразы, а вхождение суммы слов входящие в эту фразу. Следствие, важно не сколько раз мы упомянули ключевое слово целиком, а сколько раз мы упомянули его слова, слова формирующие фразу.

На практике лучше написать отдельные слова запроса в правильном количестве, чем написать цельный запрос n-количество раз.
Нажмите, чтобы раскрыть...

Следующий момент связанный с TF-IDF. Когда происходит расчет релевантности основанной на плотности слов, перед этим слова обрабатывает специальным методом — стемминг.

Стемминг —
это процесс нахождения корня слова для заданного исходного слова.

Простым языком, все слова упрощаются до элементарной формы. Выделяют два основных вида стемминга — это, сокращение слова до корня или возведения слова до самой популярной словоформы.

Для чего нам это понимать? Поисковые системы обрабатывают все слово формы, и если мы указали ключи в разных словоформах, падежах, то поисковая система все равно поймет что мы имели ввиду.

2. Подход LSA

LSA алгоритм — латентно семантический анализ. Идея этого алгоритма заключается в том, что многие тематические страницы можно описать словарями(матрицами) тематики. Подробнее о LSA алгоритме

Если мы берем страницу и раскладываем ее на слова, то мы видим какие именно слова задают эту тематику. Следствие, если мы пишем о рецепте торта наполеон — то в тексте будут такие слова как: мука, яйца, молоко и т.д. Если мы пишем о Наполеоне государственном деятели, будут такие слова как: Франция, Империя, Бонапарт и т.д. Соответственно поисковая система видит список слов на странице и на их основе делает вывод о принадлежности контента к той или иной теме.

Идем далее, идея LSA не останавливается на понятие тематичности текста и развивает мысль дальше. Алгоритм кроме тематики пытается понять интенты ( смысл ) и у интента тоже есть словарь.

Представим некий интент, и страницы которые нравятся пользователю по этому интенту содержат следующие слова: пушистый, усы, хвост, мурчит, мяукать, царапать. Кто это? Это скорей всего котик, даже если на странице не будет прямо указано — что это котик, поисковая система все равно поймет, что интент соответствует запросу о котике. Это стоит понимать.

Другая сторона, у нас есть текст — в нем есть слово «котик», но совсем отсутствуют слова интента. Поисковая система увидит, что есть слово «котик», но так как нет слов о «котике» — соответственно интент не раскрыт. И поисковая система посчитает страницу не релевантной.

Базовая текстовая оптимизация

Как сделать страницу текстово-релевантной? Чтобы она получила хотя бы 50 позицию.

Первое что нам нужно сделать — это обеспечить вхождение всех слов формирующих семантику. Для этого нам потребуется кластер семантики, возьмем кластер «заказать продвижение сайта» средний кластер, где-то в районе 50 ключей.

781177679_.png.cdbf1b8493fe1b39b080c30282c41079.png



берем все ключевые слова этого кластера и раскладываем на частотную таблицу

1138573483_.png.ade1c9b71993c3ff3ab76604b329f227.png



Нас интересует правый столбик, здесь мы можем увидеть все слова которые характеризуют наш кластер. Каждое слово из этого списка должно быть упомянуто в нашем тексте причем в разных словоформах. Копируем слова и отправляем в документ.

1342747002_.png.45d5f85b25b2961fc27d6c784710fd73.png



Теперь нас интересует объем текста и плотность ключевых словах. Как узнать эти показатели. Берем самый частотный запрос кластера и идем с ним в поисковую выдачу

814464622_.png.0fae09af0e9a5381da6da1f2d0bf600b.png



Открываем 3-5 конкурентов и копируем весь их текстовый контент который есть на страницах и отправляем объеденный текст в анализатор.

1629905735_.png.c3c159d3d2a8f9a41211f38eb3b44a8c.png



Для примера мы взяли 3 конкурентов, у нас есть 1899слов делим их на 3 получаем 633 слова — вот наш средний показатель объема

617319255_.png.423f19ef36b0a284820d37eaec10e895.png



таким же образом посчитаем объем символов

1326775312_.png.bf554878adb1fe959fd6ba126d8d5407.png



У нас символов без пробелов 17285 делим на 3 получаем 5761

1666904267_.png.4e24ba92308fc9d6de8f0d669be120d3.png



теперь считаем плотности, их уже посчитал симпл сео тулз. Ручками копируем и вставляем, если мы не встречаем плотность какого-то слова или 0, то просто указываем, что это слово должно быть в тексте хотя бы 1 раз.

592890383_.png.159583c6442a0d3596c29c70f2423814.png



От плотности мы можем откланяться более или менее, сейчас плотность не является ключевым факторам и работает только в совокупности. Так что ничего страшного если у нас плотность по слову «сайт» будет 4%, в то время как в таблице у нас 3.74 - округляем

Далее нам надо дополнить словарь тематики, вписываем все те слова, что встречаются у конкурентов, но не встречаются у нас. Например «Трафик», «контент», «результат» все нам подходим, забираем себе.

207704345_.png.572331ec0381c2e86229aaa7fb3b6536.png



Так же собрать тематические слова можно в пиксельтулзе, это куда проще

1164506976_.png.9a8e1ed9449f6a455b29b64fd4531fd3.png



Мы разобрали максимально примитивный способ текстовой релевантности для получения вообще каких-нибудь позиций, причем все делали в ручную для общего понимания как это работает. Далее мы будем развивать эту тему и уже автоматизировать эти процессы с помощью инструментов.

Контентные зоны страницы

Мы разобрались с базовым виденьем оптимизации текста на странице, теперь рассмотрим особые зоны страницы. Дело в том, что поисковая система учитывает релевантность страницы не одинаково на всей страницы, а выделяем контентные зоны. Некоторые контентные зоны для поисковой системы весьма важны, другие не особо. Итак, начнем

Поисковая система выделяет три основные зоны содержимого:

Основное содержимое (зеленая зона), второстепенное содержимое ( желтая зона ), реклама ( красная зона )

248077258_.png.fe55407fd71fcac9d85c16c56d5d39dc.png



Основное содержимое: основной контент страницы

Релевантность страницы рассчитывается именно с контента в основном содержимом
Нажмите, чтобы раскрыть...

Второстепенное содержимое: всевозможные боковые виджеты, элементы навигации, меню, в общем те блоки которые повторяются на каждой странице.
второстепенное содержимое по мнению поисковой системы должно быть полезным-удобным. Около-тематические страницы, например — фильтры, похожие товары, статьи дополняющие основной контент, навигация.

Реклама: тут просто, контентный блок с интегрированной рекламой.
Основным моментом, который мы должны учитывать. На коммерческих сайтов вообще не должно быть рекламы. На информационных сайтах реклама допускается, но она должны быть релевантна основному содержимому. Если у нас сайт связанный с юр.тематикой то и реклама должна непосредственно касаться этой темы — в идеале.

В зонах содержимого есть отдельные элементы которые особо интересуют поисковые системы — и самый первый это Title

Оптимизация Title

Title — парный html тег (название страницы) .

Title сильнейшим образом влияет на релевантность страницы. Это зона имеет наибольший коэффициент влияния на оценку.

Поглядеть тайтл можно в коде страницы

1141392002_.png.2604152a54c5c061ad144dba17d3756e.png



<title> Продвижение сайтов в поисковых системах </title>

Как правильно оформлять Title?
В тайтл важно вписать ключевые слова, причем с фокусом на особо важные ключи. Ко всему этому, тайтл должен быть написан в согласованных падежах, без лингвистических и орфографических ошибок. В написание тайтла есть требование по длине, в разных поисковых системах эти требования разные.

Title под Яндекс:
Длина тайтла в яндексе до 70символов. Яндекс любит короткие тайтлы
Нажмите, чтобы раскрыть...

Title под Google:
Длина тайтла в гугле до 12 слов
Нажмите, чтобы раскрыть...

P/s
Если пишем тайтлы длиннее заданных параметров, поисковые системы относятся к этому по разному. Гугл считает все слова последующие после 12го — вообще не важными и на этом в принципе все. Яндекс же считает, что если тайтл содержит более 70 символов — то данный сигнал является сигналом переоптимизации, о том, что это плохо уже говорить не будем. Для яндекса делаем тайтлы не более 70 символов.
Нажмите, чтобы раскрыть...

Если для нас важны позиции как в яндексе так и гугле, ориентируемся на показатель яндекса.

Для того чтобы хорошо написать Title нам надо определить такую штуку как: фокусное ключевое слово.

Фокусное ключевое слово —
это то слово которое мы считаем самым важным в рамках нашего кластера, а так же это то слово, по которому мы хотим максимально быстро получить позицию.

22635823_.png.89b0635e920f55ba065f3e2b56122dee.png



Допустим у нас есть кластер «заказать продвижение сайта», самый примитивный способ определение фокусного слова — это взять самый высокочастотный запрос кластера. Если идти этим путем, то в нашем случае фокусное слово будет «заказать продвижение сайта»
Фокусное слово вставляем в начало Title в исходном виде, если оно не нарушает правила языка. Если мы имеет ключ не в согласованном падеже, то склоняем его до нужного формата. «Заказать продвижение сайта в поисковых системах»

На практике иногда не имеет смысла брать фокусное слово в контексте самого высокочастотного запроса кластера. В кириллическом поиске зачастую всегда можно брать высокочастный запрос кластера, но если мы выходим в какие-либо высококонкурентные ниши, то есть смысл сместить фокусное слово на более низкочастотный запрос.

Как это работает?
Допустим мы решили сместить фокусное слово, тогда берем несколько запросов в рамках одного кластера и анализируем поисковую выдачу. Возьмем все тот же запрос «заказать продвижение сайта» и более низкий по частоте запрос «заказать раскрутку сайта» который с натяжкой можно назвать синонимом.

И тут мы видим, что многие конкуренты целятся именно в слово «продвижение».

725174133_.png.d6b9c82536dd126a029ac8b40fa1bd4e.png



Какая здесь логика? Вроде де бы интент один и тот же, но поисковая выдача отличается, мы должны понять, что — если мы напишем «продвижение» то будем чуть лучше отображаться в выдаче с этим фокусном словом, в то время как с фокусом на «раскрутка» менее лучше. Тоже самое работает в обратном направление.

Давайте посчитаем сколько конкурентов целятся в каждое из перечисленных выше фокусных слов.

На первой странице выдаче у нас 8 конкурентов которые целятся в «Продвижение» и 2 конкурента которые целятся в «раскрутка» и то в контексте вместе с «Продвижение»/ На второй странице выдачи 7 конкурентов целятся в «Продвижение» и 3 конкурента целятся в «раскрутка».

Эти два ключа я взял для примера на пальцах, если не брать в расчет здравый смысл, то этот случай подходит под идею смещения фокусного слова в сторону более низкочастотного ключа из за более меньшего числа конкурентов которые в него целятся.

Думаю с этим разобрались, и саму идею смещения фокусного слова на более низкочастотный запрос я донес. На примере нашего проекта, мы так делать не будем, почему? Потому что «раскрутку» ищут в основном не платежеспособные клиенты, но вполне есть мысль добавить «раскрутку» в контексте с «продвижение» для большего охвата.
Нажмите, чтобы раскрыть...

Данный пример анализа в некотором таком ручном режиме, мы же на этапе сбора семантики уточнили сложность продвижение каждого ключа. У нас есть и KEI и KD, на основе этих показатель мы можем выбрать тот ключ который нас более менее удовлетворить.

865839521_.png.31b853fa69f128c5e870fcd55bcfc8e7.png



Я уже знаю какие два ключа будут у меня в приоритете, с хорошей частотой но не забитыми конкурентами. По этому в наш Title закидываем в начало «наш ключ»

1458384419_.png.7d25ff96e3cb79f4ca84a545e6e92f9c.png



Такой подход позволит максимально быстро получить позицию, при этом мы не отказываемся от идеи самого высокочастотного запроса. Со временем рейтинг страницы будет расти, и в процессе мы будем подыматься в позициях в рамках единого кластера, на финише, в теории мы получил то самое заветное место в топ 10 по самому высокочастотному запросу, с учетом изменения вектора оптимизации фокусного слова и Title.

Итак, в начало тайтла мы засунули фокусное слово, оно содержит 30 символов, остаток еще 40. В эти 40 символов нужно добавить CTR приставку — нечто такое, что будет тригерить пользователей кликнуть по ссылке.

На самом деле CTR приставку мы можем добавить как и перед фокусным словом так и после, это должно быть нечто, которые не несет в себе большую информационную ценность. Чтобы было понятно, напишем например

1178231331_.png.4f1886de3a81bc665da28be5119625f1.png



Можно использовать дополнительные символы такие как скобки {топ 10} (топ 10) [топ 10]. Мне очень нравится скобки, часто использую, работает отлично.
CTR приставка ограничена только нашей фантазией, единственно, что хочу отметить, не стоит использовать рекламные слоганы, типо: лучший, хороший и т.д. Люди в это не верят, и не охотно заходят на эти страницы.

После того как мы написали CTR приставку у нас еще осталось где-то 30 символов, и сюда мы добавляем хвосты

Хвост Title состоит из самый популярных слов кластера, идем в симпл сео тулс, закидываем наш кластер и смотрим слова с большей частотой

1936585587_.png.ccf182c1c3641603712b8623f5d9c4c5.png



Два фаворита, продвижение и сайт, но они у нас уже есть в тайтле, идем дальше и находим такие слова как «поисковая» и «система». Отлично, то что нужно, закидываем эти два слова в хвост и получаем четкий Title размером в 58 символов. Идеально. Еще можно добавить в конец название сайта если есть место, будет только плюсом.

144195647_.png.70e02ab7cc693c0496cd67a3656f3510.png



Подытожим

При работе с тайтлами да и не только, нам потребуется документ карты релевантности для оценки проводим внедрений на странице, выглядит он следующим образом

43041770_.png.a5df57f8e8b5b08782afe9d54ebb353b.png



Собственно этот документ будет нас сопровождать почти на всех этапах оптимизации, сделайте себе такой же, в процессе мы будем разбираться по каждому столбику. Сейчас мы бы могли указать 5 пунктов, остальные пункты мы будем расписывать позже.

26062179_.png.823834962abf0bf5b5ba3d24be57c2fb.png



Теперь посмотрим как проверить наличие Title и связанные с ним ошибки уже на готовом сайте
432249976_.png.712e4aedb3ca5f3805f42c7ca945a780.png


В сканере заходим в «отчеты» далее «статистика SEO» и тут нас интересует «онпейдж» в этом отчете мы можем найти всю необходимую информацию для оптимизации Title.

Оптимизация заголовков (тегов) h1-h6 страницы
Если Title это название страницы, то заголовки отображают суть контента страницы. Как и title, заголовки являются важным сигналом для поисковых систем.

В Html разметки есть 6 уровней заголовков(тегов), используются они по принципу древовидной структуру.

610889653_.png.be7ef6aac4fe7da4164a921fe7a1a65c.png



h1 Основной заголовок страницы /h1
В h1 вписываем фокусное ключевое слово, или фрагмент ключевого слова. H1 значительно влияет на оценку релевантности страницы. H1 может быть только 1 на странице, стоит отметить, что есть исключения, но на более продвинутом уровне верстки страницы.

h2 Второй подуровень основного заголовка /h2
Если h1 у нас на странице может быть только один, то h2 уже может быть несколько. Подзаголовок h2 отображает подтипы контента относительно основной темы страницы

h3 Второй подуровень подзаголовка /h3
h3 является вторым уровнем подуровня основного контента, и более широко раскрывает h2

Таким образом выстраивается древовидная структура. Обычно дальше <h3> редко уходят, но остальные теги работают по такой же аналогии.

Заголовки — это семантические теги

Простым языком, заголовки это не только элементы оформления страницы, но они так же несут в себе смысл. Когда поисковая система приходит на страницу, она считывает Title и структуру заголовков, и на основе последних пытается понять о чем на странице написано. Таким образом поисковая система может определить фрагмент текста страницы релевантным запросу «Характеристики iphone XR» и т.д

Как правильно построить структуру заголовков?

Начнем с h1.В h1 указываем фокусное ключевое слово в согласованных падежах, без синтаксических и орфографических ошибок. Длина h1 вирируется от 5-7 слов, но это не есть правило, хороший h1 может содержать 1 и 2ва слова. Например для раздела ноутбуки отличным h1 будет просто «Ноутбуки».

Важно: в h1 не нужно писать коммерческие приставки, типо: купить, заказать, цена. Логика простая, наша статья не может называться «Купить ноутбук», в противном же случае, поисковая система воспримет это как спам. Сейчас остановимся более подробно на двух тактиках создания h1

1. Использовать то ключевое слово, которое мы использовали в качестве фокусного, для того, чтобы сделать больший акцент.

2. Использовать то ключевое слово, которое мы не использовали в качестве фокусного, но она так же содержится в рамках единого кластера.

Желательно не дублировать полностью начало Title в h1, достаточно будет его видоизменить, или добавить в начало h1 какое-либо дополнительное слово.
Нажмите, чтобы раскрыть...

402253047_.png.33beb32bf04457f3df7dca6eb3b0edb0.png



Теперь перейдем к подзаголовкам. Есть несколько способов, начнем с самого классического.

1. Можем засунуть по частотности всю семантику кластера. Берем те ключи которые у нас не вошли ни в Title, ни в h1, видоизменяем их — склоняя, и строим план нашей будущей статьи. Ключи с более высокой частотой отправляем вверх статьи, ключи с менее высокой частотой отправляем вниз статьи, с учетом понимания некоторых аспектов интернет маркетинга. Простейший пример, запрос со словом «стоимость» не может идти сразу после h1 хотя считается более чем «высокочастотным» в рамках кластера.

2. Изучаем подзаголовки конкурентов. На сегодня, его даже использую чаще чем первый. Идея в том, что мы вбиваем наш ключевой запрос в интересующую поисковую систему, и начинаем просматривать html код страниц конкурентов из топ 10. Ручной способ, давайте поглядим как это выглядит

Заходим на сайт, нажимаем ctrl+u, после ctrl+f и пробиваем подзаголовки h1,h2,h3

797972855_.png.59fb19952bbe5fb5166789a9b608aa3f.png



2.0

639459582_.png.bd71d81d997998aa8e2421789fb9e638.png



Конечно, это можно делать и не руками. Есть платные и бесплатные инструменты, из последних все в том же Simpe SEO Tools.
1485588442_.png.7f3cd5958cb2dcccdad6b3db62a328a0.png



Заходим, закидываем урлы и получаем табличку

421683065_.png.85bc92f4eab4fb522ec4ce30480a2aae.png



Тут же можем посмотреть и другие отчеты, которые весьма упрощаю жизнь чайнику

146613355_.png.98bd7ddf6677f544da3d3d26a5fcbb9f.png



Итак, собираем 3-5 конкурентов, и закидываем информацию в какой нибудь документ

1993902247_.png.5363ad5db5f3e7360e34773aa7860d9c.png



теперь с этим можно работать, и строить структуру нашей статьи на основе тегов конкурентов. Примерно как выглядит структура нашей статьи

423168564_.png.afdf775c6ca66b95ab368c8ee7c729ef.png



Конкретно я использую в основном второй вариант для коммерческих сайтов, так как конкуренты зачастую не дураки, и провели серьёзную работу. По этому забираем их семантику и упаковываем все в одну здоровую статьи с учетом анализа 3-5 страниц. Отличный подход, работает как часы.

Пользуемся одним из основных правил в SEO, берем из конкурентов самое лучше, оставляем самое худшее, всю нужную информацию проводим через призму своего профессионализма и выдаем супер здоровую страницу с максимально годным контентом.
Нажмите, чтобы раскрыть...

3. Построение подзаголовков по поисковым подсказкам. Где смотреть эти самые подсказки?
844710464_.png.903f140451e1f03d3d0c8c88788696fc.png



Так же работают подсказки и в гугле. Если второй вариант больше подходил для коммерческих сайтов, то этот вариант больше заходит под информационные.
В этом случае логика следующая, h1 оставляем те же, а всю структуру статьи берем из подсказок. Естественно это сами идеи, подсказки работают следующим образом — человек вбил запрос и не нашел, что искал, следующий его запрос будет возможно тем самым из рекомендаций. На основе этих рекомендация, создаем структуру — видоизменяя словоформы, выделяя только суть.

Еще к этому варианту можно добавить просмотр подсказок с поисковой строки

287303173_.png.b60fefe225819f2bf0537481ffb4466e.png



Почему мне нравится этот вариант?

Данный подход лучше всего соответствует текущему интенту запроса. Смысл в том, что когда мы делаем подзаголовки по семантики — кластеру, они не всегда соответствуют текущему интенту. Ранее например люди чаще искали отзывы, а сейчас больше ищут ценники. Все это очень динамично, давайте наглядно посмотрим, что я имею ввиду

Возьмем запрос «раскрутка сайта» когда мы вбиваем запрос, то мы думаем, что люди ищут какую-то услугу, но теперь посмотрим актуальную выдачу

804547930_.png.bbb2565d8f505f7f643d1b2edfefde99.png




И что мы тут видим? В топе куча статей о способах и методах раскрутки, таким образом мы можем сделать вывод, что со временем интент запроса изменился. Третий способ создание структуры страницы более всего соответствует актуальному интенту выдачи. Теперь вы в курсе, пользуйтесь .

Из последнего приходит в голову вопрос, если интент меняется как быть всегда актуальным?

Все что нам требуется, это обновлять контент страницы, и дописывать нужные подзаголовки с контентом. Смотреть мы знаем где, в подсказках, еще можно у конкурентов. В итоге у нас будут создаваться огромные лонгриды, что очень хорошо. Делать это можно 1 раз в 1-2 месяца, с таким подходом мы всегда будем актуальными и наши страницы не просядут в поиске.

Теперь нам всю эту информацию нужно объеденить и отправить копирайтеру.

Техническое задание для копирайтера
Приведу в пример, одно из своих ТЗ для копирайтера по теме «Композитная арматура»

Повторим, от куда, что берем:
1. Объем — мы взяли из анализа конкурентов ( здесь можно округлять даже в большую сторону )
2. Семантико-образующие слова и их плотность тоже берем из конкурентов
3. Сематический словарь собираем как нам удобно, можем использовать пиксельтулз
4. Фразы которые нужно вписать в текст
5. Структура построение статьи

1946587514_.png.c6826ceb630bf5beacc8cbde09ee7e61.png



Здесь нам не известка только колонка «Фразы которые нужно вписать в текст» в эти фразы входят самые сочные ключи, хватает 3-5 ключей, их нужно засунуть в текст. Но не просто засунуть

Специальная ремарка для копирайтера по этому столбику
Не пишем точные ключи, но стараемся вписать все слова запроса в рамках одного предложения, в разном порядке и падежах.
запросы вписываем в рамках предложения, на 10-12слов,меняем падежи

Нажмите, чтобы раскрыть...

Типичный пример: ключ « подбор ключевых слов в Google»
Для создания успешного сайта, который будет активно привлекать посетителей из Google или Yandex — крайне важно подобрать «фокусные» ключевые слова.
Нажмите, чтобы раскрыть...

Вхождение сочных фраз в тексте рекомендуется в районе первых 500 символов.

Почему не желательно использовать точные ключи при написание текста?
Ну во первых в поисковых системах есть алгоритмы которые не любят seo тексты, по этому нам надо оформить текст таким образом, чтобы затруднить работу алгоритму, в противном случае мы имеем возможность получить фильтр за переоптимизацию страницы. В яндексе подобный алгоритм реализован под названием «Баден-Баден» почитать о нем подробнее можно тут . В гугле на сегодня с этим делом попроще, и все же не стоит пренебрегать простыми правилами.

Ко всему прочему, требуется и другие ремарки особенно важно поле «Вхождение фраз», ведь чем лучше мы составим задание, тем проще нам после будет дорабатывать текст, что отправит копирайтер

678364588_.png.8a5ffa89619cdcc49148c055a26f474d.png



Советую внимательно прочитать каждую вкладку, чтобы иметь представление как все это работает.

Как размещать SEO текст?
Тут все просто, подключаем верстку страницы, и выносим отдельные части текстового контента, в отдельные красиво оформленные блоки. Разбавляем хорошо написанный SEO текст версткой и поисковая система схвавает его да еще и проглотит.

Как проверить текст копирайтера?
В любом случае в 80 процентов придет добивать текст с учетом работы копирайтера, в этом нам поможет miratext

Заходим на их сайт — выбираем «анализ текста» и тут уже дело техники.

Хочу отметить, что оптимизация текстового контента при грамотном подходе позволит получить позиции в топ 20 при конкурентном запросе, а если ключ оказался не особо конкурентов то и в 10ку страница может попасть. Самые серьезные сигналы, это объем текста, плотность семантико-образующих слов + тематический словарь. Дорабатывая остальные в совокупности, мы можем получить отличные позиции.
Нажмите, чтобы раскрыть...

Вечный вопрос — на кого переложить ответственность за текстовую оптимизацию?

Кто несет ответственность мы или копирайтеры?

На самом деле правда где-то посередине.
Все задачи с текстом связанны с понятием создания экспертного контента. Допустим у нас есть клиент, и он занимается производством изделий из полимеров на термопластавтоматах с помощью какой то серьезной технологией. Лучшим решением было бы попросить создать текст — инженера который занимается этим самым производством, ведь он эксперт.

Во первых, изначально он указал бы все слова тематики, и у него была бы правильная плотность все нужных слов, и текст сам по себе был бы уже экспертным изначально и этим все сказано. Но как правило у инженеров с РФ вообще нет времени на какой то там текст, в таком случае мы пишем ТЗ копирайтеру- принятый текст передаем эксперту для проверки, и он уже вносит поправки.

Итог у нас есть отличный текст, который писали не мы, и даже не проверяли, но его написать с учетом нашего ТЗ и последующий рерайт тоже проходил под нашим контролем.

Кроме текстового контента на странице, у нас есть и другие вида контента

Оптимизация изображений

Технические аспекты оптимизации изображений мы разобрали в главе «Технический аудит/Техническая оптимизация». Здесь же мы разберем как мы можем помочь оптимизации сайта в целом с помощью картинок.

Прежде всего стоит разделять две вещи, это — Картинка часть контента страница и картинка — это отдельный файл. Поисковая система часть сигнала извлекает для страницы, а другую часть сигнала извлекает для поиска по изображениям. Посмотрим пример запроса который хорошо отображается картинками, например: свадебные платья

467923536_.png.7f39bb78c6cbb8a5ce779e43257797e2.png



Видим два формата выдачи. Первая выдача у нас обычная, а вот вторая не совсем. Мы видим графический блог с изображениями.

Каким образом изображения попадают в графическую примись поисковой выдачи?

Базовая оптимизация изображения сводится к двум факторам

1. Название файла
2. Содержание атрибута Alt = «»
1095918339_.png.da783f0d4a78fdcfd4a2ec5ad026a0ff.png



Вообще атрибут Alt в основном используется в браузерах для слепых людей.
Если человек не видит картинку, ему зачитывается содержание изображения. Но, так же поисковая система учитывает Alt при расчёте релевантности картинки. К этому стоит добавить, что атрибут Alt является слабым текстовым вхождением, и все же воспринимается поисковой системой как ключевое слово написанное в тексте страницы. Что же с ним делать?

Атрибутом Alt описываем содержимое изображения, но при этом используем основное или важное ключевое слово. В целом, Alt это еще одно место, куда мы можем засунуть наш основной ключ, хотя толку от этого будет не много. Поэтому, первые 2-3 изображения в атрибут Alt закидываем ключи, в остальные изображения уже описываем как нам удобно, пытаясь раскрыть смысл изображения текстом.

Второй
атрибут у нас Title изображения — собственно это есть текст, который мы видим когда наводим на изображения. Атрибут Title изображения не является текстовым вхождением, и вообще почти не влияет на релевантность изображения.

Какие еще есть способы повлиять на релевантность изображения?

Хорошей идей будет использовать текст вокруг изображения.
Слова над картинкой, слова под картинкой. В CMS платформах реализована идея подписи изображения, где под каждой картинкой мы можем разместить текст, который непосредственно содержится в едином блоке с изображением, и очень хорошо влияет на релевантность последней. Так же хорошей идей будет размещать изображение под заголовком если оно непосредственно отражает суть текста страницы.

Все вещи описанные выше, непосредственно требуются если мы собрались целится в продвижение изображений, но это не все…
Нажмите, чтобы раскрыть...

Продвижение изображений важны в визуальных тематиках таких как : Мебель, одежда, декор, украшения и т.д. Это легко определить, если при поиске мы видим примесь блока изображений к общей выдачи запросов.

На одной релевантности изображений мы далеко не уедем, для попадания картинки в топ требуется — уникальность изображения.

+ смотрим на размер изображений уже тех что висят в топе, и на их основе делаем вывод о размере наших изображений.

Практики уникализации изображений которые работали 5 лет назад, уже давно не работают. Здесь нужно подходит с таким же вектором как и при оптимизации текста, картинки должны быть свои.

Когда мы оптимизируем изображения, хорошей идеей будет посмотреть кол-во изображений на странице конкурента из топ 5 с тем же интентом. И сделать примерно такое же количество.

На сегодня, уникальность изображений непосредственно влияет на качество страницы. Если мы используем фотки с стоков — то это плохо.
Нажмите, чтобы раскрыть...

Сейчас вы подумаете: «Однако критично» На самом деле, не все так печально. Если у вас немного не уникальных изображений, то особо ничего и не случится, но вот если у вас в каждой статье они присутствует — это серьезный сигнал поисковой системе задуматься о качестве вашего контента.

Есть лазейки, рассмотрим несколько.

1. Если нам прям очень хочется вставить в контентный проект не свои изображения, берем их с очень авторитетных ресурсов и указываем источник. Поисковая система нас только похвалит за такой подход.

2. Для яндекса картинки являются статическим сигналом, если они есть -хорошо, нет — плохо. По этому для поиска изображений используем зарубежные стоки, там есть не заезженные картинки которые в целом мы можем использовать.

Справедливости ради, скажу что оптимизацией изображений обычно занимаются поверхностно, если это конечно не тематика плотно связанная с графическим контентом. А так, в основном ограничиваются атрибутом
Нажмите, чтобы раскрыть...

Оптимизация контентных блоков
Наша страница, в основном не может состоять только из картинок и текста, если это конечно не статья в качестве исключения. И оптимизация сложно свёрстанных страниц действительно требует внимания.

Все наши страницы условно можно разделить на несколько типов:

1. Витрины
2. Списки-каталоги
3. Посадочные страницы с формами
4. Статьи
5. Товары

Разберем самый сложный тип, каталоги интернет магазинов.

1723644062_.png.d2ca71886959a8dd1e0124bb13b13f49.png



Дело в том, что каталог является самым сложным «на первый взгляд» типом страницы для текстовой оптимизации. Причина обусловлена типом верстки страниц. Давайте разбираться, как быть

Первое, что приходит в голову это вынести текстовый блок в конец каталога, и да, это действительно часто реализуют и подобный подход можно увидеть на многих сайтах. Реализован он следующим образом:

1045665475_.png.24a3ad23b661e84dda5632e54f531ee8.png



Идея кажется логичной, в целом мы сможем реализовать потенциал текстовой оптимизации посредством этого контентного блога. Но в топе, мы можем встретить сайты на которых отсутствует текстовый блок, так за счет чего они попали в этот самый топ?

Надо понимать, когда мы анализируем текстовое содержимое страницы сложно свёрстанной , содержимом является весь текст который находится в контентной области. Названия товаров, подписи, теги, слоганы, все это являются частью текстовой оптимизацией. Когда мы оптимизируем сложно сверстанную нам надо обращать внимание на все маленькие кусочки текста

1279551749_.png.3b0c004a4d0417cc29f60d00eededf9d.png



Отдельно весящие кусочки текста называются — пассажами

Пассаж — это набор слов с законченной мыслью, а так же название товара, название тега, и т.д. В сложно сверстанных страницах текстовый контент разбросан пассажами по всему контентному блоку.

Тут надо понимать, что поисковая система анализирует плотность ключевого слова в разных типах верстки — по разному. Так например: Таблицы и Списки

Чем интересны поисковой системе таблицы и списки?
В таблицах и списках обычно приведен перечень элементов, из этого вытекает следующее — что названия в списках и таблицах могут повторяться бессчётное количество раз.

В нашем случае списком или таблицей является каталог кроватей. Вообще идеальная структура товарного каталога должна быть сверстана именно этим подходом. Но даже если он сверстан блоками, в html разметки есть специальные теги которые характеризуют собой списки и таблицы.

Простым языком, если в странице сверстанной путем таблиц или списка мы употребим в каждом товаре слово кровать — это никак не ухудшит общую картинку, а вот если мы впишем через каждое 5 слово «кровать» в статье — это будет спам.
Нажмите, чтобы раскрыть...

Следующие момент, это слова задающие тематику ( LSA слова ). В таблицах и списках можно и нужно вписывать LSA слова в название элементов списка. В каждом название лучше всего отобразить хвосты семантики и LSA слова, типичный пример: кровать двухъярусная белая или кровать двуспальная 160 на 200.

Хорошей идей будет дополнить название кратким описанием — которое отображается сразу в перечне при наведении на товар. Это описание так же будет добавлять текстовый объем + расширять слова семантики и LSA слова.

В итоге с таких подходом у нас будет как минимум не меньше символов, чем на странице с текстовым блоком. Если занимаемся оптимизацией каталогов, не забываем про такую штуку как ALT изображений.

Стоит упомянуть момент связанный с страницами свёрстанными из нескольких контентных блоков. Тогда считаем плотности по каждому блоку и после проводим параллели со страницам конкурентов.

Смотрим, что они указали в название товаров, какое сделали описание и т.д. Вообще и здесь пользуемся золотым правилом, брать все лучшее из топ 10 и внедрять к себе на страницы.

Что касается остального

Мы уже проанализировали контентные блоки конкурентов по тем кластерам что нас заинтересовали в первую очередь. Теперь на основе этих данных мы пишем задание разработчику или же верстаем эти контентные блоки сами.

На выходе у нас будут сверстанные страницы, с кучей контентных блоков содержащих в себе SEO текст, картинки, таблицы, формы сбора заявок и т.д
 
Оптмизация коммерческих факторов

Перед тем как перейдем к оптимизации коммерческих факторов, вспомним о чем мы говорили в предыдущих главах.
Нажмите, чтобы раскрыть...

Мы уже узнали, что контент является основой белого продвижения сайтов, он должен быть уникальным, тематичным и раскрывать запрос пользователя.

Работа над контентом начинается с сбора семантического ядра — чистки ядра — кластеризации запросов — далее рассадки посадочных страниц по кластерам — создания текстового наполнения с правильной структурой и названием страниц + оптимизация контентных блоков. Реализовав все эти пункты мы зайдем в выдачу примерно на 25-30 место, в низко конкурентных запросов даже возможно попадем в то 10-20.

Но, что если сайт у нас молодой? Как далее и за счет чего мы должно провоцировать рост?

Представим что у нас есть отличный контент, мы получили свое почетное 25место по запросу в который целились. И здесь, следующим шагом будет донести поисковой системе, что за контентом стоит кто-то кому можно верить. Собственно доказательством авторитетности источники и занимаются коммерческие факторы.

Коммерческие факторы —
совокупность всей информации о компании, авторе, проекте. Поисковой системе необходимо знать кто несет юридическую ответственность за тот контент, который расположен на сайте.

Вообще идея коммерческих факторов пришла из Яндекса, но так или иначе, подобными идеями пользуются все поисковые системы. Им важно понимать степень доверия к ресурсу. Простым языком, если поисковая система доверяет сайту — то увеличивает позиции, если не доверяет — не увеличивает.

При этом, поисковые системы выделяют отдельно несколько тематик которые должны обладать высоким доверим, чтобы отображаться на хороших позициях в поисковой выдаче. К ним относятся сайты с темой: Your Money of Your Life.

Your Money of Your Life — сайты относящиеся к категории здоровья, жизни, денег, финансов. Финансовые советы, советы по воспитанию детей, психология. В общем все, что связанно с жизнью и деньгами попадает именно в эту группу. И здесь если наш сайты относится к Your Money of Your Life мы должны основательно подойти к оптимизации факторов E-A-T.
Стоит отметить, что в общем то факторы E-A-T в гугле это почти то же самое что и Коммерческие факторы в яндексе. И те и другие пытаются выяснить экспертность, авторитетность и достоверность.
Нажмите, чтобы раскрыть...

Поэтому, наша задача — это максимально подробно предоставить информацию «о нас» поисковой системе, которая ее интересует. Что входить в эту информацию?

Факторы ранжирования

1.Контактные данные


Поисковая система считает, что у любого сайта должны быть контактные данные и они должны быть полными.

Допустим наш сайт занимаемся коммерческой деятельностью, то на сайте должна быть следующая информация:

-Полный адрес офиса
-Несколько телефонов+(федеральный номер)
-Почтовый индекс
-Контакты разных отделов
-Карта проезда
-Email
-Форма обратной связи
-Документы подтверждающие деятельность компании ( обычно во вкладке «О компании» )

Это все может быть размещено как и на странице контакты, так и на странице о компании. В целом не важно как будет называться этот раздел, важно чтобы на нем были предоставлены те данные, что выше.

Оформив полноту контентных данных, мы должны сообщить поисковой системе, что текст размещенный на странице «Контакты» не просто текст. Для этого нам поможет специальная html разметка — структурированных данных.

Микродата — особая семантическая разметка
, реализованная для структурирования некоторых типов данных в контенте. Создана с целью упростить задачу ботам поисковых систем для определения особо важных частей контента.

Итак, все разметки можно посмотреть тут. Нас сейчас интересует разметка Organization

Рассмотрим на примерах. Вот у нас есть какой-то текст на веб-странице посвященный контактам организации.

1476913338_.png.995472299127f9e967b34fafc367b8ea.png



А вот наш тот же самый текст, оформленный с помощью микродаты

727011623_.png.dc6fe7e475bc4f6fa6e39df9060fdbba.png



Внедрении микродаты позволит сразу указать поисковой системе все те данные, которые ей собственно интересно. В целом она и сама может справится, алгоритмов распознавания контента в ее общем пуле предостаточно, но за то, что мы ей поможем сэкономить свои ресурсы — она поставит нам плюсик.

Есть второй вариант передачи структурированных данных — формат json
1196223919_.png.eccc715f9823d6c5f4345b57a33b48df.png


Разница в этих двух форматах обусловлена тем, что микродата визуализируется и соответственно ее можно увидеть. Json же просто вставляется в качестве дополнительно html кода в страницу и визуально вообще не отображается. Очень удобно. Конкретно я люблю Json за его существенную простоту эксплуатации.

К тому же, есть куча сервисов которые генерируют Json автоматически. И все, что нам остается делать — это выбрать тип разметки, указать необходимые данные и все. Сервис сам сгенерируют необходимый нам код.

960680564_.png.95db1cb7378a4b3030ed26b9470cecd1.png



После как сгенерировали разметку, размещаем ее на нужной нам страницы в коде html. Далее достаточно будет проверять эти разметки на валидность.
Массово проверить разметки можно в сервисе гугла : Проверка структурированных данных

1362446204_.png.bc07999c276bd4ef0c898a8bd4b846f4.png



В скором времени он конечно перестанет работать сам по себе, но войдет в пул другого инструмента : Проверки расширенных данных

2. Региональная привязка

Тут стоит отметить, существуют регионально зависимые запросы, а так же регионально не зависимые запрос

Допустим, если мы начнем искать рецепт борща — то не в зависимости от нашего местоположения, нам покажут те самые рецепты ограниченные лишь языковым барьером. Но если мы начнем искать «такси», то поисковая система покажет список компании предоставляющие услуги перевозки людей по нашему региону. Поисковик понимает, что мы ищем такси в своем городе, а не в чужом, и условно дополняет наш запрос топонимом.

Как понять степень региональной зависимости запроса?

Как в яндексе так и в гугле — это можно понять по 3 основным сигналам:

А. Наличие топонима на сайтах с поисковой выдачи( название города, страны )

Б. Наличие примеси карт
Чем выше карты, тем более регионально зависимый запрос

В. Подсветка жирным шрифтом топонима.

Этот сигнал мы абсолютно не увидим в гугле, но в яндексе эта штука работает отлично.

Иногда, результаты поиска могут быть построены на основе федеративного поиска ( объединения ) Федеративный поиск касается не только региональных выдач, он так же касается результатов поиска с разными интентами.

Давайте посмотрим как это работаем. Допустим нас интересует «Известняк»
Мы идем в поиск и начинаем искать нужную нам информацию. При выдаче запросов, поисковая система проводит два параллельных поиска, ведь она понимает, что возможно мы хотим узнать свойства, а возможно мы хотим его купить. На основе этого понимания, она строит выборку где 90% выдачи будут информационные запросы, а остаток в 10% коммерческие запросы.

Выдачи по запросу «Известняк»
1. С интентом коммерческого запроса ( находятся на второй странице )

30444916_.png.50f497cddf78235544e366d0fa0e4693.png



2. С интентом информационного запроса ( топ )

1040498706_.png.b3d98d30800eb4754c424f4d350c8e85.png



Для чего нам это нужно осознать?

Понимание объединению запросов по федеративному признаку очень важно. Если бы мы продавали известняк и продвигали бы конкретно этот ключ, то мы никогда бы не попали в топ 10 по причине того, что поисковая система считает 90% запросов связанных с известняком — информационными запросами.

К тому же информационные запросы будут ранжироваться без привязки к региону, а коммерческие с привязкой к региону. Вроде бы одна и та же выдача, но по сути — это абсолютно два разных поиска.

Так вот, если мы хотим отображаться в регионально зависимых поисковых запросах, мы должно получить региональную привязку.

И первый самый простой способ как прикрутить регион к сайту, есть наши контактные данные. Даже если мы не зарегистрированы в специальных сервисах для веб мастеров, поисковая система считает данные с контактов и привяжет сайт к региону.

Если же у нас не будет полных контактных данных, поисковая система не поймет, от куда вообще мы. И наш сайт потеряем возможность отображаться в региональной выдаче даже с релевантным контентом.

Как еще мы можем получить региональную привязку?

Можем использовать картографические сервисы гугла и яндекса
  • google my business
  • Яндекс справочник
Через эти сервисы у нас есть возможность добавить информацию о нашей компании в карты поисковых систем. Проходим регистрацию, и заполняем абсолютно все вкладки. Очень важно добавить компанию в правильную категорию. Категорий множество, сейчас поясню в чем нюансы.

Допустим поищем итальянские рестораны

1081128605_.png.6f681adf55236ee9c86af1142741a50f.png



И видим, что категория есть — итальянская кухня
А теперь посмотрим пиццерию

1264533899_.png.73aef64d1a688642dde4484ce99b86d1.png



И тут мы видим категорию — пиццерия.
Вроде бы это все итальянская кухня, но нет. И это стоит учитывать.
После категории, стоит обратить внимание на название карточки компании.

153952551_.png.103e9ab0780dea927fe588111c536180.png



Название очень сильно влияет на то, как мы будем отображаться в этом блоке поисковой системы. Если ключевое слово присутствует в названии компании, мы получаем большой бонус в отображении по картам. Но, по правилам гугла и яндекса, запрещено называть свои компании с ключевым словом. Раз запрещено, зачем тогда об этом говорить? Дело в том, что модератор не сразу придет и изменит наше название, к тому же никаких санкций за это почти нет, да и вообще мало наказуемая. Поэтому молодые компании, очень часто суют в название достаточное количество ключей, чтобы в первые недели работы обзавестись клиентами. На нашем скриншоте как раз тот самый пример, когда компанию выкатили прям сочные ключи в название карточки.

Один из способов пройти модерацию — это использовать кусочек ключевого слова, в таком случае вероятность пройти модерацию многократно увеличивается. Но как вы видите из примера выше, кто-то бьет в лоб и проходит модерацию.

Если мы хотим улучшить свои позиции на картах, основным фактором продвижения будут — отзывы о компании

Логика простая, поисковая система оценивает авторитет человека который оставил отзыв, и учитывает количество ключей в тексте. Очень все примитивно.

Остановимся подробней на авторитете источника отзыва. Во первых, лучший вариант — это настоящий отзыв. Человек с трастовым аккаунтом который пользуется сервисами гугла или яндекса постоянно и так же оставляет отзывы о других компаниях.

Крутить отзывы конечно можно. Вообще Сеошники любят крутить все, что крутится. Но я советую не использовать какие то максимально примитивные методы. Исходя из того, что я описал выше, вам потребуется пул знакомых которые имеют аккаунт в гугле или яндексе, передвигаются по городу, посещают какие то места и оставляют о них отзывы. Используйте их, в любом другом случае, накрутка фейками-ботами не принесет никакого толкового результата, и даже возможно спровоцирует поисковую систему наложить санкции.

Теперь о нюансах
Дело в том, что в яндексе зарегистрировать свою компанию очень просто. Достаточно подтвердить ее через телефон. В гугле же единственным способом подтвердить свою компанию — это получение бумажного заказного письма на юр.адрес компании. В письме содержится код который необходимо ввести в гугле. Загвоздка в том, что заказное письма с гугла будет идти около месяц, и на самом деле может даже не дойти. Могу сказать, что гугл отправить письма 100%, но вот, что касается доставки, тут действительно пропасть.

После того как мы привязали регион способами выше, мы должно привязать регион в сервисах для веб мастеров.
  • В гугле:
Заходим в google search console — прежние инструменты — таргетинг по странам

1743297808_.png.7c209610049cf2fca6054b8f883de28a.png



Если наш домен регионально зависим, то система автоматически присвоит регион. Если же у нас не регионально зависимый домен типо com, то мы можем указать регион в ручную.

  • В яндексе:
Заходим в Яндекс веб-веб мастер — информация о сайте — региональность. Указываем регион, страницу с кантатными данными ( желательно с микродатой )

1908992040_.png.3891a85d26f09c11159eb2bfc6a04ff0.png



Хорошо, мы разобрались с темой как привязать регион к сайту. Но что если наш бизнес распространяется на множество регионов?

Как прикрутить несколько регионов к сайту?

Тут есть разница между гуглом и яндексом. Гугл присваивает региональность на уровне страны, а яндекс присваивает регион на уровне города. Для яндекса, Москва и Санкт-Петербург принципиально разные регионы и выдача будет сильно отличаться, в то время как для гугла — это просто Россия, и выдача результатов поиска будет частично пересекаться.

Чем собственно обусловленная такая разница?

Изначально яндекс был создан под РФ, а в РФ огромное количество часовых поясов, из этого вытекает следующее — что результаты поиска не могут быть актуальны в Москве и Владивостоке из-за разных временных зон. У гугла же абсолютно другой подход, для региональной привязки требуется физический филиал для получения письма. Проще говоря, нужен офис в том городе, где вы хотите отображаться.
  • В гугле:

1. Несколько контактов на сайте + карточки компании на карте с филиалами по нужным городам.

А если у меня нет офисов в трех городах, то что делать?

Используем фиктивный офис, как его создать в этой книги описывать не буду. Цель следующая — получить на адрес письмо. В России это достаточно просто сделать.

2. Быть огромным сайтом, который заслуживает отображения в контексте все страны.

Настройка региональности в гугле на уровне другой страны
Если мы продвигаем сайт в гугле на несколько стран. То садим сайт на подпапки. Начнем с того, что наш сайт должен быть на регионально не зависимом домене: net, com, org. Далее внутри домена создается подпапка которая отражает язык интерфейса и регион. Отличный пример сайт Microsoft

1245121931_.png.c8f3c44ba69f099af9a026e527d02feb.png



Далее мы добавляем каждую подпапку в гугл веб мастер как отдельный сайт и привязываем каждую подпапку к нужной стране. Работаем все по той же самой аналогией, что описана выше. Так же гугл нам рекомендует использовать разметку hreflang. Читать о ней подробнее тут. Что отлично в этой разметки, что и яндекс хорошо ее воспринимает. Гугл не воспринимает сайты в подпапки как дубликаты.

  • В яндексе:
Яндекс вообще не любит присваивать одному домену несколько регионов.
Нажмите, чтобы раскрыть...

1. Подключение региональных витрин, региональных субдоментов.

454947002_.png.651c3f11b93d95c3946a7deead5c557b.png



Так как мы можем к одному домену присвоить только один регион, в сео работает принцип создание субдоменов под каждый отдельный город и после мы добавляем каждый из них в Яндекс веб мастер и присваиваем ему нужный регион.

Яндекс хорошо относится к региональным витринам, и такая витрина не будет считаться дубликатом, если предложение в данном регионе отличается от другого региона. Например : меняется цена, меняется наличие товара. Но яндекс никак не может проверить эти критерии и по этому все делают дубликаты, и таким образом формируют региональные витрины.

Важные вещи которые нужно помнить при генерации региональных витрин.

1. Добавить топоним во все важные элементы: Title,h1. Будет неплохо сделать текстовое вхождение в основной текст

2. Если есть региональный телефон, используем его по каждому региону разный, это даже будет хорошо. Если нет регионального телефона, используем федеральный.

Такая стратегия совсем не работает в гугле. И даже более, гугл воспринимает субдомены как откровенный мусор. В гугле нет понятия региональных витрин на уровне города. В гугле есть понятие региональной версии на уровне страны.
Нажмите, чтобы раскрыть...

По этому, региональные субдомены полностью или частично закрываются от индексации в гугле. Я обычно делают так, категории и главные страницы оставляю в индексе, а товары на региональных витринах клею канокалом к основному домену. Естественно это не полностью решает проблему, но значительно сокращает количество дубликатов.

Настройка региональности в яндексе на уровне другой страны
В яндексе разницы нет, будь то несколько стран или несколько городов. В яндексе всегда выгодно выбирать более точечный регион, чем широкий.
Кто-то подумает: «Вот сейчас выберу регион — Россия, и буду отлично отображаться по всей стране» Это так не работает. Самые сочные позиции получают сайты с точным регионом. В общем двигать сайт в яндексе на другие странны, особенно на те, где он не популярен — бредовая идея. Страны СНГ еще согласен — но и там работаем по логике точечной региональной привязки.

Еще одним вариантом попасть в региональную выдачу — есть оптимизация под топонимы
Тут вообще все просто, создаем страницу под тапоним. Например у нас есть электрик с г.Зеленограда, но этот город почти относится к Москве. Основной регион у нас Москва, но мы хотим получать клиентом с Зеленограда. Тогда мы создаем страницу под топоним — Зеленоград.

Указываем его Title
Вписываем топоним в заголовки
Делаем текстовую оптимизацию с вхождение названия в городе в тексте

Смысл смысл в том, что г.Зеленоград не забит конкурентами, и региональная выдача относительно свободна. В таком случае мы можем выйти в топ за счет текстовой оптимизации.

Стратегия работает как в гугле, так и в Яндексе.

Подобный подход совсем не работает в конкурентных региональных выдачах
Нажмите, чтобы раскрыть...

3. Авторство статей
Если у нас информационный ресурс, или же на сайте есть блог вне зависимости от тематики.
Нажмите, чтобы раскрыть...

Хорошей идеей, будет указывать имя автора, фотографию и небольшое привью— это А. Б — к имени будет отлично добавить ссылки на соц.сети. Поисковые системы стараются выделять авторство. В последнее время, наличие информации о авторе чрезвычайно положительно отражается на рейтинге статьи, и со временем эта идея будет только развиваться.

Если у нас автора нет, но очень хочется, а себя мы показывать не хотим. То создаем хорошего фейка, создаем видимость деятельности в соц.сетях и это работает. Обычно эта идея реализуется прям под какие-то прям сеошные проекты.

Чтобы не брать фотки настоящих людей, просто используем нейросети.
+ко всему этому можно создать резюме, а залить его на все региональные агрегаторы.

4. Страницы компании в социальных сетях
В реализации этого пункта, важно именно наличие соц.сетей. Конкретно должна быть ссылка с обоих источников друг на друга. Качество ведения этих самых соц.сетей уже на втором плане, но страницы в соц.сетях должны быть минимально наполнены контентом, примитивным дизайном и хотя бы небольшим количество подписчиков, все это достаточно просто сделать. Хотя, опять же, отличным бонусом будет омниканальность, а именно развитие сайта с помощью SEO + подключение SMM, что в свою очередь уже в сути своей подразумевает продвижения продукта с помощью социальных сетей + seo.

5. Отсутствие рекламы
На коммерческих сайтах как и в гугле так и яндексе не должно быть рекламы. Они считают, что если мы продаем рекламу, то значит мы плохо продаем свой товар или услуги. Избегаем рекламу на коммерческих сайтах.

Для информационных сайтах реклама допускается, но не должна занимать более 30% от основного контента. К тому же, в идеале, реклама должна быть релевантна к основному содержимому.

Советую внедрять рекламные блоки постепенно, все таки люди к навязчивой рекламе очень негативно относятся, и если это не учитывать, мы можем нахватать кучу отрицательных поведенческих сигналом и просесть в позициях.

6. Количество товаров — ассортимент

Очень важный фактор для поисковой системы.
Нажмите, чтобы раскрыть...

С количеством товаров все просто — чем больше, тем лучше. Стоит отметить, что товарами могут быть как и фильмы если мы онлайн-кинотеатр, и статьи- если мы какой то информационный ресурс, и книги — если мы библиотека. В общем, под товаром я подразумеваю — любой цифровой товар.

На ассортименте мы остановимся поподробнее. Ассортимент для поисковой системы отражается следующим образом, а именно: в разнообразии. Допустим пользователь ищет кроссовки, но поисковая система знает, что пользователь практически никогда не ищет одним запросом. В основном поиск происходит наборами запросов, называется это — поисковой сессией. То есть, человек набрав запрос кроссовки — посмотрит информацию, не найдет ее — и пойдет обратно в поисковую выдачу уточнять запрос, например «кроссовки адидас».
А вот если у нас большой ассортимент, мы вполне вероятно сможем закрыть потребность возвращаться в поисковую выдачу, просто указав все разнообразие товаров на сайте, другими словами мы охватываем всю семантику. Начиная от «беговых кроссовок» заканчивая «кроссовками недорого».

На основе этого, поисковая система будет стараться показать именно наш сайт.

Собственно широта ассортимента и количество товаров — есть основополагающие моменты в реализации этого фактора.

Как мы можем донести поисковой системе количество наших информационных элементов?

1. Вложенность

О вложенности мы уже говорили. Складываем однотипный контент в одну вложенность. Если у нас есть товары отправляем их в product/tovar1, если у нас допустим статьи — /blog/page1. Действуем по такой аналогии.

2. Внедрение разметок для разного контента.
Мы уже затронули разметки в этой главе. Разметок существует достаточное количество и они не ограничиваются форматом организации.

Самая популярная разметка как не странно «Product», очень активно используется в интернет магазинах и дает неимоверное количество мелких плюсов.

215251110_.png.1d65910b2407169c6cc11e94b3981afb.png



Работает все по той же аналогии как и разметка организации. Заполняем нужные поля, внедряем на страницу. Если проект крупный, используют скрипты, здесь потребуется разработчик. В современных CMS системах, частенько можно встретить уже готовые решения по этой разметки, но не во всех CMS это реализовано правильно, приходится проверять валидность. И если разметка не валидная, придется обращаться к разработчику.

При наличие продуктов на сайте, в гугле можно будет посмотреть отчеты в вкладке улучшения — продукты. Гугл предоставить всю необходимую информацию для изучения и анализа.

Вообще стараемся все полезные разметки размещать на страницах. Это будет отличный плюс при оптимизации.
Нажмите, чтобы раскрыть...

7. Оформление и наполнение карточек товаров.
Прямой коммерческий фактор, очень сильно перекликается с информации о разметки «продукт», но здесь важным составляющим является именно клиентский интерфейс, то что будут видеть люди. Сюда входит: название, изображения ( более одной фотографии), наличие, цена, валюта, информация о доставке, краткое описание, наличие описания, отзывов, рейтинга. Сопутствующие и похожие товары.

Все эти моменты являются основными и должны в обязательном порядке быть внедрены в карточку товара. К ним можно добавить еще такие элементы как: быстрый заказ, уведомление о наличии, сравнение цен и прочие… Тоже пойдет все в долгосрочный плюс и вполне вероятно, что с внедрением дополнительных блоков увеличатся продажи.

Посмотрите крупные компаний, например амазон. У них работают огромные подразделения маркетологов, и все, что у них внедрено основано на маркетинговых исследований кучи специалистов. Мы же можем использовать все это бесплатно благодаря простой аналитики их работы.

8. Страница доставки и оплаты
У нас обязательно должна быть такая страница если наш сайт коммерческий. Бывает, что таких страниц две, но в основном здесь не заморачиваются и указывают ее как страницу «Доставки и оплаты» Ключевым фактором здесь есть — внедрение следующих пунктов на страницу:

Варианты доставки
Наличие службы доставки
Сроки доставки
Детальная информация о доставке
Варианты оплаты
Описание решений конфликтных ситуаций (Возврат средств, замена товара и т.д)

Важным моментом этого фактора, является уникальность. Вообще все должно быть уникальным в идеале, и даже страница доставки. Не пренебрегаем проработкой таких простых страниц. Мы должна отражать суть нашего предложения, можем сослаться на партнеров которые осуществляют доставку, расписать подробные тарифы, сроки и т.д. Все это будет позитивно отражаться на позициях нашего сайта.

9. Наличие службы поддержки
Содержание заголовка непосредственно отражает суть этого фактора.
У нас должны быть дополнительные контактные данные службы поддержки, наличие страницы вопрос-ответ, хорошие формы обратной связи. Ну и на этом в принципе все, что касается этого фактора.

10. Онлайн консультант
Тут весьма короткое описание. Стоит отметить, что для гугла — наличие онлайн консультанта вообще никак не котируется, а вот яндекс выносит наличие онлайн консультанта в отдельный фактор.

Многие владельцы сайтов вообще не любят — онлайн консультантов. Смысл в том, чтобы этот консультант действительно был консультантом да еще и в онлайн. К сожалению, в наших реалиях это редко когда реализовано в полной мере. Есть решение настроить чат бота, обычно помогает если реализовано не кривыми руками.
Нажмите, чтобы раскрыть...

11. Скидки — Акции
Речь идет именно о разделе «скидки», акционный раздел. Все что нам нужно сделать, это создать такой раздел и регулярно закидывать туда аукционные товары. Поисковой системе достаточно увидеть Title с словом «скидки» или любым другим подобном словом, чтобы понять, что из себя представляет — этот раздел.

Более подробно о всех сигналах можно посмотреть в корреляционном анализе компании «Ашманов и партнеры» читать . Это просто статистика

Подытожим : коммерческие факторы очень важны при оптимизации коммерческих сайтов. Особенно интернет магазинов. Реализации всех этих пунктов зачастую является чуть ли не основным моментом для выхода в том интернет магазинов.
 
Оптимизация поведенческих факторов
На сегодня, ПФ один из ключевых факторов в продвижение сайта под органический поиск.
Нажмите, чтобы раскрыть...

Итак, мы провели серьезную работу. Результатом предыдущих действий будет то, что поисковая система нам даст первый небольшой трафик. Следующим сигналом который будет ее интересовать — это поведенческие. На основе сбора поведенческих, она далее примет решение — нравится ли сайт пользователям, и если да, то позицию пойдут вверх, причем достаточно динамично. Так же это работает в обратном направлении.

Как Гугл так и Яндекс собирают информацию о поведенческий, но принимают и относятся к этой информации по разному.

Основным фактором ранжирования в Яндексе сейчас есть — ПФ, инженеры яндекса сами в открытую об этом говорят. Гугл же заявляет, что учитывает ПФ как посредственный сигнал, но проведя простейшие исследования — можем сказать, что гугл лукавит. Хоть в гугле ПФ и не является основополагающим фактором ранжирования и все же он его учитывает

Поведенческие факторы есть — удовлетворенность пользователя.

Поисковая система оценивает удовлетворенность пользователей от результата поиска и переставляет веб-страницы таким образом, чтобы удовлетворенность постоянно росла.

Вообще поисковая система постоянно пытается оценить результаты свой выдачи благодаря поведениям пользователей. Очевидным для нее показателей являет — скорость нахождения нужной информации в поисковой выдаче.
Нажмите, чтобы раскрыть...

Какие источники данных используют поисковые системы для оценки поведения?

Есть два основных источника, но стоит понимать, что это далеко не все. Поисковик учитывает все сигналы которые может извлечь из поведения. Мы же остановимся на двух основных.

1. Поисковая выдача ( результаты поиска )
Любая поисковая система следит за своей выдачей, она наблюдает за тем, куда мы переходим, как долго задерживаемся на странице, как мы вводим мышкой и т.д всю эту информацию она собирает из результатов поиска.

2. Браузеры
Возьмем гугл. У гугла есть браузер хром, а еще у гугла есть платформа андроид, и уже давно не секрет, что гугл за нами следит. Вся информацию с таких платформ, уходить напрямую в дата центры. И кстати, мы сами на это согласились когда подписали лицензионное соглашение. Абсолютно так же работает и яндекс.

Какие сигналы учитывает поисковая система при оценки поведения пользователей?

CTR — показатель кликабельности

Анализировать CTR можно и нужно в инструментах веб мастеров. Если гугл ищем информацию в отчетах — эффективность, если яндекс то информацию смотрим в поисковых запросах — управления группами .

Показатель среднего CTR учитывается в контексте позиций, табличка с актуальной информации среднего CTR на 2020.

1941877401_.png.1d31e3a5e0c4b10dcff171d868da1d93.png



Проверяем CTR, допустим мы нашли несоответствие с учетом позиций в негативную сторону. И тут возникает вопрос, как влиять по показатель кликабельности?

Как увеличить CTR

1. Вообще в поисковый выдаче нас представляют 4 строчки. Эти 4 строчки называются — сниппетом.

Первая — адрес страницы, вторая — Title, третья и четвертая— description. Повлиять мы можем на последние два элемента. Про Title нам уже все известно, возможно стоит напомнить, что в тайтлы можно добавить CTR приставку. Далее идет наш description — краткое описание страницы.
23852448_.png.c3e7355100767ee971a68e1a79fe0cbe.png


По последним исследованиям доказано, что 60% кликов зависит непосредственно от того, что написано в description. В целом то — это очевидно, ведь description это исключительно маркетинговый триггер в SEO да и вообще в веб-разработке.

Почему исключительно маркетинговый триггер? Да потому, что description не влияет на текстовую релевантность от слова совсем, он непосредственно влияет на CTR.

description является тегом
meta name= «descriptione» content-= «краткое описание от 130 до 140 символов»

Теперь пройдемся по основным требование к краткому описанию.

А. У всех основных продвигаемых страниц должен быть прописан description

B. descriptione должен быть 130-140 символов, дабы он максимально использовал все
отведенное ему пространство в сниппете. Важно чтобы он полностью отображался, а не обрезался.

С. descriptione должен быть написан простым-понятным языком, посредством которого будет ясно, что находится на странице. Краткость — сестра таланта.

D. В начало descriptione лучше всего поставить фокусное ключевое слово. На то есть несколько причин. Первая заключает в том, что поисковая система подсвечивает ключи в поиске. Вторая, используя ключевое слово, мы избегаем возможности интерпретации собственного descriptione самой поисковой системой. Ко всему стоит добавить, что путем внедрения фокусного слова, мы создаем еще один акцент, но descriptione не должен повторять title

Хорошей идей будет добавлять в descriptione: Скобки, цифры, спец символы + эмодзи. Перед тем как вставлять спец.символ, стоит посмотреть как он отображается в поиске, бывает такое, что в каталоге выглядит отлично, а в поисковой выдаче весьма дерьмово. К тому же, некоторые спец.символы вообще не отображаются. Еще я упомянул смайлики, ну во первых они цветные, и да, действительно увеличивают CTR, но бывает, что их не пропускают поисковые системы. Главное правила при работе с эмодзи не спамить сниппет.

2. Генерация расширенного сниппета
Расширенный сниппет отличная штука, во первых он значительно увеличивает занимаемое место в поисковой выдаче. Давайте посмотрим пример:

821607079_.png.e5e9dafb6ee8eb4ccb62f71affb082e6.png



Один из форматов расширенного сниппета. Как вы думаете? Какова вероятность того, что на веб страницу с расширенным сниппетом кликнут?

Расширенный сниппет многократно увеличивает CTR, но получить его не так просто, поисковая система сама решает, показывать расширенный сниппет или нет. Расширенный сниппет мы можем получить как в гугле так и яндексе, и в целом принципы получения очень похожи, но есть и различия.

Начнем с гугла. У гугла есть отличная страница с перечнем всех расширенных сниппетов, называет она: google search gallery

727834364_.png.b59b2b3ececb7d5153b4007a64792247.png



Давайте разберемся, какие из сниппетов представляют для нас больший интерес.

Сниппет: EmployerAggregateRating ( рейтинг )

1426950671_.png.8fc1e593e04bda9b39238992bbdb3db8.png



Один из самый популярных сниппетов в seo сообществе. Чаще всего используют в купе с разметкой продукт.
Нажмите, чтобы раскрыть...

На основе чего строится расширенный сниппет рейтинга?

На нашей странице должен быть объект, за который есть возможность голосовать, возможность добавление отзывов — выставления оценки. На основе этого блока должен выстраиваться средний рейтинг. Этим объектом может быть: Товар, компания, книга, фильм, статья и т.д. Информация о рейтинге передается посредством структурированных данных, о них мы говорили ранее.

335037128_.png.a71b1657c99b29e3aad239dd6dd14114.png



На той же самой странице, есть инструкция как добавлять те самые данные

387885501_.png.a9c7e396566568bb85b965dd3cbf52c8.png



Важным моментом, чтобы на странице с рейтингом были отзывы, и желательно размечать отзывы тоже посредством структурированных данных.

Сниппет: часто задаваемые вопросы

752715248_.png.4e8ac2f52861dcbb1e6faddde5b6d1e9.png



Следующим по популярности расширенным сниппет. Мой любимый сниппет, тот самый пример, с чего мы начали знакомство с расширенным сниппетом.

1565584911_.png.54670820f515a14f72d104c0e232a2c9.png


Смысл в том, что данный сниппет занимает огромное количество места, просто невероятное. + можно попытаться прикрутить к вопросам еще и эмодзи, и тем самым еще увеличить CTR. Важным моментом является то, что вопросы должны быть релевантные поисковой выдаче.

Генерируется этот сниппет как и все с помощью разметки структурированных данных, более мы к этому моменту возвращаться не будем. Единственное, что хочу добавить, наличие разметки — не гарантирует появления сниппета, но располагает к его появлению.

Сниппет: Article

1513472263_.png.a2dca7bac04315e7d094609538535fbe.png



Еще один интересный сниппет, особенно для новостных ресурсов. Позволяет попасть в примесь информационный статей на главной странице результатов выдачи. По статистике люди проходит именно в этот блок важных новостей, а не идут искать их в поиск.

Сейчас мы смотрели форматы гугла, посмотрим и форматы яндекса — ссылка на страницу о информации сниппетов в яндексе.

Пройдемся поверхностно, т.к в целом одно и тоже. Но как и всегда, есть некоторые различия. Яндекс вообще любит свои внутренние сервисы, и по его мнению для получения расширенного сниппета одной разметки специальных данных абсолютно не достаточно. Структурированные данные в яндексе называются — специальными данными.

Для формирования сниппета яндекс берет данные из своих сервисов, один из самых популярных сниппетов в яндекс — это сниппет яндекс справочнка.
2091584376_.png.e35b669f90ce5236d28267204e4dd96b.png


Еще стоит выделить подключение турбо страниц, в таком случае мы получим другой вид товаров на мобильной версии. Более каких то весомых различий в подходе касательно расширенного сниппета, между яндексом и гуглом нет.

3. Генерация favicon
Favicon —
иконка сайта.

Один из ненавязчивых элементов сниппета. Favicon не слишком сильно влияет на CTR, но не упомянуть его было бы не очень этично.
Нажмите, чтобы раскрыть...

Итак, где мы его можем увидеть?
В яндексе он отображается как и на десктопах так и в мобильных версиях. Гугл же отображает фавикон только на мобильных версиях. Картинка слева от title и есть favicon

403329502_.png.0f8212b8367fa6d46cf9ba5efe38e262.png



Если мы не какая то брендированная компания, толку от фавикона будет не много. В таком ключе, он будет восприниматься как обычный медиа элемент. Но есть ниши, где можно сыграть на бренде другой компаний. Например: ремонт iphone

1780999812_.png.1dc0d3311a3b1e6916ec15ae9d9ada94.png



Тут видим, что господа веб мастера в свой фавикон засунули логотип Apple. Засунули они его не просто так, и здесь — да, он действительно как то может повлиять на CTR. В других случаях, почти бесполезная штуковина.

Следующие факторы которое влияют на поведенческие — это такие понятия как:

1. Длина клика
2. Последний клик


Пойдем по порядку. Что же такое длина клика и последний клик?

Итак, мы выяснили, что сначала поисковая система обращает внимание на то, куда пользователь вообще кликает, какие страницы выбирает из выдачи. И как мы уже поняли, за кликабельность отвечает CTR. Но так же поисковая система смотрит на то, как долго пользователь не возвращался в поиск — это и есть длина клика.

Длина клика — показатель оценивающий время между переходом на страницу и возвращением в поисковую выдачу.
Нажмите, чтобы раскрыть...

Допустим мы решили сварить борщ, но мы его никогда не варили собственно. Поэтому идем в поисковую систему и находим нужную нам информацию, после мы ее изучаем какое-то время и закрываем. Далее мы не возвращаемся в поиск в течении 10 минут так как заняты борщом. И тут незадача, мы что-то забыли из рецепта и идем снова в поиск. Вот это время между первым и вторым поиском — есть длина клика.

Извиняюсь за столь большие пояснения. Дело в том, что без понимания как это работает, мы не сможем эксплуатировать идеи связанные с ПФ. Очень важные вещи
Нажмите, чтобы раскрыть...

Более простой пример. Мы ищем информацию о Княжестве Монако, гуглим — и попадаем на страницу википедии, пролистываем ее и находим какую-то интересную ссылку — кликаем и переходим на другой сайт с более подробной информацией. Мы покинули страницу википедии, но мы не вернулись в поиск. Ссылка с википедии увлекла нас на другой сайт, и длина клика засчиталась странице с википедии.

С этим надеюсь разобрались. Рассмотрим следующее понятие

Последний клик — показатель завершенности поисковой сессии.

На примитивной уровне, последний клик — это когда пользователь в рамках одной поисковой сессии вообще завершил поиск, так как нашел необходимую информацию, или произвел перефразирование запроса и начал новую поисковую сессию.

Допустим мы искали кроссовки в рамках трех поисковых сессий: Купить кроссовки — купить беговые кроссовки — купить беговые кроссовки адидас. На последний поисковой выдаче мы нашли тот сайт который дал нам всю необходимую информацию. И далее мы пошли искать какой-нибудь сериал.
Последнему сайту на котором мы нашли нужную информацию о кроссовках— засчитают последний клик. Так как после, поисковая сессия изменилась совсем на диаметрально другой интент запроса.

Теперь мы знаем, что поисковая система учитывает поведенческие факторы в совокупности 3 сигналов: CTR, Длина клика, Последний клик.

Из информации выше, мы теперь понимаем, что для улучшения поведенческих нам надо как-то увеличить длину клика к тому же сделать его еще последним.

Как оптимизировать Длину клика и Последний клик?
Начнем с самых примитивных способах

1.Создание больших страниц.
Идея следующая. Страница не будет вмещаться в один экран. При реализации этой идеи, страница будет занимать более 5-6 экранов — это касается как и информационных страниц так и коммерческих. Пользователю как минимум придется все это пролистать, а это время, и вполне вероятно он найдет нужную для него информацию. Таким образом мы можем увеличить и длину клика и реализовать последний клик.

Ко всему этому, на больших страницах имеется очень много средств для реализации увеличения ссылочной массы, как внешних так и внутренних ссылок. Внутри текста мы можем ссылаться на другие источники, тем самым ограждать пользователя возвращаться в поисковую выдачу.

К тому же любая ваша статья начнется с содержания подзаголовков, для удобства использования и это самым минимум. К выше сказанному можно еще прибавить тот факт, что такой подход позволяет сжирать всю семантику кластера и быть всегда актуальным изменяющемуся интенту.

Подобную идею реализуют серьезные гиганты типо Amazon, Apple и если поискать можно найти еще с десяток крупных компаний который не брезгуют подобным подходом.

2. Внедрение в начинку текста ссылок дополняющих идею контента.
Выше я уже упомянул идею о ссылках. Вообще по законам seo ссылаться на чужие сайты — это плохо, ведь мы отдаем частичку своего рейтинга. Да, в этом есть толика правда, но могу сказать, что не во всех тематиках это обретает такую категоричную форму, даже наоборот — улучшает поведенческие.

Дело в том, что если мы будет указывать дополнительные источники, пользователю не придется копировать ссылку и идти догугливать свой запрос. Он сможем перейти напрямую с нашего сайта, и длину клика засчитают нам.

3. Внедрение мультимедийных элементов
В этом пункте тоже все просто. Мы уже проводили анализ блоков конкурентов, на основе этой статистике мы принимали решение о внедрение каких либо контентных блоков на свою страницу. Простым языком, если у конкурента 5 фотографий на странице, то на нашей странице должно быть как минимум 5 картинок. Тоже самого касается всего остального. К тому же, дополнительные медийные элементы увеличивают вовлеченность пользователей, и визуально делают страницу больше.


Продвинутые стратегии оптимизации поведенческий факторов.
Остановлюсь на двух основных способах, для коммерческих сайтов и информационных.

1.Реально закрывает интент пользователя ( ком.сайты)
Если мы продает товары — то пользователь при попадании на сайт должен купить этот товар. Если мы продаем услуги — то пользователь должен заказать у нас. Это и будет последний клик.
Нажмите, чтобы раскрыть...

Тут уже одним seo не обойтись, это действительно уже интернет маркетинг с веб аналитикой + навыки интернет продаж, понимание потребностей-болей потенциальной целевой аудитории, разработка увлекающих офферов и повышение юзабилити сайта и то я думаю не все вложил в этот абзац. Смысл в том, что это комплексный подход. Пример из жизни:

Есть клиент, у него так себе товар и весьма странное ценообразование. На фоне конкурентов он просто ребенок. Как его двигать? Да никак, если мы ценим свое время и нервы. Ведь у конкурентов уже проработан сервис, есть огромный и качественный ассортимент, разработаны уникальные торговые предложения, внедрены программы лояльности. У них просто лучше поведенческие факторы, и конкурировать с ними белыми методами продвижения мы просто не способны.

Другое дело если клиент развивает свой бизнес, и знает чего он хочет и по этому пользуется услугами seo оптимизации. В таком случае можно работать.

Раcсмотрим как это реализуется:
Работа начинается с выяснения вовлеченности пользователей на страницах. Для этого нам потребуется один из сервисов веб-аналитики на свой выбор.
Нас интересуют страницы входа и показатели вовлеченности, с первым думаю все понятно — собственно пул топ страниц с которых идет трафик на сайт, показатели вовлеченности объединяют в себе

Показатель отказов — есть количество пользователей просмотревших одну страницу.

Чем меньше страниц просмотрел пользователей, тем меньше вероятность длинного клика. Показатель отказов нужно анализировать в контексте времени проведенного на сайте, если пользователь отказался от странице но провел на ней достаточное количество времени — это можно назвать даже не плохо. Вообще показатель отказа относительная штука, и нет понятия плохой или хороший показатель отказа. Скорее — это симптом, повод задуматься и проанализировать страницы на предмет плохой удовлетворенности ими пользователями.

Показатель страниц открытых в одном сеансе — количество открытых страниц в одном сеансе.

Длительность сеанса — время проведенное на сайте

Эти показателя мы должны анализировать в контенте страниц лидеров и аутсайдеров. Анализируем страницы лидеры и выделяем элементы которые нравятся пользователям, далее сравниваем страницы аутсайдеры и выясняем причину плохой вовлеченности, после строим гипотезы по улучшению вовлеченности.

Простым языком мы должны сравнить свой лучший контент и худший, и сделать на основе этого выводы.

Как только построили гипотезы — тестируем их. Сами гипотезы ограничены лишь нашим воображение, пример хорошей гипотезы: увеличить контент, внедрить внешние ссылки, добавить некоторые дополнительные контентные блоки. Вообще гипотезы должны звучат максимально примитивно, гипотезы из разряда: сделать современный дизайн — признак дилетанта.

Посредством чего еще строить гипотезы?

Про показатели увлеченности мы узнали, но это далеко не все, и я далеко не все опишу в этой книги, ведь это уже подраздел серьезной веб аналитики — и ей редко основательно занимаются сеошники. Пройдемся еще по нескольким пунктам.

В яндексе метрике есть уникальные отчеты в отличие от гугла. Яндекс метрика пишет экран сессии и мы можем посмотреть за движением мыши пользователя, за скролом, а так же можем увидеть фиксированные блоки где пользователь остановил свой фокус при изучения контента. Отчеты тепловых карт называются : Карты и вебвизор.

Как тестировать гипотезы?


Пользуемся A/B тестированием — создаем две версии страницы, и делим на них равно пропорциональный трафик, спустя примерно недели-две на основе отчетов делаем выводы и принимаем решение о успехе тестирования. Для подсчёта достоверности теста использует A/B калькуляторы. Если динамика есть и положительная — внедряем страницу с лучшими показателями. Зачастую тестирование многих гипотез не даст ощутимого результата, в основном стреляют процентов 30. Но эти не повод не проводить тесты.

2. Утомляем пользователя ( инф.сайты )
По сути это продолжение идеи больших страниц, только на максималках. Нашей задачей будет создание бесконечного лонгрида. Должно быть столько контента, чтобы человек даже не подумал уйти, мы его просто утомим. Естественно за раз он не прочитает весь контент, но будет осознавать, что здесь он найдет точно то, что ему нужно. Конечно это все должно быть подано под пикантным соусом в виде хорошего дизайна и удобной навигации. Эта идея реализована в блоге одного из крутейшего SEO оптимизатора с англоязычного рынка : BACKLINKO. Пример такого бесконечного лонгрида Здесь. Ко всему прочему, он к информационному контенту он добавляет отзывы — что еще больше увеличивает страницу.

3. Тестирование юзабилити сайта
советую начать с книги Стива круга — не заставляй меня думать.

Самое важное правила при оценки юзабилити — тестирование должны проводить на тестовом пользователи. Смысл в том, что объективно оценить юзабилити самолично мы не сможем, так как у нас уже есть пользовательский опыт, а вот человек который не знаком с продуктом, справится с этой задачей на 100%

Берем человека без пользовательского опыта, просим его провзаимодействовать с сайтом при это описав какую либо заду, далее следим за его действием и делаем заметки. Ко всему этому, можно попросить его делать комментарий и замечания о том, что нравится, что не нравится. Тоже весьма полезная информация.

Подход работает как часы, на моей практике именно благодаря такому тестированию находилось огромное количество элементов нуждающихся для доработки.
 
Шикарная статья!)
Пришлось 3 раза перечитать, что бы хоть как то впитать) Очень информативно LIke за ваши труды!)
 
Lucius_Bot сказал(а):
Шикарная статья!)
Пришлось 3 раза перечитать, что бы хоть как то впитать) Очень информативно LIke за ваши труды!)
Нажмите, чтобы раскрыть...
В сентябре начну вести блог, надеюсь... Будет уже практическая часть, ждем как я себя в кучу соберу после лета)
 
Лохотронщик сказал(а):
Ну как там проект?
Нажмите, чтобы раскрыть...
coolhacker777 сказал(а):
Ждёмс)
Нажмите, чтобы раскрыть...
sasha-meteor сказал(а):
Как там блог?
Нажмите, чтобы раскрыть...
Тестово запустили - https://t.me/rednteam
 
Top