sonyps4.ru

Внутренняя оптимизация что. Внутренняя SEO оптимизация страницы

Внутренняя оптимизация сайта – это один из важнейших этапов в раскрутке любого интернет-ресурса. Данный этап подразумевает работы, которые ведутся непосредственно на площадке и не затрагивают внешние факторы. Правки вносятся в код или записываются в базу данных через админку.

Внутренняя оптимизация страниц сайта включает в себя следующие работы:

  • Составление семантического ядра, кастомизация запросов, распределение их по группам и конкретным страницам;
  • Прописывание мета-тегов (title, description, keywords), формирование их с помощью шаблонов и индивидуально;
  • Написание уникальных текстов под подготовленные запросы;
  • Аудит сайта с последующим исправлением ошибок;
  • Адаптация url под требования поисковых систем, формирование ЧПУ (человеко-понятных url);
  • Работа с заголовками H1-H3, добавление на каждую страницу одного H1, устранение повторений в заголовках второго и третьего уровня (они не должны дублировать друг друга и title);
  • Перелинковка (расстановка ссылок внутри сайта).

Однако это не конечный список того, из чего может состоять внутренняя сео-оптимизация сайта. Есть и другие работы, которые касаются увеличения скорости загрузки страниц, улучшения качества контента, получения социальных сигналов (расставление кнопок соцсетей), поощрения комментаторов, анализа и исправление навигации и вложенности страниц. Всё это оказывает влияние на раскрутку веб-ресурса и его позиции в поисковых системах.

Почему так важна правильная внутренняя оптимизация сайта?

Какой сайт лучше будет ранжироваться в поисковых системах, понять несложно: Яндекс и Google в своих руководствах для вебмастеров довольно четко описывают площадки, которые будут иметь преимущество перед остальными. В общих чертах идеальную страницу сайта можно представить так: она отвечает на запрос пользователя, по ней удобно передвигаться и легко найти корректную информацию, а также человеку (и роботу!) будет легко до нее добраться. Тяжелые сайты с большой вложенностью и медленной загрузкой страниц будут уступать место легким и быстрым. Для поисковика важно всё.

Сегодня на продвижение сайта внутренняя оптимизация оказывает большое влияние. Она имеет гораздо большее значение, чем внешние факторы (ссылки, отзывы на других площадках, работа с конкурентами). Правильная с точки зрения поисковика оптимизация самого ресурса позволит выйти в топ.

Что включает внутренняя оптимизация сайта?

Все, что связано с контентом, структурой, вложенностью, скоростью загрузки, правилами для индексации, кодом ресурса, относится к внутренней оптимизации. Все эти меры увеличивают скорость индексации и позволяют правильно определить содержимое страницы.

Работа с запросами, контентом и заголовками

Работа с семантическим ядром подразумевает:

  • Сбор запросов, под которые будут «затачиваться» страницы сайта;
  • Чистка списка запросов от позиций, которые ничего не дадут и по ним не получится продвинуть сайт;
  • Кастомизация запросов и распределение по посадочным страницам;
  • Снятие текущих позиций сайта по собранным запросам (можно использовать сервисы, например, allpositions.ru).

Как только список запросов готов, необходимо определить страницы, с которыми будет в первую очередь произведена работа. Для расстановки приоритетов нужно принять во внимание частотность ключевых слов, а также информацию, что больше интересно с точки зрения бизнеса. Если это интернет-магазин, то что принесет больше прибыли и является ходовым товаром, – на то и следует направить все усилия.

Как только список страниц определен в порядке приоритетности, можно начинать с ним работать. Если есть инструменты, позволяющие шаблонно оптимизировать сайт, тогда нужно их настроить в обязательном порядке, это позволит разово создать корректные title, description, краткие и полные описания для категорий, товаров, услуг, информационных страниц. А дальше начинать прорабатывать самые важные страницы по порядку: прописывать мета-теги, готовить контент в соответствии с поисковыми запросами, выкладывать его.

Внутренняя оптимизация страниц сайта контентом: основные правила

  • С ключевыми словами важно не переборщить. В тексте каждое слово должно встречаться не больше 2%.
  • Начинать title лучше с главного запроса, имеющего наибольшую частотность.
  • Description должно быть описанием, а не простым перечислением ключевых слов. При этом в нем должен присутствовать запрос.
  • На каждой станице должен быть только один H1, понятный для робота.
  • Необходимо правильно форматировать текст. Подзаголовки выделяйте тегами H2-H3, не повторяйте их с другими заголовками. Код должен быть чистым, не содержать «мусора». Желательно присутствие списков и таблиц.
  • Стоит на каждую страницу добавлять иллюстрации.
  • Дубли крайне нежелательны. Нужно выискивать и устранять дублирующиеся title, description, описания. В этом может помочь программа ComparseR.

Также должны соблюдаться следующие прописные истины: контент нужно выкладывать уникальный, грамотный, интересный, отвечающий на запросы. Затачивать страницу, на которой продается «волшебная» таблетка, которая спасет от аэрофобии, по запросу «билеты на поезд» не очень хороший вариант, т.к. содержимому он явно не будет соответствовать.

Robots.txt и sitemap.xml

Внутренняя seo-оптимизация сайта включает в себя работу с такими файлами как robots.txt и sitemap.xml. В robots.txt формируются правила для индексации ресурса поисковиками. Необходимо закрыть от индексации ненужные страницы, запретить роботу сканировать определенные url, обходить параметры в адресах. В файле также прописывается интервал, через который поисковики могут посылать свои запросы.

Sitemap.xml – список всех url. В нем могут быть ссылки на вложенные файлы карты сайта. Если в файле указывается дата последнего изменения, то это улучшит индексацию.

Http-заголовки

Http-заголовки – это заголовки страниц, которые отдает сервер сайта. Все существующие страницы должны идти с кодом 200, перемещенные навсегда – с кодом 301, несуществующие – с кодом 404. Проверить корректное отображение заголовков поможет любой онлайн-сервис, у которого есть эта функция. Пакетно просканировать все страницы и узнать код ответа каждой из них можно с помощью программы ComparseR.

Возможна ли внутренняя оптимизация сайта самостоятельно?

Если есть начальные знания по части верстки и SEO, то можно попробовать оптимизировать сайт самостоятельно. Для эффективной работы потребуется приобрести лицензии на ПО (использование программ поможет безошибочно провести аудит и собрать все ключевые слова, особенно если объем сайта большой). Но следует быть готовым к тому, что результатов придется ждать долго: только практика позволит ускорить процесс.

Цены на внутреннюю оптимизацию сайта

Стоимость внутренней оптимизации сайта зависит от:

  • Объема сайта;
  • Регионов, к которым сайт привязан;
  • Тематики (есть конкурентные, которые требуют больше внимания);
  • Текущего состояния ресурса.

Существуют тематики, которые требуют особого подхода. Это сайты для взрослых (товары интимного характера, информация для лиц 18+), ресурсы, посвященные вредным привычкам (табачные, алкогольные), онлайн-казино. За работу с ними веб-студии могут добавлять к стоимости некий удорожающий коэффициент.

Резюме

Внутренняя поисковая оптимизация сайтов – это большой комплекс услуг, который включает в себя разностороннюю работу с ресурсом. Она затрагивает контент, заголовки, код, правила индексации, карту сайта, структуру, работу с сервером (страница должна отдавать правильный http-заголовок). Все это позволит площадке вырваться вперед в топ, опередив своих конкурентов. Сроки и стоимость оптимизации зависят, главным образом, от объема той работы, которую предстоит проделать с сайтом.

Кристина Загорулько

Дек 30, 2013 | Время чтения: 6 мин

Перед раскруткой сайта его обязательно необходимо оптимизировать для лучшей индексации. Кроме того, правильная оптимизация и уникальные тексты позволяют самостоятельно постепенно занимать определенные позиции в ТОП выдачи всех поисковых систем!

Оптимизация структуры сайта

Многое зависит от дизайна, но следует понимать, что слишком неординарный дизайн может вызвать недоумение у посетителей и они не смогут ориентироваться в меню навигации. Поэтому для коммерческих или социальных проектов, рассчитанных на широкую аудиторию, используется оригинальный логотип и шапка сайта, но меню и структура обычно стандартные, то есть выглядит как на большинстве подобных сайтов.

Например, большинство интернет-магазинов давно похожи на amazon.com по своей простоте, а самые известные в мире социальные сети Фейсбук и ВКонтакте по принципу структуры и даже на вид будто «близнецы». Это как бы намекает, что никто не хотел делать новое непривычное для навигации меню, ведь все хотят иметь структуру, привычную целевому пользователю. В коммерческом проекте на первом месте юзабилити, то есть удобство и простота навигации для рядового пользователя. Все просчитывается так, чтобы любой пользователь интуитивно понимал как ему купить, заказать, найти, посмотреть, послушать, наконец, оплатить и т. д.

Если же проект некоммерческий и дизайнера «выпускают на волю», может получится вообще круглый необычный и даже анимированный дизайн с кнопками в самых неожиданных местах. Таким образом, посетитель ощущает себя на своеобразном аттракционе, в поисках нужной информации нажимая на все подряд. Многие уйдут, но самые упорные целевые посетители останутся и оценят оригинальность, к примеру, этого сайта www.jonathanyuen.com

Редкий гость будет десять раз перелистывать каталог в поисках нужной страницы. Роботы ПС тоже не любят страницы вдалеке от главной и индексируют их неохотно, долго. Иногда страницы, сильно удаленные от главной, вообще оказываются вне индекса на многостраничниках. Максимальный уровень вложенности страниц — третий или четвертый: чем дальше страница от главной — тем меньше шансов на индексацию.

Карта сайта и настройка robots.txt

Чтобы поисковики максимально быстро индексировали все новые страницы, необходимо создать карту сайта. Есть два варианта — это карта сайта HTML и Sitemap XML. Причем лучше всего сделать оба вида Sitemap, поскольку считается, что Гугл быстрее индексирует именно карты в виде структуры HTML. Однако, карта сайта XML имеет свои преимущества, ведь кроме адресов в ней прописаны даты изменения страниц и их приоритеты.

Файл robots.txtдолжен быть в корневом каталоге каждого сайта. Это стандарт исключений для роботов ПС, он дополняет Sitemap и также облегчает индексацию страниц. С другой стороны, именно robots.txt позволяет запретить индексацию ненужных страниц.

Два основных правила при настройке robots.txt:

  1. Никогда и ничего нельзя менять, если вы не понимаете, что делаете. Иначе может заблокироваться индексация нужных страниц или целые разделы каталога.
  2. Обязательно пропишите в документе robots.txt адрес Sitemap в виде команды: Sitemap: http://site.ru/sitemap/

Создать robots.txt можно самостоятельно в блокноте, но если вы не можете отличить директивы Disallow и Allow, то лучше использовать генератор robots.txt и Sitemap. Вы можете составить карту сайта самостоятельно с помощью простого генератора, например, www.seolib.ru/help/generators/ , там же есть генератор robots.txt.Готовый файл Sitemap необходимо загрузить в Яндекс.Вебмастер и Google Webmaster.

Внутренняя оптимизация страниц сайта

После индексации всех страниц роботы ПС пытаются избавиться от дублей, ведь нередко на разных страницах одного домена контент имеет схожее содержание. К примеру, в интернет-магазине множество разных, но однотипных товаров одного бренда, и Гугл выкидывает из индекса все схожие страницы, оставляя одну «каноническую» (на усмотрение алгоритмов робота). Чтобы самостоятельно указать канонический URL, нужно прописать тег rel=»canonical» в раздел на всех неканонических страницах или просто прописать атрибут Link rel=»canonical» в HTTP заголовке канонической версии.

Внутренняя оптимизации сайта подразумевает создание такой структуры, которая понятна как живым пользователям, так и роботам поисковых систем (ПС). Многостраничные порталы должны иметь систематизированные разделы, чтобы все страницы были не дальше 3-4 кликов от главной. Очень желательно использовать навигационную цепочку («хлебные крошки») и ЧПУ («Человеку Понятный Урл»), но не все скрипты CMS имеют такой функционал.

Перелинковка страниц — важный фактор внутренней оптимизации, повышающий позиции в выдаче ПС, поскольку вес даже внутренних ссылок дает возможность роботу ПС определить, как ранжировать поиск. Именно поэтому чаще всего в поиске ПС выпадают разделы каталогов, ведь на них идут «сквозняком» ссылки с главной. Перелинковка делается разными способами, иногда за счет добавления блоков ссылок на «похожие страницы», а также в виде контекстных ссылок в статьях. Главное, самые важные разделы «усилить» внутренними ссылками и при изменениях структуры следить за исправлением ссылок перелинковки, удалять устаревшие нерабочие ссылки.

Внутренняя оптимизация сайта самостоятельно

Перечислим основные внутренние факторы оптимизации по порядку:

  • Стараемся изначально выбрать движок для сайта (CMS) позволяющий делать хлебные крошки и ЧПУ.
  • При необходимости пишем код вручную в профессиональной программе типа Dreamweaver (универсальный, но платный) или используем бесплатный софт типа KompoZer, работающий по стандартам W3C (Консорциум Всемирной паутины).
  • Ошибки в коде недопустимы. Крайне нежелательны остатки нерабочих, незавершенных кодов, стилей css. Чтобы был чистый код, даже если писали в профессиональном редакторе, потом желательно проверять готовый код, чтобы не было ничего лишнего. Например, нельзя копировать текст в визуальный редактор HTML из документа WORD – незаметно скопируется много лишнего кода форматирования.
  • Фиксированный и резиновый дизайны имеют свои достоинства и недостатки, а адаптивная верстка сложная. В любом случае, верстка дизайна должна выполняться профессионалом, иначе готовые шаблоны для WEB будут с другими цветами и даже размерами кнопок, чем было изначально нарисовано дизайнером в проекте.
  • Оптимизируем быстроту загрузки всех страниц за счет максимально возможного уменьшения «веса» всех элементов дизайна: Flash, баннеров, кнопок и картинок, конечно, без существенной потери качества!
  • Кроссбраузерность – проверяем, чтобы главная и меню отображались корректно во всех известных браузерах. Бесплатно, но медленно проверяет кроссбраузерность ресурс browsershots.org и платный вариант от Adobe Creative Cloud имеет месяц бесплатного пробного режима.

Безусловно, без опыта невозможно предусмотреть многие нюансы и нередко самостоятельная внутренняя оптимизация заходит в «тупик». Проблемы начинаются, когда оказывается, что движок CMS был выбран неверно и потом никак нельзя использовать ЧПУ, хлебные крошки, а конкуренты за счет этих факторов выходят выше в ТОП выдачи ПС. Тогда либо придется менять CMS, либо писать еще больше страниц и закупать на них внешние ссылки. Старый сайт бывает вообще сложно переделать, но приходится оптимизировать как есть, иначе при смене CMS надолго «просядут» позиции в выдаче ПС.

Поэтому, если ваш проект только начинается – вначале проконсультируйтесь у специалистов, составьте четкий план ТЗ. Профессиональная внутренняя оптимизация сайтов подразумевает наличие плана проекта с учетом всех перспектив его дальнейшего продвижения:

      • Изначально нужно , чтобы разработать структуру меню сайта с простым доступом ко всем страницам при максимально естественной перелинковке.
      • Исходя из тематики и предполагаемой структуры создается дизайн и выполняется верстка шаблонов, выбирается и устанавливается CMS, а при необходимости программисты пишут новую CMS индивидуально под ваши требования к функционалу.
      • Проводится внутренняя оптимизация страниц сайта с тщательной перелинковкой, а для всех страниц пишутся уникальные title и метатеги Description, keywords, а также ALT для картинок.
      • Внутренняя seo оптимизация сайта – написание уникальных текстов с наличием маркированных или нумерованных списков, добавление оригинальных картинок и видео или другого контента заметно улучшает выдачу в ПС.
      • Все страницы оптимизируются под 1-2 главных ключевых запроса и несколько сопутствующих ключевых фраз, чтобы постепенно шло .
      • Внутренняя и внешняя оптимизация сайта подразумеваетзакрытие всех ненужных ссылок атрибутом nofollow для Google и тегом noindex для Яндекса, запрет индексации ненужных каталогов в robots.txt

Как делается поисковая оптимизация текстов сайта для SEO раскрутки в ПС вы узнаете в следующей публикации. И не забывайте регулярно проводить !

Просмотры: 418

В последнее время много заказов на SEO-аудит блогов и у всех всё те же стандартные ошибки, что и несколько лет назад. Ничего не меняется! Ладно бы технические, про которые обыкновенный блоггер не знает, да и не должен знать, но у большинства даже нету обыкновенной оптимизации страниц и статей. А жалобы у 95% всех обращающихся именно на плохое ранжирование и посещаемость. Если статья и страница сайта не оптимизированы, удаление всех возможных технических ошибок и недочётов основной проблемы не решит!

С каждым годом поисковые системы все меньше уделяют внимание внешним фактором ранжирования и всё больше смотрят на качество предоставляемого контента. Если раньше войти в топ только за счёт внутренней оптимизации без покупки ссылочной массы было просто невозможно, то сегодня вполне реально. Особенно это касается низкочастотных запросов, по которым бьёт основная масса блоггеров.

Устранение технических ошибок действительно помогает и, как показывает практика, если очень серьезных проблем не было, подымает посещаемость на 20% — 30%. Но без внутренней оптимизации это «пшик». Подняться с 30-го на 20-е место в ранжировании ПС мало чем поможет. Другое дело, если статья оптимизирована и висит на второй странице, удаление технических проблем способно вывести её в ТОП, в значительной мере повлиять на посещаемость. Надеюсь мои слова «не пролетят со свистом мимо ваших ушей» и вы начнёте уделять время оптимизации!

Что под собой подразумевает внутренняя оптимизация

Внутренняя оптимизация — это комплекс действий внутри ресурса, направленных на улучшение ранжирования сайта в выдаче поисковых систем. Эта работа включает в себя:

  1. Оптимизация текста (требования и рекомендации непосредственно к тексту)
  2. Оптимизация страницы со статьёй (заполнение мета-данных, тегов и пр.)
  3. Оптимизация сайта в целом (внутренняя перелинковка, контроль исходящей ссылочной массы)
  4. Техническая оптимизация (рассматривать не будем)
  5. Удаление технических ошибок и недочётов (тоже не рассматриваем)

По большинству пунктов нет никаких официальных рекомендаций «как нужно делать» от поисковых систем. Мнения среди SEO-специалистов часто сильно разнятся. В этой статье я приведу собственные приёмы и правила, которым придерживаюсь сам при работе с клиентами, которые показывают хорошие результаты.

Оптимизация текста/статьи

Самое главное в продвижении сайта — это контент. Требований к его написанию не много, но от их соблюдения зависит всё.

Для начала очевидное:

  • не допускайте пунктуационных и грамматических ошибок при написании статьи;
  • пишите интересную информацию для вашей тематики;
  • постарайтесь максимально раскрыть тему статьи;
  • не пишите о том, чего не знаете или в чём не уверены — это зачастую заметно или «вылезет боком» в будущем;
  • пишите «по сути», не надо «переливать воду из пустого в порожнее» для увеличения количества символов;
  • разделяйте текст на абзацы по смыслу, не делайте их длинными;
  • выделяйте важные моменты жирным или курсивом, но не переборщите, текст не должен «рябить » в глазах;

Теперь о менее очевидных вещах, требованиях и рекомендациях к тексту:

  • тексты более 2000 символов ранжируются лучше, нежели небольшие;
  • не вставляйте в текст ключевые слова намеренно. Вы можете найти в сети множество рекомендаций о том, как и сколько ключевиков нужно впихнуть в тест, на каком расстоянии друг от друга они должны находиться и подобные. Эти приёмы работали несколько лет назад, сейчас они не актуальны. Где прописывать ключи я напишу чуть позже;
  • активно используйте заголовки H2-H6. Именно в них нужно прописывать ключевые слова. Заголовки помогут структуризировать предоставляемую вами информацию, составить навигацию по статье;
  • текст должен быть уникальным, не копируйте его с других сайтов. Если подсматриваете информацию на других ресурсах, то соберите её по максимуму, изучите тематику полностью и потом пишите «с головы» ;
  • обязательно разбавляйте текст подходящими по смыслу картинками. Но опять таки — не переборщите, подбирайте их в одной цветовой гамме или в мягких тонах. Они не должны забирать на себя внимание читателя или пестрить;
  • публикуйте статьи регулярно, не стоит делать долгих пауз или выкладывать сразу несколько текстов;
  • для больших публикаций необходима навигация (как в этой статье), чтобы посетитель мог максимально быстро найти ответ на свой вопрос;
  • не добавляйте в текст не тематические видео на приколы, юмор и пр. или flash-игры. Бытует мнение, что это улучшит ПФ. Поверьте, я ещё не встретил ни одного сайта, которому бы это помогло. Все видео на youtube размещаются в категориях и ПС не составит труда определить его тематику. К тому же в глазах посетителя такой дополнительный контент смотрится нелепо, авторитет ресурса снижается.

Оптимизация страницы со статьёй

В этот раздел я отношу заполнение мета-тегов title, description, keywords, тегов H1-H6 (заголовки). Эта часть внутренней оптимизации сайта напрямую связана с ключевыми словами. Если вы ещё не знаете, что такое главные, разбавленные и второстепенные ключевые слова, а также как подбирать ключи для статьи — вам . Без знания этой информации вы дальше ничего не поймёте.

Проблемы с заполнением мета-тегов и тегов встречаются примерно у 80% из всех, кто обращается к нам за аудитом. При этом около 30% вообще не подбирают ключевики и «забивают» на оптимизацию страницы. А ещё печальнее тот факт, что многие даже после получения отчета с рекомендациями по их ресурсу продолжают игнорировать проблему. Зачем вообще тогда обращаться за SEO-анализом — непонятно.

  • длина title не должна превышать 60 символов;
  • в тайтле должен быть прописан главный ключ без склонений. В некоторых случаях лучше прописывать приоритетную ключевую фразу, которая содержит главный ключ в чистом виде(например, для интернет-магазина приоритетным ключом будет фраза со словом «купить » + «главный ключ «);
  • не пишите короткие тайтлы. Заполнить недостающие символы и сделать title уникальным можно просто дописав название домена;
  • если сайт продвигается по региону — периодически указывайте это в title (я прописываю в каждом третьем);
  • не делайте из тайтла набор ключевых слов;
  • не ставьте в title вопросительные или восклицательные знаки, не разделяйте точками на предложения.
  • длина description не должна превышать 160 символов;
  • используйте разбавленные и второстепенные ключевые слова при написании;
  • не вставляйте в дескрипшин куски из текста;
  • не делайте из description набор ключевых слов;
  • не пишите короткие дескрипшин, старайтесь «подгонять» его до 140 символов;
  • description зачастую отображается в поисковой выдаче и должен быть привлекательным для посетителя, отображать суть статьи;
  • не разделяйте на предложения, не используйте восклицательных и вопросительных знаков (запятая вам в помощь).

На сегодняшний день мета-тег keywords либо не играет роли в ранжировании сайта, либо его роль настолько мала, что нет возможности её проследить. А вот словить пессимизацию за неправильное заполнение мета-тега вполне реально. Лучше просто оставлять кейвордс пустыми, чем заполнять их неправильно.

Для правильного заполнения мета-тега keywords придерживайтесь следующих советов:

  • для каждой страницы вашего ресурса должны быть свои уникальные ключевые слова, они не должны пересекаться с кейвордс на другой странице;
  • не пишите общие слова в качестве ключей (например: купить, заказать, ноутбук, отзывы, читать и т.д.), только ключевые фразы с темы статьи (например: купить ноутбук модель X, заказать ноутбук X, отзывы модель X и подобные фразы);
  • ключевые фразы разделяйте запятыми, не пишите каждое слово через пробел или запятую;
  • не пишите километровых портянок в кейвордс, достаточно 3 — 4 ключа.

Теги заголовков H1 — H6

Отдельное внимание стоит обратить на написание тега H1, так как он наиболее значим для продвижения. Заголовки H2-H6 менее значимы и чем выше их идентификатор (цифра после буквы «H»), тем слабее они влияют на ранжирование.

  • H1 должен содержать наиболее приоритетное разбавленное ключевое слово;
  • не прописывайте одинаковые Title и H1;
  • тексты с короткими H1 ранжируются хуже;
  • в H2-H3 лучше использовать ключи с частотностью выше, нежели для H4-H6;
  • как и для мета-тегов, в заголовках H1-H6 точек не ставим;
  • не стоит прописывать ключ в H2-H6, если текст ему не соответствует (вспоминаем рекомендации для текста).

В идеале, нужно сначала составить семантическое ядро для текста, потом исходя из него продумать структуру текста под H1-H6 и только потом писать статью. Но на практике так делают только для многотысячных проектов, тексты для которых пишут копирайтеры.

Уникальность картинок, заполнение Title и Alt

Картинки — это тоже контент. А как мы знаем с рекомендаций поисковиков, сайты с уникальным контентом ранжируются лучше. В сети вы можете часто встретить советы, как уникализировать изображения. Но большая часть этих фишек уже не работает, так как с каждым днём ПС улучшают распознавание изображений. Всякие рамочки, водяные знаки, лёгкие коллажи и цветовые изменения уже не помогают. Проверять изображения на уникальность лучше всего прямо через поисковики. Например, у Яши в картинках есть соответствующий инструмент:

Если вы не умеете работать с фотошопом или тематика вашего сайта не позволяет вам делать подходящие фотографии лично, просто «забейте» на уникальность картинок. Этот параметр сильно переоценен самими SEOшниками. Сейчас наверное 99,9% всех картинок в интернете — это копипаст. Сайты с не уникальными картинками нормально себе живут и ранжируются. Для многих тематик просто не реально сделать снимки самому.

Например, человек ведёт блог об астрономии. Ему что, надо летать в космос чтобы сделать фото космического тела? Или рисовать галактики в фотошопе? 🙂

Title и Alt для изображений в статье

Alt для картинок нужно заполнять обязательно, а вот информации об влиянии тайтла изображений на позиции сайта нет. Точно известно, что title для картинок влияет на их ранжирование в поиске по «картинкам». Я же заполняю title чисто на автомате, все равно ведь Alt нужно прописывать.

  • в Title нужно прописывать ключевую фразу для статьи;
  • в Alt пишем то, что изображено на картинке, никаких технических Альтов (например: img_022 , набор букв или цифр);
  • не делайте из Альт и Тайтл набор ключевых слов;
  • не используйте точки, вопросительные и восклицательные знаки — только запятую;
  • не прописывайте одинаковый Alt и Title к одной картинке;
  • не пишите одинаковые Тайтлы или Альты к группе картинок. Для каждого изображения должен быть свой уникальный Alt и title.

Пример внутренней оптимизации страницы

Теория это хорошо, но практическое применение лучше поможет понять и закрепить материал. Как и раньше, нашим подписчикам я стараюсь дать какие-либо дополнительные фишки или преимущество. Под паролем спрятана инфа о том, как я на практике применяю свои знания при написании мета-тегов и заголовков. Вам понравится, схема очень проста и действенна 🙂

Внутренняя оптимизация сайта – это комплекс работ над сайтом, направленных на обеспечение соответствия кода и содержимого страниц ресурса требованиям поисковых систем.

Грамотная внутренняя оптимизация нацелена на устранение технических ошибок и улучшение ресурса - ваш сайт становится максимально релевантным (=полезным, привлекательным) для поисковиков и пользователей, и как следствие, попадает в ТОП.

Комплекс работ по внутренней оптимизации

С чего начать?

Составление семантического ядра

Начать работы по внутренней оптимизации стоит с подбора списка ключевых слов, по которым будет осуществляться продвижение сайта. Важно правильно сформировать семантическое ядро (СЯ) для того, чтобы вы получали из поиска не просто пользователей, а ваших потенциальных клиентов.

Оцените текущую информацию на сайте, составьте список масок ключевых слов, расширьте их, подобрав нч-, сч-, вч-запросы. Для поиска дополнительных масок, оценки популярности спроса, сезонности того или иного запроса, можно использовать стандартные бесплатные сервисы Яндекс.Вордстат или Планировщик ключевых слов от Google.

Группировка запросов. Определение точек входа

Сгруппируйте подобранные ключевые запросы. На одной странице вы можете продвигать несколько ключевых слов. Используйте логическую группировку, а в том случае, когда у вас возникают сомнения о совместимости того или иного запроса друг с другом, прибегайте к анализу сайтов текущего ТОП-10 (ваших конкурентов).

Для каждого ключевого слова или группы слов необходимо определить посадочную (целевую) страницу. Проанализируйте какие страницы сайта сейчас ищутся по группе запросов в поисковых системах, либо воспользуйтесь оператором запрос site:vashsite.by .

Для определения точек входа для высококонкурентных запросов необходимо проанализировать конкурентов и посмотреть, какие страницы находятся в ТОПе*.

* например, если в первых 20 результатах выдачи по вашему запросу находятся лишь главные страницы сайтов, то вам также стоит выбрать для продвижения главную страницу. Конечно, если запросов много (например, при продвижении портала), то под высокочастотные запросы можно оптимизировать и внутренние страницы.

При проведении внутренней оптимизации используйте сайты конкурентов для подбора и группировки запросов, анализа и разработки структуры сайта, анализа необходимых элементов (поиск по сайту, как сделан каталог, прайс, характеристики товаров, конструктор, форма подбора, калькулятор кредита и пр.).

Технический аудит – базовый этап внутренней оптимизации сайта

Аудит сайта помогает определить техническую готовность сайта к продвижению и выявить основные ошибки, которые могут мешать индексации и ранжированию вашего ресурса поисковиками.

Основные моменты, на которые важно обратить внимание, проводя :

  • Главное зеркало сайта (склеены ли зеркала с www и без www у сайта, какое зеркало является основным).
  • Корректная обработка 404 ошибки Если страница не существует или была удалена, необходимо подключение страницы с 404 ошибкой. Важно проверить, чтобы при обращении к ней, ответ сервер был HTTP/1.1 404 NotFound. В противном случае, такая страница может попасть в индекс ПС.
  • Канонические адреса (rel="canonical"). Позволяет указать основную версию документа для поисковой машины из группы страниц с одинаковым контентом. Некорректное использование может привести к выпадению продвигаемых страниц из индекса.
  • Настройка ЧПУ на сайте. «Человеко-понятные» урлы используются в оптимизации страниц как для юзабилити, так и для поисковиков (дополнительное вхождение ключевика в урл, подсветка в выдаче)
  • Навигация через скрипты. Для ссылки на другую страницу сайта применяют тег <а>, что является верным с точки зрения SEO. Но иногда для этого используются и другие технологии, в частности, Flash или JavaScript. По таким ссылкам роботы не переходят, поэтому, если вы хотите, чтобы внутренняя оптимизация сайта приносила эффект, использовать их не стоит. Если этого избежать не удается, то стоит продублировать такие ссылки при помощи тега <а>.
  • Удаление битых ссылок. Не нужно «распылять» вес страницы на материалы с 404 ошибкой и отправлять пользователя/робота на несуществующие урлы.
  • Скорость загрузки страницы. Медленная загрузка страницы негативно влияет на отношение как пользователя, так и поисковика к сайту. Пользователь может уйти, не дождавшись полной загрузки страницы, а поисковый робот может удалить или пессимизировать страницу.
  • Кросс-браузерность. Для уменьшения показателя отказа пользователями важно понимать как отображаются страницы вашего сайта в разных браузерах и при необходимости внести корректировки в код.
  • Клоакинг. Использование различных методов оптимизации, в результате которых поисковые роботы и пользователи видят разное содержимое страниц сайта. Клоакинг считается исключительно «черным» методом оптимизации сайта, с которым борются все без исключения поисковые системы. К одному из методов клоакинга можно отнести скрытый текст на сайте.
  • Регион сайта. Для ранжирования по геозависимым запросам, сайту должен быть присвоен целевой регион.
  • Множество редиректов. Не рекомендуется использование множества редиректов – их можно применять только в том случае, когда это действительно необходимо. Для перенаправления пользователей со старых страниц на новые лучше использовать 301 редирект.
  • Отсутствие технических дублей страниц. Каждая страница сайта должна быть доступна только по одному физическому адресу, если это не так – необходимо удалить страницу или закрыть её от индексации в robots.txt. Также в адресе страницы не должны содержаться идентификаторы сессий, списки cgi – параметров.
  • Корректное использование тега noindex, атрибута nofollow. Внутренняя оптимизация подразумевает проверку корректной индексации страниц и ссылок на ресурсе.
  • Надежный хостинг. Доступность сайта 24x7, оперативное реагирование хостера на проблему простоя сайта – важная составляющая продвижения.
  • Оптимизация под МУ (Mobilе-friendly). Поиск информации в интернет с помощью смартфонов становится для пользователей обычным делом, поэтому сейчас поисковые машины в мобильной выдаче отдают предпочтение сайтам, оптимизированным под мобильные устройства.
  • Формирование корректного файла robots.txt.
    ROBOTS.TXT - представляет собой файл в корневой директории сайта, содержащий инструкцию для поисковых роботов.
    В файле robots.txt можно ограничить индексацию страниц, которые не должны попасть в выдачу поисковых систем (например, дубли или страницы поиска по сайту), а также указать основное зеркало сайта, скорость сканирования страниц, путь к карте сайта в формате xml.

    Если проводится внутренняя оптимизация нового сайта, то, скорее всего, придется создать robots.txt с нуля и разместить его в корневой директории. Сделать это легко – достаточно открыть блокнот и внести в него необходимые директивы. После чего файл необходимо сохранить и закачать в корневую директорию сайта.

    Что именно должно быть в файле?
    Robots.txt должен иметь как минимум две директивы:

    User-agent: - указывает, для какого поискового робота предназначены инструкции. Для того чтобы указать инструкцию для всех поисковых систем сразу, необходимо использовать в User-agent «звездочку» - *

    Disallow: - указывает, какую директорию сайта не нужно индексировать. Например, закрыть файл или папку от индексации можно, указав следующие директивы:

    Disallow: /file.html
    Disallow: /papka/

    Если вы не хотите закрывать от индексации страницы сайта, то достаточно указать следующее:

    User-agent: *
    Disallow:

    Для робота Яндекса создается своя секция и указывается основное зеркало сайта с помощью директивы host:

    User-agent: Yandex
    Disallow:
    Host: www.site.ru

  • Формирование sitemap.xml. Карта в формате xml упрощает индексирование сайта поисковиками. Она указывает страницы сайта, время их последнего обновления, частоту обновления и важность индексации относительно других страниц.

Оптимизация контента

Текст на странице является одним из самых важных факторов ранжирования. При написании SEO-текстов следует придерживаться следующих правил:

  • Объем текста, плотность ключевых слов на странице определяется в результате анализа текстов конкурентов. Помните, что вы пишете, в первую очередь для пользователей, а уже потом для поисковых систем.
  • Используйте только уникальный текст. Плагиат не приветствуется поисковыми системами, более того сайт может быть пессимизирован.
  • Равномерно распределяйте ключевые слова на странице.
  • Пишите тексты в соответствие с запросами пользователей. Пользователь, перешедший по своему запросу на сайт, должен найти то, что искал.
  • Контент должен быть высокого качества, полезным и интересным для пользователей.
  • Уделите внимание структуре. Текст должен быть читабельным, разбитым на абзацы, списки.

Оптимизация мета-тегов на странице

Мета-тег title

Как выглядит в коде


Как выглядит в результатах поисковой выдачи

Мета-тег title играет важную роль для поискового робота - он учитывает его при определении содержания страниц.

  • соответствует содержимому страницы и содержит ключевые слова
  • читабельный: имеет смысл, а не набор ключевых фраз
  • без переспама
  • размещайте ключевые слова в начале тега, а слова из запроса в одном пассаже
  • кликабельный и привлекательный: для увеличения CTR
  • используйте переформулировки и подсветки в заголовках – это добавит еще больше релевантности вашей странице
  • для оптимизации важно, чтобы все страницы имели разные названия в соответствии с их содержимым (уникальный тайтл по отношению к другим страницам сайта и др.сайта).

Что касается длины заголовка, то Яндекс показывает в выдаче до 60 символов, учитывает 186 слов, а Google значительно меньше - 12 слов (порядка 70 символов).

Мета-тег Description содержит краткое описание страницы (до 200 символов).
Содержимое тега description может использоваться поисковиками для формирования сниппета*, особенно это актуально в отношении Google.

* сниппет, что в дословном переводе значит «фрагмент» - это часть текста с сайта или с description, которую пользователи видят в результатах выдачи поисковой системы.


Сниппет очень важен, т.к. только высокие позиции не гарантируют хороший трафик - во многом он зависит от привлекательного сниппета. Кроме того, с усилением влияния поведенческих факторов при ранжировании, содержательный и интересный сниппет является обязательным условием грамотной внутренней оптимизации сайта.

  • длина – 150-200 символов, 1-2 предложения
  • читабельный, дополняет title и кратко описывает содержимое страницы
  • без переспама
  • уникальный по отношению к другим страницам сайта и др. сайтам
  • возможность использования спецсимволов ® ☺ ★!
  • кликабельный, содержит призыв к действию

Оптимизация тегов на странице

  • Тег ALT . Этот тег позволит провести оптимизацию картинок. В alt необходимо включать текст, описывающий изображение, и в него можно включить ключевые слова – поисковые системы учитывают их при ранжировании сайтов. Кроме того, если у пользователя в браузере отключен показ картинок, то в любом случае он сможет увидеть подпись к ним.
  • Теги H1- H6 . Заголовки H1 является вторым по значимости тегом после мета-тега Title. Он должен включать ключевые слова, но ни в коем случае не представлять собой только их перечисление. В теги Н2 – Н6 могут быть заключены заголовки абзацев, содержащие ключевые слова. Но на данный момент при ранжировании страниц поисковики не придают большое значение содержанию этих тегов.

Внутренняя перелинковка страниц

Перелиновка страниц позволяет перераспределить вес на продвигаемые страницы. Кроме того, при продвижении по низкочастотным запросам, а иногда и среднечастотным, внутренняя перелинковка помогает вывести сайт в ТОП без покупки ссылок.

Внутренняя оптимизация сайта подразумевает постоянное развитие ресурса, добавление новых страниц. Например, создайте страницы «Статьи», «Словарь терминов» и проставьте ссылки на продвигаемые страницы. Это добавит им вес и поможет вывести запросы в ТОП.

Для текста ссылок следует использовать ключевые слова не только в прямом вхождении, но и их словоформы и переформулировки.

Также хороший прием перелинковки – разместить под статьей ссылки на другие интересные материалы сайта. Это поспособствует тому, чтобы клиент провел больше времени на вашем сайте.

Внутренняя оптимизация сайта, сделанная по всем правилам, станет важным шагом к успешному продвижению вашего ресурса в интернете. Но занимаясь продвижением сайта самостоятельно, вы рискуете не только не попасть в желаемый ТОП, но и ухудшить свои позиции. Чтобы грамотно и не попасть под фильтры поисковых систем, следует обладать серьезной теоретической базой и большим опытом. 100% сотрудников SEO-отдела ARTOX media имеют сертификаты Google IQ, а также большой опыт работы в продвижении проектов разной тематики и сложности в разных регионах.

В ARTOX media, вы получаете:

  1. Цена продвижения не изменяется в течение года
  2. Список выполняемых работ прозрачен
  3. Добавление ключевых слов каждый месяц
  4. Гарантии на вывод в ТОП, которые прописаны в договоре
  5. Снижение стоимость продвижения одного запроса снизится на 90% к концу года
  6. Бесплатное юзабилити-тестирование и доработки сайта.

09.10.2017 Время прочтения: 16 минут

Интернет-маркетинг – это огромная доля всего маркетинга; а продвижение сайта в поисковиках – огромная доля интернет-маркетинга.

Прямо сейчас зайдите на своем веб-сайте в файл robots.txt (https://www.ваш-сайт.ru/robots.txt) и проверьте, не закрыт ли он от ПС. Если увидите строку
User-Agent: *
Disallow: /
значит, ваш сайт не видит ни один поисковик, и нужно срочно заняться внутренней seo-оптимизацией!

Ещё один файл-помощник для общения с роботами ПС – sitemap.xml. Он важен в первую очередь для сайтов с большим количеством страниц. Потому что, роботы ПС обходят сайт последовательно: зашел на страницу X, нашел на ней сслыку на страницу Y, перешел на Y, нашел ссылку на Z и т.д. При этом есть ограничение по количеству страниц, которое поисковик обходит на одном сайте за сутки (краулинговый бюджет). Поэтому, если на сайте хотя бы 100 страниц, разбитых на несколько категорий, лучше дать поисковику маршрут, по которому стоит обходить сайт. Этот маршрут задается в карте сайта sitemap.xml. Когда карта сайта есть – процесс добавления страниц в индекс проходит быстрее (и их обновление при переобходе тоже проходит быстрее).

В карту сайта добавьте полный список страниц ресурса и так же, как и robots.txt, загрузите в корневую папку, чтобы адрес был таким: https://www.ваш-сайт.ru/sitemap.xml .

Настроить 404

Фото с сайта geocities.jp

Когда пользователь вводит в адресную строку браузера URL (например, ), браузер обращается к серверу, хранящему эту страницу, и в ответ получает некий код состояния. Два самых частых кода состояния – это 200 OK и 404 Not Found: первый означает, что страница с запрошенным адресом действительно существует (и загружает эту страницу); второй – что страницы с запрошенным адресом не существует.

Если в адресную строку ввели адрес, страницы по которому не существуют (например, https://сайт/blok/), сервер должен ответить браузеру 404 Not Found, и в окне браузера должна появиться «заглушка», информирующая пользователя, что ему нужно уточнить адрес.

Вот что происходит, когда на сайте не реализована функция грамотного ответа для несуществующих страниц:

  1. При переходе на несуществующую страницу пользователь попадает в тупик и покидает сайт;
  2. При переходе на несуществующую страницу поисковый робот думает, что она существует (ведь 200OK), и добавляет ее в индекс как дубль.

Поисковики ненавидят дубли (об этом читайте ниже, пункт «Избавиться от дублей контента, мета-тегов»). Поэтому обязательно настройте 404 для пустых страниц!

По умолчанию, популярные CMS уже оснащены функцией грамотного ответа для несуществующих страниц, но это не точно. Так что, лучше проверьте: введите в адресную строку неправильный адрес, проверьте, появляется ли «Страница 404», и проверьте код ответа (например, здесь: www.redirect-checker.org). Если что-то не так – срочно исправляйте.

Настроить 301 и 302 редиректы

Большая боль поисковых роботов – это редиректы (переадресации) в структуре сайта. В структуре – значит в тексте/меню/адресах картинок и проч., то есть, где-то в таком месте, на которое робот наткнется при обходе страниц. Каждый раз, встречая переадресацию в структуре, робот как бы спотыкается (сначала для него подгружается один URL, потом вдруг его перекидывает на второй), и вам засчитывается как бы негативный балл. Далее разберемся, где нужно и как правильно использовать редиректы, чтобы не огорчать поисковых роботов.

Избегайте слишком длинных адресов и большого уровня вложенности, структура должна быть четкой и ясно выраженной, а приоритетные страницы должны находиться не более, чем в 3-х кликах от главной. В противном случае поисковые роботы будут обходить большую часть страниц стороной, что грозит слабым индексированием сайта и потерей трафика.

Если при оптимизации внутренних страниц пришлось заменить адрес (был непонятный site.ru/1/n1234, решили заменить на понятный site.ru/catalog/nazvanie-tovara-artikul-1234), то используйте 301-ый редирект. Тогда у страниц с редиректом, которые уже присутствуют в поисковой выдаче, поисковик проиндексирует новую страницу и заменит в выдаче адрес на новый.

Если адрес страницы меняется на время (например, на сайте ведутся технические работы, и все адреса должны направлять на страницу с заглушкой), то используйте 302-ой редирект. В этом случае поисковик не будет менять адрес страницы в поисковой выдаче на новый, и не будет индексировать новую страницу.

Ситуации, когда необходимо настроить 301-ый редирект:

  • Смена домена;
  • Переезд на другую CMS без сохранения старых адресов;
  • Переезд на защищенный протокол HTTPS;
  • Изменение URL по техническим причинам (например, перенесли все товары из категории /category-1/ в/category-2/);
  • Приведение URL в формат ЧПУ («человекопонятный URL»);

Ситуации, когда необходимо настроить 302-ый редирект:

Важный нюанс: при настройке редиректов проследите, чтобы не возникало целой цепочки редиректов. Это ситуация, когда с исходного URL происходит редирект на URL№2, затем на URL№3 и так может быть до бесконечности. Чтобы проверить, настроен ли со страницы редирект (и какой), и нет ли цепочки редиректов, воспользуйтесь уже упомянутым сервисом www.redirect-checker.org .

Избавиться от дублей контента, мета-тегов

Фото с сайта theinfosphere.org

Дубли – это плохо. Если у страницы на сайте есть дубль – из индекса (а уж тем более, из ТОПа) могут вылететь обе: и дубль, и оригинал. Если мета-теги на разных страницах совпадают, шансы выйти в ТОП снова стремятся к нулю. Поэтому дубли нужно отлавливать и беспощадно уничтожать.

Вот самые частые причины возникновения дублей контента:

Как противостоять «атаке клонов»:

  1. Грамотно настроить «главное зеркало» сайта.
  2. Удалить все лишние технические адреса страниц, возникшие случайно в ходе создания сайта.
  3. Избегать параметрических УРЛов, если уже настроены ЧПУ.
  4. При использовании UTM-меток указывать поисковикам каноничный адрес страницы.

Удалить лишние технические адреса страниц уже сложнее, т.к. сначала их нужно обнаружить. С проверкой внутренней оптимизации сайта на предмет дублей здорово справляется специализированный софт, например, Screaming Frog SEO Spider или его бесплатный аналог Xenu . С помощью софта находим все «левые» адреса и оставляем только один каноничный.

Если у вас на сайте используются параметрические УРЛы, постарайтесь заменить их на ЧПУ (которые лучше индексируются). Если это невозможно (например, так уж реализован фильтр в каталоге товаров), то компромиссное решение – сделать копии страниц, но в формате ЧПУ. Например, https://www.site.ru/catalog/audio_and_digits/tv/AKAI/ - страница индексируется; а https://www.site.ru/catalog/audio_and_digits/tv/AKAI/?available=1&status=55395790&p=... уже нет, и у поисковика не будет подозрения на дубли контента. Вторая страница не индексируется благодаря директиве Disallow: */?available в robots.txt.

Похожая ситуация с UTM-метками. Стандартные UTM-метки, используемые, например, в Яндекс.Директе, сам Яндекс уже и так распознает, и не пытается добавить в индекс; но адреса с UTM-метками, используемыми для других целей, могут быть ошибочно восприняты поисковиком как самостоятельные страницы. Решается проблема тоже директивой Disallow в robots.txt.

Кроме дублей контента частая проблема работ по внутренней оптимизации сайта – дубли мета-тегов. Они появляются при автоматическом заполнении мета-тегов, например, в каталогах товаров интернет-магазина. Отлавливать дубли мета-тегов следует так же, как и дубли контента: через специализированный софт. А когда отловили – остается их только уникализировать. Если дублей много, то работа это непростая, т.к. вручную теги на 1000+ страниц даже при большом желании обновлять слишком долго и дорого; так что, в таких случаях используется заполнение по маске. Например, если у вас магазин телевизоров, и 50 телевизоров Samsung называются одинаково в карточках товаров «Телевизор Samsung» (на 50 разных страницах совпадают title и h1), то надо их переназвать, включив в заголовок различающиеся параметры: тип телевизора, диагональ, цвет, даже артикул.

Seo’оптимизировать изображения

Если дубли, пустая sitemap.xml, неработающая 404 ошибка – это прямо «криминал» в глазах поисковиков; то неоптимизированные изображения – вроде административного правонарушения. Все же, практика показывает, что оптимизация картинок дает общий «плюс к карме», и позиции растут быстрее; и, конечно же, если картинки оптимизированы – с ними можно влезть в Яндекс и Google поиск по картинкам, что в определенных тематиках приносит дополнительный трафик.

5 советов по оптимизации изображений:

  1. Старайтесь публиковать уникальное изображение;
  2. Используйте сервисы сжатия для сокращения веса картинки в килобайтах (чем меньше вес, тем быстрее загрузится картинка);
  3. Обязательно заполняйте атрибуты alt и title, включайте в них слова и фразы, релевантные изображенному;
  4. Называйте файлы картинок в ЧПУ виде (по аналогии с УРЛами - лучше всего транслитом);
  5. Используйте разметку schema.org для картинок, которая поддерживается и Яндексом, и Google.

Наполнить сайт ключевыми словами

После того, как технически сайт готов, пора приступить к насыщению его семантикой, то есть релевантными словами/фразами, по которым вы будете его продвигать.

Чек-лист по семантике:

  • Емкое и релевантное семантическое ядро;
  • Уникальный, интересный, разноплановый контент;
  • Правильно заполненные seo-теги;
  • Грамотная перелинковка.

Найти ключевые слова (семантику)

Семантическое ядро сайта (согласно Википедии) – это упорядоченный набор слов, их морфологических форм и словосочетаний, которые наиболее точно характеризуют вид деятельности, товары или услуги, предлагаемые сайтом. Если упростить, то это набор тех фраз/слов, по которым вы хотите, чтобы ваш сайт находили пользователи поисковых систем.

Данный метод внутренней оптимизации укладывается в четыре этапа:

  1. Сбор ключевых слов вручную с помощью специальных сервисов: Яндекс.Вордстат (Подбор слов) и Google Adwords .
  2. Дополнение семантики ключевыми словами конкурентов (хорошо подойдет сервис SEMrush) и словами из готовых баз (например, База Пастухова).
  3. Удаление нецелевых и малоэффективных слов из образовавшегося списка.
  4. Кластеризация запросов. Продвигать на одной странице следует ту группу запросов, которая нацелена на решение конкретной проблемы пользователя. В результате кластеризации получается карта распределения запросов по сайту.

Создать контент согласно семантике

Фото с сайта kino.ru

Когда готова карта запросов, пора составить техническое задание для копирайтера.

В ТЗ копирайтеру нужно указать:

  • Запрос, который должен войти в заголовок h1;
  • Количество вхождений в текст каждого из запросов, предусмотренных для страницы (вычисляется исходя из логики, здравого смысла и анализа текстов сайтов-конкурентов);
  • Объем знаков текста без пробелов (как правило, объем должен быть больше 1000 знаков для хорошей индексации, исключение составляют страницы карточек товаров; объем текста определяется также исходя из здравого смысла и анализа конкурентов);
  • Источники информации для написания интересного контента.
  • Текст должен быть интересным, полно и ясно отвечающим на вопрос пользователя;
  • Текст должен быть уникальными (уникальность проверяется специальными сервисами);
  • У текста должна быть низкая тошнота (тоже проверяется через сервисы);
  • Если текст длиннее 1000 знаков, его следует разбавлять иллюстрациями и другим мультимедийным контентом;
  • В тексте нужно использовать разметку: деление на параграфы, выделение заголовками, подзаголовками, маркированными и нумерованными списками.

Правильно заполнить seo-теги (title, h1-h6, description, keywords, strong)

Следующий важный для внутренних факторов оптимизации шаг, когда уже выбрана семантика и написаны тексты, – публикация текстов вместе с seo-тегами (часто их называют «мета-теги »). Порой грамотно заполненные seo-теги влияют на скорость поднятия в ТОП-10 страницы сильнее, чем оптимизированные тексты.

Seo-теги – это title, “description”, “keywords”, h1-h3 заголовки. Пользователь видит title, h1-h3, а description, keywords фактически видны только поисковым роботам. Задача при заполнении seo-тегов: вписать в них ключевые слова в максимально точном вхождении, соблюдая все требования ПС, при этом сохранив адекватным вид seo-тегов, видимых пользователю. Все seo-теги должны уникальными и не пустыми.

Базовые требования к seo-тегам:

Ручное заполнение данных мета-тегов для больших интернет-магазинов довольно затруднительно из-за множества страниц. Для этого процесс автоматизируют при помощи шаблонных масок. При помощи них, например, можно массово озаглавить тысячи страниц с товарами сайта и все его разделы.

Настроить перелинковку

Перелинковка (от слова “link” – «ссылка») означает установку обратной связи между страницами сайта: с главной страницы сайта в меню есть ссылка на страницу контактной информации – значит, имеет место быть внутренняя перелинковка между главной страницей и страницей контактной информации. Чем больше ссылок внутри сайта будет вести на одну страницу, тем больший вес получит она в глазах поисковых систем.

6 советов по организации внутренней перелинковки:

  1. Делайте анкоры уникальными и разнообразными.
  2. Используйте ключевые слова в анкорах.
  3. Ставьте не более одной ссылки на 1 000 знаков контента.
  4. Выделяйте цветом гиперссылки (классика: ссылки синего цвета, а текст черного).
  5. При внутренней оптимизации интернет-магазинов и больших порталов делайте массовую перелинковку похожих статьей/товаров и проч.
  6. Избегайте использования циклических ссылок – это ситуация, когда страница ссылается сама на себя.

Сделать сайт удобным

Вы расположили поисковиков к своему сайту, вышли по нужным запросам в ТОП – теперь нужно удовлетворить посетителя, дать ему кроме релевантного ответа на его запрос ещё и возможность комфортно использовать сайт.

Чек-лист по юзабилити:

Повысить юзабилити

Юзабилити сайта (от англ. “usability” – «удобство использования») – это уровень удобства использования интернет-сайта, которое позволяет пользователю легко и быстро найти нужную информацию.

Базовые факторы юзабилити сайта:

  • Контент. Контент всегда превыше всего, когда речь заходит о качестве сайта. Тексты должны быть интересными и полезными; графика в тему и приятной; дизайн современным и привлекательным.
  • Высокая скорость загрузки страниц сайта. Чтобы узнать, что именно нужно сделать, чтобы ее увеличить, воспользуйтесь официальным инструментом от Google – PageSpeed Insights .
  • Адаптивность сайта под все возможные устройства, с которых сайт могут посещать пользователи – ПК, ноутбуки, планшеты, смартфоны. Мобилопригодность проверяйте также через официальный инструмент от Google – Mobile-friendly Test .

В юзабилити, конечно же, укладывается и вообще все, что может способствовать удобству восприятия информации: удобные формы обратной связи, формы заказа; качественный дизайн; удобство навигации, etc. Поэтому делайте сайты для людей.

Усилить коммерческие факторы

Фото с сайта imprenditoreglobale.com

«Коммерческие факторы» в контексте SEO – это все элементы сайта, которые указывают поисковым системам, что: а) сайт что-то продает; б) на сайте вся информация, важная потребителю для покупки, представлена полно, точно и в удобной для восприятия форме.

Список коммерческих факторов:

  1. Несколько способов связи: телефон, e-mail, skype и т.д.;
  2. Несколько телефонов и наличие номера 8-800;
  3. Контакты отдельных сотрудников + их фото;
  4. Схема проезда и прохода в офис;
  5. Схема на Яндекс.Картах/Google Maps;
  6. Живые аккаунты в соцсетях, наполняемые контентом;


Загрузка...