Uncategorized

Google: избегайте попадания содержимого служебных страниц в индекс

7728.png

Google: избегайте попадания содержимого служебных страниц в индекс

Поисковик не приветствует попадание контента из файла robots.txt или sitemap.xml в результаты поиска.

Проверка индексации сайта в Google


Поисковые системы, по ряду причин, индексируют не все страницы сайта или, наоборот, добавляют в индекс нежелательные. Для интернет-магазинов, сайтов услуг и других коммерческих сайтов отсутствие страниц в поиске — это потеря дохода.

Поэтому важно знать сколько страниц проиндексировано, постоянно анализировать индексацию страниц сайта в Google, выявлять отсутствующие страницы, ошибки и мусорные страницы и проводить с ними работу.

Таймкоды:
00:00 | Вступление
00:50 | Способы проверки индексации в Google
02:32 | Проверка фактического количества страниц на сайте
03:17 | Проверка индексации в ScreamingFrog через подключенный Search Console
05:30 | Отправка страниц на индексацию

Ссылка на статью https://fast-indexing.ru/proverka-indeksacii-sajta-v-google

Сервис ускоренной индексации в Google https://fast-indexing.ru/

Как быстро индексировать страницы сайта (Инструкция по настройке Google Index API) — На Доске № 0006


Если у вас, как и у многих последнее время возникают вопросы с индексацией своих сайтов, то это видео вам будет очень полезно.

Так как настроив Google Index API, вы сможете решить эту проблему, нормально и самое главное быстро загонять в индекс новые страницы.

Дополнения к видео:

1) Google Cloud Platform
https://console.cloud.google.com/projectselector2/iam-admin/serviceaccounts?supportedpurview=project

2) Ссылка на скрипт https://github.com/swalker-888/google-indexing-api-bulk

3) Ссылка для активации API https://console.developers.google.com/apis/api/indexing.googleapis.com/overview?pli=1

4) Файл установки node.js https://nodejs.org/en/download/

5) Команды для загрузки библиотек в папку скрипта
npm install requests
npm audit fix
npm audit fix —force

Запуск крипта node index.js

Важно: Если у вас возникли вопросы по настройке Google Index API, задавайте их в комментариях, ответим на каждый!)

Как сказал Дмитрий, всем хорошей индексации!

Индексация сайта и Краулинговый бюджет. Ошибки сайтов: Малоценная маловостребованная страница и т.д.


Я решил снять серию видео на тему: как провести технический и SEO аудит сайта. Это 3 ролик из 14, в которых я намерен рассказать о основных процессах в аудите сайта. Тема данного ролика: Краулинговый бюджет, и как он влияет на индексацию сайта. Как ускорить индексацию сайта в Гугле и Яндексе? А также поговорим о самых значимых ошибках панелей вебмастеров: Малоценная или маловостребованная страница, Проиндексировано, несмотря на блокировку в Robots.txt и другие.

Тайм-коды:
00:00 Что такое краулинговый бюджет
00:50 Как узнать лимиты краулингово бюджета?
02:01 Как расходуется краулинговый бюджет?

Все видео по аудиту сайта вы можете найти в плейлисте: https://www.youtube.com/playlist?list=PLNC3WpjVCBJLmleOozwJ-FLGayZfDqq4v

Промокод 25% на покупку Netpeak Spider (1 покупка): https://netpeaksoftware.com/ru/buy?promo_code=ozhgibesov
Промокод 20% на Keys.so: ozhgibesov72

������ Если понравилось видео, ставьте лайк, подписывайтесь на канал, здесь Ожгибесов рассказывает про полезное в SEO!

�� Заказать аудит сайта: https://ozhgibesov.net/seo-audit-sayta/
�� Контакты: [email protected]
https://vk.com/aozhgibesov
Telegram: @AOzhgibesov
https://www.facebook.com/aozhgibesov

Что делать, чтобы в индекс попадали только канонические страницы?


�� Скоро стартует бесплатный мастер-класс по самостоятельному SEO-продвижению от автора этого канала Андрея Буйлова. Для участия нужно зарегистрироваться:
▶️▶️▶️ https://builov-seo.ru/mk1?utm_source=youtube ◀️◀️◀️
——————————————————
В данном видео поговорим про канонические страницы, и разберем, почему неканонические попадают в поиск Яндекса. А также стоит ли менять карту сайта, если в ней указаны ссылки на оба варианта, или атрибута rel=canonical будет достаточно.

Для начала, нужно сказать, что не слишком важно, указаны ли страницы в карте сайта или нет — Яндекс использует этот файл в основном для того, чтобы узнать, какие новые страницы вообще появились. И в общем особого приоритета тем, которые там есть,.не дает, поэтому вряд ли они залетают в индекс только потому, что ссылки есть в карте. Но можно на всякий случай и убрать, если не хотите рисковать, вдруг поисковик всё же как-то использует эти сведения, хотя по наблюдениям такого и нет.

Почему попадают в индекс

Яндекс не так давно решил, что часть неканонических страниц имеют достаточную важность и значимость для пользователя, чтобы могли попадать в индекс. И этот алгоритм работает не очень хорошо, многие бесполезные для людей страницы теперь часто залетают в индекс. Возможно через 1-2 года они этот алгоритм починят, и он станет работать нормально.

Что можно делать

Во-первых, можно ничего не делать. То есть, раз Яндекс посчитал эти страницы достаточно значимыми, то можно надеяться, что их нахождение в индексе никак не повлияет.

Хотя, конечно, особо на это уповать не стоит. Лучше все же, если явно бесполезные страницы попадают в индекс, для начала посмотреть, отчего или вопреки чему это происходит — допустим, они не были закрыты от индексации, но были закрыты canonical, то есть по идее не должны были индексироваться.

Классический пример таких страниц — это пагинация. И стоит смотреть, действительно ли страницы пагинации могут принести пользу, при попадании в индекс ранжируются ли они по каким-либо запросам, мелькают ли хоть где-то, показываются ли хотя бы на 50 местах. И если показываются, то действительно ли будут лучшим ответом внутри сайта на те запросы, по которым они выходят. В 9 из 10 случаев ответ — нет. Почти всегда это полумусорные страницы, которые не являются лучшим ответом на запрос пользователя внутри сайта, поэтому желательно что-то сделать, как-то закрыть их.

Если такое происходит массово — например, есть такие проекты, где 20 страниц пагинации, и несмотря на то, что они были закрыты canonical, они влетели в индекс. Это много, и Яндекс сам же потом рано или поздно признает их мусорными, и это потом может повлияет на представление поисковика о сайте в целом. Точно также, если бы вы сами сделали такое, что индексировались бы пустые страницы или страницы пагинации — позже это могло бы негативно сказаться на продвижении сайта. Поэтому можно с этими страницами что-то делать:
закрывать их более жестко от индексации: либо все страницы пагинации — например, в robots или через метатег «robots»=»noindex»;
можно закрыть не все, а только те, что проиндексировались. Каноникл оставить на тех, что не попали в индекс, а которые попали, закрыть более жестко через noindex;
можно сделать их более похожими на первую страницу. Например, если на первой есть текст, а на остальных нет, на первой заголовок, а на остальных «страница 2», «страница 3»,.. — можно это исправить, подогнать по формату так, чтобы были похожи, и посомтреть, что получится, как Яндекс на это отреагирует.

Если до этого у вас применялся каноникал, то это все основные способы, как можно избежать попадания неканонических старниц в индекс. Как правило, неканонические страницы в индексе — это не проблема, но если их объем становится большой (10-30%), то уже можно и даже желательно самые бесполезные из индекса выкидывать, потому как иначе сам Яндекс на всю эту ситуацию и отреагирует негативно.
——————————————————
Остались/появились вопросы?
Бесплатно, но не быстро Андрей отвечает на вопросы в комментариях. Пишите их там.
Быстро, развернуто и платно: пишите в Telegram/WhatsApp (привязаны к номеру +7-903-354-0097).
Telegram-канал Андрея «SEO без воды» (вбить в поиске телеграма).

Информация для правообладателей