Оптимизация wordpress (файл robots.txt)
Цитата: ZION от 07.02.2016, 19:45Здравствуйте, меня очень интересует вопрос настройки robots.txt. На разных сайтах разная информация, интересует какие директории стоит закрывать, а какие лучше наоборот открыть. Расскажите кто что об этом вообще думает.
Здравствуйте, меня очень интересует вопрос настройки robots.txt. На разных сайтах разная информация, интересует какие директории стоит закрывать, а какие лучше наоборот открыть. Расскажите кто что об этом вообще думает.
Цитата: Flint от 07.02.2016, 21:01ZION,
тут и думать не нужно.
Берёшь, и закрываешь всё бесполезное для пользователя, и всё.
Например на ВП вообще много одинаковых страниц, со временем зайди в выдачу - посмотри страницы без контента, одинаковые, и откровенно говоря не оптимизированные.
У меня, к примеру, открыты лишь статьи, 1-3 страница в каждой категории, главная, и всё. Остальной шлак - к чёрту.
ZION,
тут и думать не нужно.
Берёшь, и закрываешь всё бесполезное для пользователя, и всё.
Например на ВП вообще много одинаковых страниц, со временем зайди в выдачу - посмотри страницы без контента, одинаковые, и откровенно говоря не оптимизированные.
У меня, к примеру, открыты лишь статьи, 1-3 страница в каждой категории, главная, и всё. Остальной шлак - к чёрту.
Цитата: ZION от 07.02.2016, 22:46Flint, беда в том что гугл игнорит основную часть закрытых ссылок. Особенно теги. Мне в принципе все равно что он будет индексировать, важно только чтобы он стремился в топ попасть)
Flint, беда в том что гугл игнорит основную часть закрытых ссылок. Особенно теги. Мне в принципе все равно что он будет индексировать, важно только чтобы он стремился в топ попасть)
Цитата: Pretorian от 08.02.2016, 17:16по умолчанию в ворпрес уже сделаны самые оптимальные настройки этого файла и ничего менять не нужно. Вы считаете себя умнее, тысячнего круга разработчиков опенсоурес ? Я так не думаю, так что не занимайтесь хуйней.
Цитата: ZIONстремился в топ попасть
а тут уже не от робота зависит, а от количества уникального контента на сайте и числа запросов по этому контенту в поисковиках.
по умолчанию в ворпрес уже сделаны самые оптимальные настройки этого файла и ничего менять не нужно. Вы считаете себя умнее, тысячнего круга разработчиков опенсоурес ? Я так не думаю, так что не занимайтесь хуйней.
а тут уже не от робота зависит, а от количества уникального контента на сайте и числа запросов по этому контенту в поисковиках.
Цитата: ZION от 08.02.2016, 20:21Цитата: Pretorianа тут уже не от робота зависит, а от количества уникального контента на сайте и числа запросов по этому контенту в поисковиках.Слушай, не мог бы рассказать по подробнее про то как сайт попадает в топ, и как уходит оттуда. Какие действия нужно проделать (все что от меня зависит) чтобы для поисковиков сайт что-то значил? Заранее очень благодарен!
Слушай, не мог бы рассказать по подробнее про то как сайт попадает в топ, и как уходит оттуда. Какие действия нужно проделать (все что от меня зависит) чтобы для поисковиков сайт что-то значил? Заранее очень благодарен!
Цитата: moskit от 09.02.2016, 19:36Цитата: Pretorianпо умолчанию в ворпрес уже сделаны самые оптимальные настройки этого файла и ничего менять не нужно. Вы считаете себя умнее, тысячнего круга разработчиков опенсоурес ?
В вп хрен его знает какой там стандартный... но лучше закрыть все кроме тех страниц, какие тебе нужны (я так считаю), зачем поисковикам нужно индексировать страницу входа, регистрации и т.д. я хз как теперь они к этому относятся, думаю им пофигу, но все равно чтобы бяка не получилась лучше прикрыть.Цитата: Pretorianа тут уже не от робота зависит, а от количества уникального контента на сайте и числа запросов по этому контенту в поисковиках.Зависит, он например может нечаянно прописать запрет в роботсе на продвигаемую страницу, еще зависит самое главное то забыл, от конкурентов.
Кидай сайт в тему тс гляну если время будет
В вп хрен его знает какой там стандартный... но лучше закрыть все кроме тех страниц, какие тебе нужны (я так считаю), зачем поисковикам нужно индексировать страницу входа, регистрации и т.д. я хз как теперь они к этому относятся, думаю им пофигу, но все равно чтобы бяка не получилась лучше прикрыть.
Зависит, он например может нечаянно прописать запрет в роботсе на продвигаемую страницу, еще зависит самое главное то забыл, от конкурентов.
Кидай сайт в тему тс гляну если время будет
Цитата: ZION от 09.02.2016, 20:40Цитата: moskitКидай сайт в тему тс гляну если время будет
да я вроде на сайте все настроил, просто видел много споров о том что надо закрывать, а что не надо.
вот например я себе прописал вот такой код в роботе:User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */trackback
Disallow: */feed
Disallow: /feed/
Disallow: /tag
Host: strakhovka-ua.ru
Sitemap: http://strakhovka-ua.ru/sitemap.xmlUser-agent: Yandex
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */trackback
Disallow: */feed
Disallow: /feed/
Disallow: /tagUser-agent: Googlebot
Disallow: /tagЕсть ли что-то лишнее?
да я вроде на сайте все настроил, просто видел много споров о том что надо закрывать, а что не надо.
вот например я себе прописал вот такой код в роботе:
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */trackback
Disallow: */feed
Disallow: /feed/
Disallow: /tag
Host: strakhovka-ua.ru
Sitemap: http://strakhovka-ua.ru/sitemap.xml
User-agent: Yandex
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: */trackback
Disallow: */feed
Disallow: /feed/
Disallow: /tag
User-agent: Googlebot
Disallow: /tag
Есть ли что-то лишнее?
Цитата: Flint от 10.02.2016, 03:19ZION,
по факту, не стоит писать юзер агентов для Yandex и Googlebot (конкретно в твоём случае, т.к. страницы закрываемые у тебя - НЕ индивидуальны), ты итак для них всё закрыл в первой части. но некоторые сео-дрочеры так делают, так что каждый по своему.
ZION,
по факту, не стоит писать юзер агентов для Yandex и Googlebot (конкретно в твоём случае, т.к. страницы закрываемые у тебя - НЕ индивидуальны), ты итак для них всё закрыл в первой части. но некоторые сео-дрочеры так делают, так что каждый по своему.
Цитата: ZION от 10.02.2016, 22:29Flint, короче как я понял, никто не знает как правильно создавать этот файл) И вот у меня еще беда, сайт с уникальным контентом частично попал под фильтр гугл http://www.cy-pr.com/analysis/strakhovka-ua.ru (пишет что 5% страниц под фильтром), нужно ли что-то предпринимать?
Flint, короче как я понял, никто не знает как правильно создавать этот файл) И вот у меня еще беда, сайт с уникальным контентом частично попал под фильтр гугл http://www.cy-pr.com/analysis/strakhovka-ua.ru (пишет что 5% страниц под фильтром), нужно ли что-то предпринимать?
Цитата: Flint от 11.02.2016, 00:48Цитата: ZIONникто не знает как правильно создавать этот файл)
https://support.google.com/webmasters/answer/15618
4?hl=ru
https://support.google.com/webmasters/answer/18366
8?hl=ruне сказал бы, что никто не знает...
никакого фильтра нет: гугл отображает больше страниц, чем яша. советую каждое значение с подобных сервеисов - проверять руками.
https://support.google.com/webmasters/answer/15618
4?hl=ru
https://support.google.com/webmasters/answer/18366
8?hl=ru
не сказал бы, что никто не знает...
никакого фильтра нет: гугл отображает больше страниц, чем яша. советую каждое значение с подобных сервеисов - проверять руками.