robots.txt + noindex ?

Якщо на вашому сайті є сторінки, які ви не хочете, щоб іх індексував Гугл, наприклад сторінки сортування товарів.

Тобто, якщо є сторінки, де, на вашу думку може бути чи дубль контенту, чи не зовсім якісний для Гугла контент, то що ви робите зазвичай?

Закриваєте цю сторінку від індексації за допомогою директиви noindex

Але! Якщо ці самі сторінки ви ще й в robots.txt закриєте від сканування гуглботом, тоді гугл не зможе виявити цей noindex на таких сторінках і вони можуть попасти в результати пошуку 🙁

Отаке…

І потраплять вони в індекс, і буде гугл карати ваш сайт за неякісний контент…

Тому тільки noindex в таких випадках — без robots.txt

З повагою, Сергій Пастухов, інтернет-агентство Net Adaptation

P.S. Прасувальні дошки — це сноуборди, які забули свою мрію і знайшли «нормальну» роботу

Оставить комментарий