Situs yang saya kerjakan memindahkan subdomain ke subdomain lain melalui pengalihan 301. Namun ketika memeriksa robots.txt dari subdomain lama, ia memiliki robots.txt yang melarang perayap web mesin pencari untuk merayapnya.
Apakah ini langkah yang tepat? Saya percaya tidak karena perayap tidak akan dapat menjelajahi situs lama untuk melihat kode status 301.
seo
redirects
robots.txt
mat boy
sumber
sumber
Jawaban:
Kecurigaan Anda benar, dengan alasan yang tepat seperti yang Anda sebutkan. Jika Anda melarang robot mengakses situs lama, mereka tidak akan dapat melihat pengalihan 301.
sumber
Ya, persis - ini bukan "langkah yang tepat". Jika Anda menerapkan pengalihan 301, mungkin untuk mempertahankan SEO, maka memblokir URL yang sedang diarahkan akan mencegah mesin pencari melihat pengalihan dan mengindeks konten baru.
sumber
Saya akan tetap menggunakan robots.txt, tetapi pastikan bahwa halaman lama dan baru memiliki versi tag Canonical yang sesuai. Ini akan membantu mesin pencari memahami apa yang telah terjadi.
sumber