Kode dasar saya dibagi antara beberapa lingkungan (hidup, pementasan, dev) & sub-domain ( staging.example
, dev.example
, dll) dan hanya dua harus diizinkan untuk dijelajahi (yaitu. www.example
Dan example
). Biasanya saya akan memodifikasi /robots.txt
dan menambahkan Disallow: /
, tetapi karena basis kode bersama saya tidak dapat memodifikasi /robots.txt
tanpa mempengaruhi semua (sub) domain.
Ada ide bagaimana cara melakukannya?
sub.example.com/robots.txt
, jadi Anda perlu melakukan sesuatu untuk melayani respons yang berbeda tergantung pada subdomain. Anda tidak perlu menggunakan mod_rewrite, tetapi ini adalah teknik yang pernah saya lihat digunakan beberapa kali. Jikarobots.txt
dihasilkan secara dinamis maka Anda dapat mengubah respons dalam kode sisi server (mis. PHP).robots.txt
mungkin untuk mencegah pengindeksan, daripada merangkak, dengan mengirimX-Robots-Tag: noindex
header respons HTTP ketika subdomain tersebut diakses (yang juga bisa dilakukan dalam .htaccess). Meskipun saya pikir mencegah perayapan mungkin lebih baik. (?)robots.txt
hanya berfungsi jika ada di root.Anda perlu mengunggah yang terpisah
robots.txt
untuk setiap situs web subdomain, dari mana ia dapat diakseshttp://subdomain.example.com/robots.txt
.Tambahkan kode di bawah ini ke
robots.txt
Dan cara lain adalah Anda dapat memasukkan
<META>
tag Robots di semua halaman.sumber
/robots.txt
dan menambahkanDisallow: /
, tetapi karena basis kode bersama saya tidak dapat memodifikasi/robots.txt
tanpa mempengaruhi semua (sub) domain."Saya akan menghapus tag meta dari halaman html dan secara dinamis membangunnya tergantung pada subdomain Anda. misal kita menggunakan subdomain dev. untuk pengembangan. Jadi dalam acara pageload kita memiliki ini:
sumber