Saya membuat situs untuk teman saya dan dia ingin dapat melihat kemajuan saya ketika saya bekerja di situs, jadi saya memutuskan untuk meletakkan situs di server di komputer saya dan memungkinkan akses dengan nama domain yang terdaftar untuk saya .
Ternyata saya lupa mengatur robots.txt
file untuk situs tersebut dan entah bagaimana Google mengindeks situs tersebut.
Pertanyaan saya adalah: Apa yang harus saya lakukan sekarang?
Seperti yang saya pahami, Google tidak suka konten duplikat dan teman saya bisa mengalami masalah ketika saya mengunggah situs baru ke servernya.
Saat ini situsnya saat ini, yang hanya memiliki halaman dalam proses, pertama di Google ketika mencari kata kunci yang relevan dan saya benar-benar tidak ingin merusak itu.
Apakah ada hal lain yang perlu saya perhatikan?
sumber
Jawaban:
Tambahkan file robots.txt ke server Anda, lalu minta halaman tersebut dihapus dari indeks Google menggunakan Alat Webmaster Google. Anda kemudian harus menyiapkan 301 redirect ke situs baru ketika ditayangkan.
sumber
1) Segera memblokir situs yang Anda miliki sekarang menggunakan robots.txt
2) Di situs pengembangan gunakan URL kanonik untuk menunjuk ke situs baru sehingga situs mendapatkan kredit untuk konten. Mereka bekerja lintas domain. Tag meta ini juga dapat membantu.
3) setelah Anda meluncurkan gunakan pengalihan 301 dari situs pengembangan ke situs baru sehingga Google tahu bahwa halaman tersebut telah pindah ke URL baru
sumber
Di masa mendatang, Anda harus menyiapkan Otentikasi Dasar di Apache atau IIS untuk halaman pengujian. Ini tidak hanya akan mencegah pengindeksan (bahkan dari laba-laba yang tidak menghormati
robots.txt
) tetapi juga akan mencegah pengguna acak untuk masuk ke situs Anda dan melihat apa yang Anda belum ingin publik.sumber
Hapus halaman atau situs dari hasil pencarian Google - http://www.google.com/support/webmasters/bin/answer.py?answer=164734
sumber