Saya baru dalam hal ini dan juga seorang pengembang PHP berusia 19 tahun yang baru saja diterima jadi saya tidak yakin bagaimana cara kerjanya. Banyak perusahaan saat mengembangkan situs web mereka menyembunyikan situs mereka agar tidak diindeks. Apa sajakah cara html5 / css dan kemudian pekerjaan php / mysql disembunyikan dari mesin pencari? Jika saya tidak salah, ini adalah tekniknya:
Pengembangan offline: menggunakan penyimpanan lokal untuk membuat html / css; tidak yakin bagaimana PHP / mysql akan bekerja dengan itu.
Menggunakan .htaccess untuk mencegah akses
Menggunakan VPN untuk mencegah akses.
Jawaban:
Praktik terbaik adalah memiliki perkiraan tumpukan produksi pada mesin pengembang lokal Anda. Ini biasanya termasuk basis data, server web dan kode khusus Anda. Lakukan semua perkembangan Anda di sana. Jangan pernah mengedit kode di server produksi.
Ketika pemangku kepentingan bisnis Anda siap untuk fungsionalitas untuk ditayangkan, dorong kode Anda dari mesin lokal Anda ke server produksi. Anda mungkin menggunakan server uji sehingga pemangku kepentingan internal dapat melihat pratinjau perubahan Anda sebelum ditayangkan.
Anda harus yakin untuk menggunakan sistem kontrol versi untuk mengelola kode Anda. Git dan Mercurial adalah opsi solid.
sumber
Hanya meminta spider pencarian untuk tidak mengindeks situs Anda adalah pertahanan yang sangat lemah, jika ada.
Cara yang biasa dilakukan untuk hal ini adalah sebagai berikut:
Bagaimana Anda akan mengatur hal-hal ini: Jika Anda menjalankan layak * distribusi nix, ia datang dengan manajer paket (
apt
,port-install
,rpm
, dll); gunakan ini untuk menginstal komponen yang Anda butuhkan, dan baca dokumentasi. Mintalah bantuan sysadmin jika Anda tidak dapat menemukannya sendiri.sumber
Untuk perayap sopan (mis. Mesin pencari utama), Anda dapat menawarkan
/robots.txt
file dengan:Tentu saja itu hanya saran, dan tidak akan melarang orang mengunjungi situs jika mereka tahu URL. Pendekatan yang lebih baik adalah meletakkan situs di belakang jenis login jika Anda memerlukan akses dari internet secara luas, atau hanya meng-host server di server web internal.
sumber
Dalam semangat "masuk dengan lebih banyak pengetahuan":
Html / Css dapat disembunyikan
robots.txt
, tetapi pastikan untuk mengubah file tersebut saat Anda mendorong situs ke produksi.robots.txt
tidak mencegah orang acak menebak situs web pengembangan (jika itu dapat dilihat oleh seluruh dunia)..htaccess
dapat digunakan untuk menambahkan kombo nama pengguna / kata sandi ke situs apa pun yang sedang dikembangkan.Berikut adalah contoh bagaimana Anda dapat menggunakan VPN:
Semua permintaan pada VPN melalui firewall. Firewall itu (menjalankan beberapa perangkat lunak seperti pfSense ) memeriksa permintaan situs web dan melakukan pengalihan berdasarkan url. Misalnya, url http: //example.com.staging akan mengarahkan ke versi example.com di server pementasan Anda, dan url http: //example.com.development akan mengarah ke versi example.com di server pengembangan Anda.
Karena semua ini ada di VPN pribadi, tidak ada situs web ini yang dapat diakses dari dunia luar.
Juga, untuk memperjelas beberapa hal dengan pertanyaan awal Anda. Pekerjaan php / mysql sedang dilakukan di sisi server , sehingga perayap web, browser, dll. Tidak pernah melihat kode - mereka hanya melihat output dari kode (yaitu, jika Anda telah mengkonfigurasi server Anda dengan benar dan tidak melakukan rendering file .php sebagai teks).
Saya yakin saya salah membaca pertanyaan Anda, tetapi saya menemukan penggunaan frasa "penyimpanan lokal" tidak jelas. LocalStorage juga dapat merujuk pada teknologi HTML5 untuk menyimpan aset secara lokal di mesin klien. Ini tidak digunakan untuk rendering html / css, itu hanya datastore (browser membuat html / css). Penyimpanan lokal biasanya tidak ada hubungannya dengan bagaimana perusahaan membuat situs web tersembunyi dalam pengembangan.
File PHP dapat dilihat secara lokal jika Anda menjalankan server web pada mesin Anda dan file-file tersebut ada di direktori yang sesuai (biasanya
htdocs
direktori jika menjalankan Apache).sumber
Mesin pencari berfungsi menggunakan spider : skrip yang merayapi web dari satu tautan ke tautan lainnya. Jika situs Anda baru dan tidak ada tautan ke sana dari tempat lain, tidak ada yang menemukan Anda. Itu, ditambah file robots.txt yang dikonfigurasikan untuk menjaga agar laba-laba yang entah bagaimana berkeliaran di situs Anda tidak menggunakannya, seharusnya sudah cukup.
sumber