Apakah ada aplikasi gratis untuk mengunduh seluruh situs yang dapat diinstal pada Mac OS X 10.6?
macos
software-rec
website
download
Am1rr3zA
sumber
sumber
Anda dapat menggunakan wget dengan
--mirror
sakelar itu.halaman manual untuk sakelar tambahan di sini .
Untuk OSX, Anda dapat dengan mudah menginstal
wget
(dan alat-alat baris perintah lainnya) menggunakanbrew
.Jika menggunakan baris perintah terlalu sulit, maka CocoaWget adalah OS X GUI untuk
wget
. (Versi 2.7.0 termasuk wget 1.11.4 dari Juni 2008, tetapi berfungsi dengan baik.)sumber
wget --page-requisites --adjust-extension --convert-links
ketika saya ingin mengunduh halaman tunggal tetapi lengkap (artikel dll).SiteSuuker telah direkomendasikan dan melakukan pekerjaan yang layak untuk sebagian besar situs web.
Saya juga menemukan DeepVacuum sebagai alat yang berguna dan sederhana dengan beberapa "preset" yang berguna.
Tangkapan layar terlampir di bawah ini.
-
sumber
HTTrack
sumber
http://epicware.com/webgrabber.html
Saya menggunakan ini pada macan tutul, tidak yakin apakah itu akan bekerja pada macan tutul salju, tetapi patut dicoba
sumber
pavuk sejauh ini merupakan pilihan terbaik ... Ini adalah baris perintah tetapi memiliki GUI X-Windows jika Anda menginstal ini dari Disk Instalasi atau unduh. Mungkin seseorang bisa menulis shell Aqua untuk itu.
pavuk bahkan akan menemukan tautan dalam file javascript eksternal yang direferensikan dan mengarahkannya ke distribusi lokal jika Anda menggunakan opsi -mode sync atau -mode mirror.
Ini tersedia melalui proyek os x ports, instal port dan ketik
port install pavuk
Banyak opsi (hutan opsi).
sumber
Unduh Situs Web A1 untuk Mac
Ini memiliki preset untuk berbagai tugas pengunduhan situs umum dan banyak opsi bagi mereka yang ingin mengonfigurasi secara terperinci. Termasuk dukungan UI + CLI.
Mulai sebagai uji coba 30 hari setelah itu berubah menjadi "mode bebas" (masih cocok untuk situs web kecil di bawah 500 halaman)
sumber
Gunakan curl, itu diinstal secara default di OS X. wget tidak, setidaknya tidak di mesin saya, (Leopard).
Mengetik:
Akan mengunduh ke file, dump.html di folder Anda saat ini
sumber
curl
tidak melakukan unduhan berulang (artinya, ia tidak bisa mengikuti hyperlink untuk mengunduh sumber daya tertaut seperti halaman web lainnya). Dengan demikian, Anda tidak dapat benar-benar mencerminkan seluruh situs web dengan itu.