Salin semua file dari lokasi folder HTTP ke folder lokal

8

Saya seorang mahasiswa dan perlu menarik banyak hal dari situs web profesor saya, lebih disukai mempertahankan beberapa struktur folder.

Saya sedang mengerjakan kotak Windows dan memiliki akses ke Windows XP, Windows 7, dan Windows Server 2008 R2. Kembali pada hari (2-3 tahun yang lalu) saya mencoba beberapa utilitas yang mencerminkan halaman web dan hal semacam itu dan untuk berbagai alasan mereka tidak pernah berfungsi dengan benar, atau saya tidak pernah bisa mendapatkan apa yang saya inginkan dari mereka.

Jadi, misalnya, folder ini:

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

Intinya, susah sekali mencoba mengunduh secara manual untuk digunakan nanti.

Saya sudah mencoba utilitas ini dan entah itu berlebihan, atau tidak-cukup-cukup-membunuh karena saya tidak pernah bisa mendapatkannya dengan hanya mengunduh file ke hard drive saya.

Idealnya, saya ingin memindai folder secara rekursif, membuat ulang struktur folder di beberapa folder tertentu, lalu menyalin file dari server jauh ke folder yang sesuai pada mesin lokal saya.

YetAnotherRandomUser
sumber
Apakah folder server dapat ditelusuri atau ditautkan dari halaman? Ingatlah bahwa biasanya "folder http" tidak dapat ditelusuri.
LatinSuD
1
+1 4 tidak-cukup-cukup-bunuh, ha ha
FIV

Jawaban:

9

Utilitas paling sederhana untuk mengunduh file dari situs web secara rekursif adalah WGET:

http://gnuwin32.sourceforge.net/packages/wget.htm

Oleg
sumber
Menggunakan wget akan memberi Anda file bernama setelah halaman web (direktori dalam kasus kami), hanya berisi html.
user3490458
1
Mengerti. wget -r. Keren..! :)
Brijesh Valera
Sudah mencoba alat ini dan ini luar biasa. Demi orang lain, Anda membuka C: \ Program Files (x86) \ GnuWin32 \ bin \ dengan Command prompt, dan wget -r url_to_download_files
Jorge
Baru menemukan ini Desember 2017 di sourceforge.net/projects/visualwget - dan itu bekerja dengan baik. TNX.
SDsolar
wget crash pada file besar.
Juan Jimenez
5

Lihat menggunakan HTTrack :

Ini memungkinkan Anda untuk mengunduh situs World Wide Web dari Internet ke direktori lokal, membangun semua direktori secara rekursif, mendapatkan HTML, gambar, dan file lain dari server ke komputer Anda. HTTrack mengatur struktur tautan relatif situs asli. Cukup buka halaman situs web "mirrored" di browser Anda, dan Anda dapat menelusuri situs dari tautan ke tautan, seolah-olah Anda melihatnya secara online. HTTrack juga dapat memperbarui situs cermin yang ada, dan melanjutkan unduhan yang terputus. HTTrack sepenuhnya dapat dikonfigurasi, dan memiliki sistem bantuan terintegrasi.

pengguna229640
sumber
Itulah kegunaan yang saya katakan saya coba dan tidak bisa mulai bekerja. : - / Deskripsi terdengar hebat tetapi saya tidak tahu cara membuatnya bekerja.
YetAnotherRandomUser
Dari semua solusi, ini adalah satu-satunya yang bekerja untuk saya (di Mac OSX).
user3490458
Ini juga bekerja untuk saya seperti pesona (y).
NullPointer