Siapa di antara Anda di forum ini yang menggunakan "> R dengan multicore , paket salju , atau CUDA , jadi untuk kalkulasi lanjutan yang membutuhkan lebih banyak daya daripada CPU workstation? Di perangkat keras mana Anda menghitung skrip ini? Di rumah / kantor atau apakah Anda memiliki akses pusat data di suatu tempat?
Latar belakang pertanyaan-pertanyaan ini adalah sebagai berikut: Saya sedang menulis M.Sc. tesis tentang R dan Komputasi Kinerja Tinggi dan memerlukan pengetahuan yang kuat tentang siapa yang benar-benar menggunakan R. Saya membaca bahwa R memiliki 1 juta pengguna pada tahun 2008, tetapi itu kurang lebih satu-satunya statistik pengguna yang dapat saya temukan pada topik ini - jadi saya harap Anda jawaban!
Hormat saya Heinrich
Jawaban:
Saya adalah seorang ahli biologi yang memodelkan efek variasi iklim antar-tahunan terhadap dinamika populasi beberapa spesies yang bermigrasi. Kumpulan data saya sangat besar (data intensif spasial) jadi saya menjalankan kode R menggunakan
multicore
server Amazon EC2. Jika tugas saya sangat intensif sumber daya, saya akan memilih contoh Memori Besar Empat Kali Lipat Ekstra Besar yang dilengkapi dengan 26 unit CPU, 8 core, dan 68G RAM. Dalam hal ini saya biasanya menjalankan 4-6 skrip secara bersamaan, yang masing-masing bekerja melalui kumpulan data yang cukup besar. Untuk tugas yang lebih kecil, saya memilih server dengan 4-6 core dan sekitar 20 gigs RAM.Saya meluncurkan instance ini (biasanya spot instance karena mereka lebih murah tetapi dapat menghentikan kapan saja tingkat saat ini melebihi apa yang saya pilih untuk membayar), jalankan skrip selama beberapa jam, dan kemudian hentikan instance setelah skrip saya selesai. Adapun gambar mesin (Amazon Machine Image), saya mengambil seseorang menginstal Ubuntu, memperbarui R, menginstal paket saya, dan menyimpannya sebagai AMI pribadi saya di ruang penyimpanan S3 saya.
Mesin pribadi saya adalah macbook pro dualcore dan memiliki kesulitan forking panggilan multicore. Jangan ragu untuk mengirim email jika Anda memiliki pertanyaan lain.
sumber
Karena Anda bertanya, saya menggunakan paket foreach dengan backend multicore . Saya menggunakannya untuk membagi beban kerja paralel memalukan di beberapa core pada satu kotak Nehalem dengan banyak RAM. Ini bekerja cukup baik untuk tugas yang ada.
sumber
Saya bekerja di akademi dan saya menggunakan multicore untuk beberapa tolok ukur yang berat dari algoritma pembelajaran mesin, kebanyakan di Sun Constellation berdasarkan Opteron kami dan beberapa kluster yang lebih kecil; itu juga masalah paralel yang agak memalukan sehingga peran utama multicore adalah untuk menyebarkan komputasi melalui node tanpa penggandaan penggunaan memori.
sumber
Saya menggunakan salju dan salju untuk paralelisasi saja pada cluster HPC dan CUDA untuk pemrosesan paralel data yang halus. Saya di Epidemiologi melakukan pemodelan penularan penyakit. Jadi saya menggunakan keduanya.
sumber