Saya mencoba menginstal Hadoop di versi Ubuntu 12.04. Mengikuti instruksi dari
http://michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ , saya menginstal java-6-openjdk
dari pusat perangkat lunak Ubuntu. Aku telah menetapkan java_home
di .bashrc
. Juga diatur java_home
di Hadoop conf/env.sh
. Saat memformat namenode, saya mendapatkan kesalahan berikut:
usr/lib/jvm/java-6-openjdk/bin/java no such file or directory.
Terima kasih. Tapi itu adalah OS 64bit.
Jawaban:
Panduan yang saya ikuti ketika saya memiliki 12,04 adalah:
Saya sebenarnya menentang MyLearning satu karena hal pertama yang direkomendasikan adalah Oracle Java 7 bukan OpenJDK 7, tetapi saya memiliki beberapa masalah dengan OpenJDK 7 ketika mencoba ini jadi saya harus pergi dengan Oracle.
Panduan ini sebagian besar lurus ke depan dan ini dia:
Instal Java
Buat pengguna Hadoop
Di mana hduser adalah pengguna Hadoop yang Anda inginkan.
Mengkonfigurasi SSH
Untuk memastikan bahwa instalasi SSH berjalan dengan baik, Anda dapat membuka terminal baru dan mencoba membuat sesi ssh menggunakan
hduser
perintah berikut:instal ulang ssh jika localhost tidak terhubung (Anda mungkin perlu menambahkan
hduser
sudo seperti langkah di bawah ini)Edit Sudoers
Tambahkan di akhir baris untuk menambahkan hduser ke sudoers
Untuk menyimpan tekan CTRL+ X, ketik Ydan tekanENTER
Nonaktifkan IPv6
atau
Salin baris berikut di akhir file:
Jika Anda menghadapi masalah saat memberi tahu Anda, Anda tidak memiliki izin, jalankan perintah sebelumnya dengan akun root (Dalam kasus sudo tidak cukup. Bagi saya itu)
Sekarang reboot.
Anda juga dapat melakukannya
sudo sysctl -p
tetapi saya lebih suka reboot.Setelah reboot, periksa untuk memastikan IPv6 tidak aktif:
seharusnya tertulis 1 . Jika tertulis 0 , Anda melewatkan sesuatu.
Menginstal Hadoop
Ada beberapa cara untuk melakukan ini, yang disarankan oleh Panduan adalah mengunduh dari situs Apache Hadoop dan mendekompres file di
hduser
folder rumah Anda . Ubah nama folder yang diekstraksi menjadihadoop
.Cara lain adalah dengan menggunakan PPA yang diuji untuk 12,04:
CATATAN: PPA mungkin berfungsi untuk beberapa orang dan bagi yang lain tidak. Yang saya coba adalah mengunduh dari situs resmi karena saya tidak tahu tentang PPA.
Memperbarui
$HOME/.bashrc
Anda perlu memperbarui
.bashrc
untukhduser
(dan untuk setiap pengguna yang Anda butuhkan untuk mengelola Hadoop). Untuk membuka.bashrc
file, Anda harus membukanya sebagai root:atau
Kemudian Anda akan menambahkan konfigurasi berikut di akhir
.bashrc
fileSekarang, jika Anda memiliki OpenJDK7, akan terlihat seperti ini:
Hal yang harus diperhatikan di sini adalah folder tempat Java berada dengan versi AMD64. Jika hal di atas tidak berhasil, Anda dapat mencoba mencari di folder tertentu atau mengatur Java yang akan digunakan dengan:
Sekarang untuk beberapa alias bermanfaat:
Mengkonfigurasi Hadoop
Berikut ini adalah file konfigurasi yang dapat kita gunakan untuk melakukan konfigurasi yang tepat. Beberapa file yang akan Anda gunakan dengan Hadoop adalah (Informasi lebih lanjut di situs ini ):
start-dfs.sh
- Mulai daemon Hadoop DFS, namenode dan datanode. Gunakan ini sebelum start-mapred.shstop-dfs.sh
- Menghentikan daemon Hadoop DFS.start-mapred.sh
- Memulai Hadoop Map / Reduce daemon, jobtracker dan tasktrackers.stop-mapred.sh
- Hentikan Peta Hadoop / Kurangi daemon.start-all.sh
- Mulai semua daemon Hadoop, namenode, datanode, jobtracker, dan tasktracker. Usang; gunakan start-dfs.sh lalu start-mapred.shstop-all.sh
- Hentikan semua daemon Hadoop. Usang; gunakan stop-mapred.sh lalu stop-dfs.shTetapi sebelum kita mulai menggunakannya, kita perlu memodifikasi beberapa file di
/conf
folder.hadoop-env.sh
Cari file
hadoop-env.sh
, kita hanya perlu memperbarui variabel JAVA_HOME dalam file ini:atau
atau dalam versi terbaru itu akan masuk
atau
Kemudian ubah baris berikut:
Untuk
Catatan: jika Anda mendapatkan
Error: JAVA_HOME is not set
Kesalahan saat memulai layanan, Anda lupa untuk membatalkan komentar pada baris sebelumnya (cukup hapus #).core-site.xml
Sekarang kita perlu membuat direktori temp untuk kerangka kerja Hadoop. Jika Anda memerlukan lingkungan ini untuk pengujian atau prototipe cepat (misalnya, mengembangkan program hadoop sederhana untuk pengujian pribadi Anda ...), saya sarankan untuk membuat folder ini di bawah
/home/hduser/
direktori, jika tidak, Anda harus membuat folder ini di tempat bersama di bawah folder bersama ( seperti / usr / local ...) tetapi Anda mungkin menghadapi beberapa masalah keamanan. Tetapi untuk mengatasi pengecualian yang mungkin disebabkan oleh keamanan (seperti java.io.IOException), saya telah membuat folder tmp di bawah ruang hduser.Untuk membuat folder ini, ketikkan perintah berikut:
Harap dicatat bahwa jika Anda ingin membuat pengguna admin lain (mis. Hduser2 dalam grup hadoop), Anda harus memberinya izin baca dan tulis pada folder ini menggunakan perintah berikut:
Sekarang, kita dapat membuka
hadoop/conf/core-site.xml
untuk mengedit entri hadoop.tmp.dir. Kami dapat membuka core-site.xml menggunakan editor teks:atau
Kemudian tambahkan konfigurasi berikut antara
<configure>
elemen xml :Sekarang edit
mapred-site.xml
Sekarang edit
hdfs-site.xml
Memformat NameNode
Sekarang Anda dapat mulai bekerja pada Node. Format pertama:
atau
Anda harus memformat NameNode di HDFS Anda. Anda seharusnya tidak melakukan langkah ini ketika sistem sedang berjalan. Biasanya dilakukan sekali saat pertama kali instalasi Anda.
Mulai Hadoop Cluster
Anda perlu menavigasi ke direktori hadoop / bin dan menjalankan
./start-all.sh
skrip.Jika Anda memiliki versi yang berbeda dari yang ditunjukkan dalam panduan (Yang kemungkinan besar akan Anda miliki jika melakukan ini dengan PPA atau versi yang lebih baru) maka cobalah dengan cara ini:
Ini akan memulai Namenode, Datanode, Jobtracker dan Tasktracker di mesin Anda.
Memeriksa apakah Hadoop sedang berjalan
Ada alat bagus yang disebut
jps
. Anda dapat menggunakannya untuk memastikan bahwa semua layanan sudah habis. Dalam jenis folder hadoop bin Anda:Seharusnya menunjukkan semua proses terkait Hadoop.
CATATAN: Karena ini dilakukan sekitar 6 bulan yang lalu untuk saya, jika ada bagian yang tidak berfungsi, beri tahu saya.
Hadoop Menggunakan Juju (Pesona Juju untuk Hadoop)
Diambil dari Charming Hadoop
Saya akan menganggap yang berikut ini sudah diatur:
~/.juju/environments.yaml
dengan informasi mengenai server yang akan Anda gunakan termasuk asal PPA.Oke sekarang ikuti langkah-langkah ini untuk menjalankan layanan Hadoop:
Bootstrap lingkungan untuk Hadoop
Tunggu sampai selesai, lalu periksa untuk melihat apakah terhubung dengan benar:
Menyebarkan Hadoop (Master dan Budak)
Buat Hubungan
Expose Hadoop (Karena Anda sudah menyebarkan dan membuat hubungan, layanan harus berjalan)
Dan periksa status untuk melihat apakah itu berfungsi dengan benar:
Hingga kini Anda memiliki Hadoop yang sedang berjalan. Ada banyak lagi hal yang dapat Anda lakukan yang dapat ditemukan di tautan yang disediakan atau di Juju Charm resmi untuk Hadoop
Untuk JuJu Charms terkini (Pengaturan, panduan langkah demi langkah, dan lainnya) Anda dapat mengunjungi: JuJu Charms dan membuat Lingkungan JuJu Anda sendiri dan melihat bagaimana setiap file diatur dan bagaimana setiap layanan terhubung.
sumber
hduser (ALL)=(ALL:ALL) ALL
melempar kesalahan sintaks ...hduser ALL=(ALL:ALL) ALL
, lepaskan pasangan kurung pertama.bachrc
- tunggu sampai Johann Sebastian mendengarnya. Oh, tunggu, dia tidak bisa ... karena dia tuli. :-DSaya berhasil menginstal Hadoop dengan menetapkan path
JAVA_HOME
sebagaiusr/lib/jvm/java-6-openjdk-amd64
.sumber
Berasal dari jawaban @Luis Alvarado , ini adalah versi saya untuk Ubuntu 14.04 dan Hadoop 2.5.1
Secara singkat
hduser
hduser
mulai sekaranghduser
untuk remote melalui ssh dengan pass-phrase-lessSelesai Semoga berhasil!
Langkah-langkah detail
Instal Java
Unduh dan pasang
Pastikan Anda telah menginstal Java7
kita harus
java
menunjuk/usr/lib/jvm/java-7-oracle/jre/bin/java
Persiapkan pengguna eksekutif untuk Hadoop
hduser
Buat pengguna
hduser
dalam gruphadoop
Memberikan
hduser
yang sudo hak istimewaEdit sudo
Tambahkan ke akhir baris ini
Beralih ke
hduser
mulai sekarangIzinkan
hduser
untuk remote melalui ssh dengan pass-phrase-lessInstal openssh
Hasilkan kunci publik / pribadi RSA untuk koneksi SSH; frasa sandi kosong sebagai
parameter -P ""
Pastikan
hduser
ssh dapat melakukan remote secara lokal tanpa kata sandiNonaktifkan IPv6
Edit file konfigurasi
Salin sampai akhir
Pastikan IPv6 dimatikan oleh reboot atau panggilan
Lalu telepon
Seharusnya mengatakan 1 yang berarti OK ^^
Unduh dan konfigurasi paket Hadoop
Unduh paket Hadoop 2.5.1 dari situs Apache Hadoop
URL langsung untuk paket ini adalah tautan ini
Jadi mari kita unduh ke
hduser
folder rumah, ekstrak, dan ganti namanya menjadihadoop
Pastikan kami menyimpan Hadoop di
hduser
rumahSiapkan jalur sistem $ HADOOP_HOME dan $ JAVA_HOME
Edit
hduser
file .bashrcMasukkan nilai akhir untuk
$HADOOP_HOME
dan$JAVA_HOME
Tambahkan
binary
folder Hadoop ke sistem$PATH
Buka terminal baru, masuk sebagai
hduser
, dan pastikan Anda memiliki $ HADOOP_HOME dengan perintah yang tersediaKita harus melihat jalur lengkap dari nama-nama itu.
Layanan Config Hadoop
Setiap komponen di Hadoop dikonfigurasi menggunakan file XML.
Properti umum masuk dalam core-site.xml
Properti HDFS masuk dalam hdfs-site.xml
Properti MapReduce masuk dalam mapred-site.xml
Semua file ini berada di folder $ HADOOP_HOME / etc / hadoop
Tetapkan, sekali lagi, JAVA_HOME
hadoop-env.sh
dengan mengedit barisTetapkan Hadoop
temp folder
danfile system
nama di core-site.xml atKita perlu menyiapkan ini
temp folder
sebagaimana dikonfigurasi di/home/hduser/tmp
Tentukan
file system
'sblock replication
di HDFS-site.xmlTentukan
map-reduce job
di mapred-site.xmlFormat
name node
Mulai layanan Hadoop
Panggilan
kedua perintah ini terletak di $ HADOOP_HOME / sbin yang telah kami tambahkan ke sistem $ PATH sebelumnya.
Pastikan layanan Hadoop dimulai dengan benar
kita harus lihat
sumber
mapred-site.xml
tidak ada di awal. Itu harus dibuat olehcp mapred-site.xml.template mapred-site.xml
Agar dapat menginstal
sun-java
denganapt-get
perintah, Anda perlu menambahkan baris ke file yang disebutsources.list
. File ini dapat ditemukan di/etc/apt/sources.list
.Buka file menggunakan perintah ini:
Kemudian di bagian paling bawah (bawah) dari file itu, Anda menyalin / menempelkan baris:
Sekarang tekan Ctrl+ Xuntuk keluar, dan yuntuk menyimpan.
Sekarang ketikkan perintah:
Dan ketika itu selesai, Anda dapat berhasil menjalankan perintah:
sumber
Untuk tutorial yang lebih terkini (tidak yakin tentang perbedaan) lihat tutorial video hadoop screencasts . Mereka menyediakan video dan perintah sebenarnya untuk menginstal di bawahnya. Juga jika Anda mengirim email kepada penulis, ia sangat senang untuk merespons dan membantu Anda jika Anda terjebak dengan apa pun.
Instruksi ini sebagian besar mirip dengan yang dibalas @Luis.
sumber