Saya menggunakan spark-csv untuk memuat data ke dalam DataFrame. Saya ingin melakukan kueri sederhana dan menampilkan konten:
val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").load("my.csv")
df.registerTempTable("tasks")
results = sqlContext.sql("select col from tasks");
results.show()
Col tampaknya terpotong:
scala> results.show();
+--------------------+
| col|
+--------------------+
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-06 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
+--------------------+
Bagaimana cara menampilkan konten lengkap kolom?
dataFrame.writeStream.outputMode("append").format("console").option("truncate", "false").start()
Jika Anda memasukkan
results.show(false)
, hasilnya tidak akan terpotongsumber
false
berlaku juga di sini.results.show(20, False)
. Yang Anda sebutkan akan memberikan kesalahan.scala
kedua opsi tersebut valid.results.show(false)
danresults.show(20, false)
Solusi lain baik. Jika ini adalah tujuan Anda:
Dua baris ini bermanfaat ...
Dengan bertahan, 2 tindakan pelaksana, hitung dan tunjukkan, lebih cepat & lebih efisien saat menggunakan
persist
ataucache
untuk mempertahankan struktur kerangka data yang mendasari sementara di dalam pelaksana. Lihat lebih lanjut tentang bertahan dan cache .sumber
Kode di bawah ini akan membantu untuk melihat semua baris tanpa pemotongan di setiap kolom
sumber
df
dikumpulkan dua kali?results.show(20, False)
atauresults.show(20, false)
tergantung pada apakah Anda menjalankannya di Java / Scala / Pythonsumber
results.show(false)
akan menampilkan konten kolom lengkap kepada Anda.Tampilkan metode dengan batas default ke 20, dan menambahkan angka sebelum
false
akan menampilkan lebih banyak baris.sumber
coba perintah ini:
sumber
df
dikumpulkan dua kali?results.show(20,false)
melakukan trik untuk saya di Scala.sumber
Dalam Databricks Anda dapat memvisualisasikan kerangka data dalam format tabel. Dengan perintah:
Akan terlihat seperti
sumber
Saya menggunakan plugin, ekstensi Chrome berfungsi dengan cukup baik:
[ https://userstyles.org/styles/157357/jupyter-notebook-wide[[1]
sumber
Coba ini di scala:
Metode show menerima integer dan nilai Boolean tetapi df.count mengembalikan Long ... jadi diperlukan pengecoran tipe
sumber
Dalam c #
Option("truncate", false)
tidak memotong data dalam output.sumber
Jawaban berikut berlaku untuk aplikasi Spark Streaming.
Dengan mengatur opsi "truncate" ke false, Anda dapat memberi tahu wastafel keluaran untuk menampilkan kolom lengkap.
sumber