Saya sedang memikirkan cara yang bagus untuk mengubah Daftar tupel dengan kunci duplikat [("a","b"),("c","d"),("a","f")]
menjadi peta ("a" -> ["b", "f"], "c" -> ["d"])
. Biasanya (dalam python), saya akan membuat peta kosong dan for-loop atas daftar dan memeriksa kunci duplikat. Tapi saya mencari sesuatu yang lebih scala-ish dan solusi cerdas di sini.
btw, jenis nilai kunci sebenarnya yang saya gunakan di sini adalah (Int, Node)
dan saya ingin mengubahnya menjadi peta(Int -> NodeSeq)
Map[String, SeqView[String,Seq[_]]]
... apakah ini disengaja?SeqView[String,Seq[_]]
juga aSeq[String]
. Masih di belakang saya rasa itu tidak berharga, jadi saya menghapus fileview
.mapValues
akan tetap melihat nilainya.x.groupBy(_._1).mapValues(_.map(_._2)).map(identity)
karenamapValues
ekspresi akan dihitung ulang setiap kali digunakan. Lihat issues.scala-lang.org/browse/SI-7005Untuk Karyawan Google yang sangat peduli dengan duplikat:
implicit class Pairs[A, B](p: List[(A, B)]) { def toMultiMap: Map[A, List[B]] = p.groupBy(_._1).mapValues(_.map(_._2)) } > List("a" -> "b", "a" -> "c", "d" -> "e").toMultiMap > Map("a" -> List("b", "c"), "d" -> List("e"))
sumber
Memulai
Scala 2.13
, sebagian besar koleksi disediakan dengan metode groupMap yang (seperti namanya) setara (lebih efisien)groupBy
diikuti olehmapValues
:List("a" -> "b", "c" -> "d", "a" -> "f").groupMap(_._1)(_._2) // Map[String,List[String]] = Map(a -> List(b, f), c -> List(d))
Ini:
group
s elemen berdasarkan bagian pertama dari tupel (bagian grup dari peta grup )map
S mengelompokkan nilai dengan mengambil bagian tupel keduanya (bagian peta dari grup Map )Ini setara
list.groupBy(_._1).mapValues(_.map(_._2))
tetapi dilakukan dalam satu lintasan melalui Daftar.sumber
Berikut adalah cara yang lebih idiomatis Scala untuk mengubah daftar tupel menjadi peta yang menangani kunci duplikat. Anda ingin menggunakan lipatan.
val x = List("a" -> "b", "c" -> "d", "a" -> "f") x.foldLeft(Map.empty[String, Seq[String]]) { case (acc, (k, v)) => acc.updated(k, acc.getOrElse(k, Seq.empty[String]) ++ Seq(v)) } res0: scala.collection.immutable.Map[String,Seq[String]] = Map(a -> List(b, f), c -> List(d))
sumber
Di bawah ini Anda dapat menemukan beberapa solusi. (GroupBy, FoldLeft, Agregat, Spark)
val list: List[(String, String)] = List(("a","b"),("c","d"),("a","f"))
Variasi GroupBy
Variasi Lipat Kiri
list.foldLeft[Map[String, List[String]]](Map())((acc, value) => { acc.get(value._1).fold(acc ++ Map(value._1 -> List(value._2))){ v => acc ++ Map(value._1 -> (value._2 :: v)) } })
Variasi Agregat - Mirip dengan lipatan Kiri
list.aggregate[Map[String, List[String]]](Map())( (acc, value) => acc.get(value._1).fold(acc ++ Map(value._1 -> List(value._2))){ v => acc ++ Map(value._1 -> (value._2 :: v)) }, (l, r) => l ++ r )
Variasi Spark - Untuk kumpulan data besar (Konversi ke RDD dan ke Peta Biasa dari RDD)
import org.apache.spark.rdd._ import org.apache.spark.{SparkContext, SparkConf} val conf: SparkConf = new SparkConf().setAppName("Spark").setMaster("local") val sc: SparkContext = new SparkContext (conf) // This gives you a rdd of the same result val rdd: RDD[(String, List[String])] = sc.parallelize(list).combineByKey( (value: String) => List(value), (acc: List[String], value) => value :: acc, (accLeft: List[String], accRight: List[String]) => accLeft ::: accRight ) // To convert this RDD back to a Map[(String, List[String])] you can do the following rdd.collect().toMap
sumber
Anda bisa mencobanya
scala> val b = new Array[Int](3) // b: Array[Int] = Array(0, 0, 0) scala> val c = b.map(x => (x -> x * 2)) // c: Array[(Int, Int)] = Array((1,2), (2,4), (3,6)) scala> val d = Map(c : _*) // d: scala.collection.immutable.Map[Int,Int] = Map(1 -> 2, 2 -> 4, 3 -> 6)
sumber