Ringkasan TLDR
Dalam rilis MongoDB modern, Anda dapat melakukan brute force ini $slice
hanya dengan hasil agregasi dasar. Untuk "besar" hasil, menjalankan query paralel, bukan untuk setiap pengelompokan (demonstrasi listing adalah pada akhir jawabannya), atau menunggu SERVER-9377 untuk menyelesaikan, yang akan memungkinkan "batas" untuk jumlah item untuk $push
ke Himpunan.
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$project": {
"books": { "$slice": [ "$books", 2 ] },
"count": 1
}}
])
Pratinjau MongoDB 3.6
Masih belum menyelesaikan SERVER-9377 , tetapi dalam rilis ini $lookup
memungkinkan opsi "tidak berkorelasi" baru yang mengambil "pipeline"
ekspresi sebagai argumen, bukan opsi "localFields"
dan "foreignFields"
. Ini kemudian memungkinkan "bergabung sendiri" dengan ekspresi pipeline lain, di mana kita dapat menerapkannya $limit
untuk mengembalikan hasil "top-n".
db.books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$lookup": {
"from": "books",
"let": {
"addr": "$_id"
},
"pipeline": [
{ "$match": {
"$expr": { "$eq": [ "$addr", "$$addr"] }
}},
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
],
"as": "books"
}}
])
Penambahan lainnya di sini tentu saja adalah kemampuan untuk menginterpolasi variabel melalui $expr
penggunaan $match
untuk memilih item yang cocok di "gabung", tetapi premis umumnya adalah "pipa dalam pipa" di mana konten dalam dapat difilter dengan kecocokan dari induk . Karena keduanya adalah "jalur pipa" sendiri, kami bisa$limit
masing masing menghasilkan secara terpisah.
Ini akan menjadi opsi terbaik berikutnya untuk menjalankan kueri paralel, dan sebenarnya akan lebih baik jika $match
diizinkan dan dapat menggunakan indeks dalam pemrosesan "sub-pipeline". Jadi, mana yang tidak menggunakan "batas untuk $push
" seperti yang diminta oleh masalah yang direferensikan, ini sebenarnya memberikan sesuatu yang seharusnya bekerja lebih baik.
Konten Asli
Anda tampaknya telah menemukan masalah "N" teratas. Di satu sisi, masalah Anda cukup mudah dipecahkan meskipun tidak dengan batasan persis seperti yang Anda minta:
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
])
Sekarang akan memberi Anda hasil seperti ini:
{
"result" : [
{
"_id" : "address1",
"books" : [
{
"book" : "book4",
"count" : 1
},
{
"book" : "book5",
"count" : 1
},
{
"book" : "book1",
"count" : 3
}
],
"count" : 5
},
{
"_id" : "address2",
"books" : [
{
"book" : "book5",
"count" : 1
},
{
"book" : "book1",
"count" : 2
}
],
"count" : 3
}
],
"ok" : 1
}
Jadi ini berbeda dari yang Anda tanyakan, sementara kami mendapatkan hasil teratas untuk nilai alamat, pemilihan "buku" yang mendasarinya tidak terbatas hanya pada jumlah hasil yang diminta.
Hal ini ternyata sangat sulit dilakukan, tetapi dapat dilakukan meskipun kerumitannya hanya bertambah dengan jumlah item yang perlu Anda padukan. Untuk membuatnya tetap sederhana, kita dapat menyimpan ini paling banyak pada 2 pertandingan:
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$unwind": "$books" },
{ "$sort": { "count": 1, "books.count": -1 } },
{ "$group": {
"_id": "$_id",
"books": { "$push": "$books" },
"count": { "$first": "$count" }
}},
{ "$project": {
"_id": {
"_id": "$_id",
"books": "$books",
"count": "$count"
},
"newBooks": "$books"
}},
{ "$unwind": "$newBooks" },
{ "$group": {
"_id": "$_id",
"num1": { "$first": "$newBooks" }
}},
{ "$project": {
"_id": "$_id",
"newBooks": "$_id.books",
"num1": 1
}},
{ "$unwind": "$newBooks" },
{ "$project": {
"_id": "$_id",
"num1": 1,
"newBooks": 1,
"seen": { "$eq": [
"$num1",
"$newBooks"
]}
}},
{ "$match": { "seen": false } },
{ "$group":{
"_id": "$_id._id",
"num1": { "$first": "$num1" },
"num2": { "$first": "$newBooks" },
"count": { "$first": "$_id.count" }
}},
{ "$project": {
"num1": 1,
"num2": 1,
"count": 1,
"type": { "$cond": [ 1, [true,false],0 ] }
}},
{ "$unwind": "$type" },
{ "$project": {
"books": { "$cond": [
"$type",
"$num1",
"$num2"
]},
"count": 1
}},
{ "$group": {
"_id": "$_id",
"count": { "$first": "$count" },
"books": { "$push": "$books" }
}},
{ "$sort": { "count": -1 } }
])
Jadi itu benar-benar akan memberi Anda 2 "buku" teratas dari dua entri "alamat" teratas.
Tapi untuk uang saya, tetap dengan bentuk pertama dan kemudian cukup "potong" elemen dari array yang dikembalikan untuk mengambil elemen "N" pertama.
Kode Demonstrasi
Kode demonstrasi sesuai untuk digunakan dengan versi LTS NodeJS saat ini dari rilis v8.x dan v10.x. Itu sebagian besar untuk async/await
sintaks, tetapi tidak ada yang benar-benar dalam aliran umum yang memiliki batasan seperti itu, dan beradaptasi dengan sedikit perubahan pada promise biasa atau bahkan kembali ke implementasi callback biasa.
index.js
const { MongoClient } = require('mongodb');
const fs = require('mz/fs');
const uri = 'mongodb://localhost:27017';
const log = data => console.log(JSON.stringify(data, undefined, 2));
(async function() {
try {
const client = await MongoClient.connect(uri);
const db = client.db('bookDemo');
const books = db.collection('books');
let { version } = await db.command({ buildInfo: 1 });
version = parseFloat(version.match(new RegExp(/(?:(?!-).)*/))[0]);
// Clear and load books
await books.deleteMany({});
await books.insertMany(
(await fs.readFile('books.json'))
.toString()
.replace(/\n$/,"")
.split("\n")
.map(JSON.parse)
);
if ( version >= 3.6 ) {
// Non-correlated pipeline with limits
let result = await books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$lookup": {
"from": "books",
"as": "books",
"let": { "addr": "$_id" },
"pipeline": [
{ "$match": {
"$expr": { "$eq": [ "$addr", "$$addr" ] }
}},
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 },
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]
}}
]).toArray();
log({ result });
}
// Serial result procesing with parallel fetch
// First get top addr items
let topaddr = await books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]).toArray();
// Run parallel top books for each addr
let topbooks = await Promise.all(
topaddr.map(({ _id: addr }) =>
books.aggregate([
{ "$match": { addr } },
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]).toArray()
)
);
// Merge output
topaddr = topaddr.map((d,i) => ({ ...d, books: topbooks[i] }));
log({ topaddr });
client.close();
} catch(e) {
console.error(e)
} finally {
process.exit()
}
})()
books.json
{ "addr": "address1", "book": "book1" }
{ "addr": "address2", "book": "book1" }
{ "addr": "address1", "book": "book5" }
{ "addr": "address3", "book": "book9" }
{ "addr": "address2", "book": "book5" }
{ "addr": "address2", "book": "book1" }
{ "addr": "address1", "book": "book1" }
{ "addr": "address15", "book": "book1" }
{ "addr": "address9", "book": "book99" }
{ "addr": "address90", "book": "book33" }
{ "addr": "address4", "book": "book3" }
{ "addr": "address5", "book": "book1" }
{ "addr": "address77", "book": "book11" }
{ "addr": "address1", "book": "book1" }
Kueri di bawah ini akan memberikan hasil yang sama persis seperti yang diberikan dalam respons yang diinginkan:
Responnya akan terlihat seperti di bawah ini:
sumber