TLDR-Zusammenfassung
In modernen MongoDB-Releases können Sie dies mit $slice
brutal erzwingen direkt neben dem grundlegenden Aggregationsergebnis. Führen Sie für "große" Ergebnisse stattdessen parallele Abfragen für jede Gruppierung aus (eine Demonstrationsauflistung befindet sich am Ende der Antwort) oder warten Sie, bis SERVER-9377 aufgelöst ist, was eine "Begrenzung" der Anzahl der Elemente für $push
zu einem Array.
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$project": {
"books": { "$slice": [ "$books", 2 ] },
"count": 1
}}
])
MongoDB 3.6 Vorschau
SERVER-9377 wird immer noch nicht behoben, aber in dieser Version $lookup
ermöglicht eine neue "nicht korrelierte" Option, die eine "pipeline"
akzeptiert Ausdruck als Argument anstelle von "localFields"
und "foreignFields"
Optionen. Dies ermöglicht dann einen "Self-Join" mit einem anderen Pipeline-Ausdruck, in dem wir $limit
anwenden können um die "Top-n"-Ergebnisse zurückzugeben.
db.books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$lookup": {
"from": "books",
"let": {
"addr": "$_id"
},
"pipeline": [
{ "$match": {
"$expr": { "$eq": [ "$addr", "$$addr"] }
}},
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
],
"as": "books"
}}
])
Die andere Ergänzung hier ist natürlich die Möglichkeit, die Variable durch $expr
zu interpolieren mit $match
um die übereinstimmenden Elemente im "Join" auszuwählen, aber die allgemeine Prämisse ist eine "Pipeline innerhalb einer Pipeline", in der der innere Inhalt nach Übereinstimmungen vom übergeordneten Element gefiltert werden kann. Da beide selbst "Pipelines" sind, können wir $limit
verwenden jedes Ergebnis separat.
Dies wäre die nächstbeste Option zum Ausführen paralleler Abfragen, und tatsächlich wäre es besser, wenn $match
erlaubt und in der Lage waren, einen Index in der "Sub-Pipeline"-Verarbeitung zu verwenden. Was also nicht das "Limit to $push
verwendet " wie die referenzierte Ausgabe fragt, liefert es tatsächlich etwas, das besser funktionieren sollte.
Ursprünglicher Inhalt
Sie scheinen über das Top-„N“-Problem gestolpert zu sein. In gewisser Weise ist Ihr Problem ziemlich einfach zu lösen, allerdings nicht mit der genauen Einschränkung, nach der Sie fragen:
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
])
Jetzt erhalten Sie ein Ergebnis wie dieses:
{
"result" : [
{
"_id" : "address1",
"books" : [
{
"book" : "book4",
"count" : 1
},
{
"book" : "book5",
"count" : 1
},
{
"book" : "book1",
"count" : 3
}
],
"count" : 5
},
{
"_id" : "address2",
"books" : [
{
"book" : "book5",
"count" : 1
},
{
"book" : "book1",
"count" : 2
}
],
"count" : 3
}
],
"ok" : 1
}
Dies unterscheidet sich also von Ihrer Frage darin, dass wir zwar die besten Ergebnisse für die Adresswerte erhalten, die zugrunde liegende „Bücher“-Auswahl jedoch nicht nur auf eine erforderliche Anzahl von Ergebnissen beschränkt ist.
Dies stellt sich als sehr schwierig heraus, aber es ist möglich, obwohl die Komplexität mit der Anzahl der Elemente, die Sie zusammenbringen müssen, zunimmt. Um es einfach zu halten, können wir dies bei höchstens 2 Übereinstimmungen belassen:
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$unwind": "$books" },
{ "$sort": { "count": 1, "books.count": -1 } },
{ "$group": {
"_id": "$_id",
"books": { "$push": "$books" },
"count": { "$first": "$count" }
}},
{ "$project": {
"_id": {
"_id": "$_id",
"books": "$books",
"count": "$count"
},
"newBooks": "$books"
}},
{ "$unwind": "$newBooks" },
{ "$group": {
"_id": "$_id",
"num1": { "$first": "$newBooks" }
}},
{ "$project": {
"_id": "$_id",
"newBooks": "$_id.books",
"num1": 1
}},
{ "$unwind": "$newBooks" },
{ "$project": {
"_id": "$_id",
"num1": 1,
"newBooks": 1,
"seen": { "$eq": [
"$num1",
"$newBooks"
]}
}},
{ "$match": { "seen": false } },
{ "$group":{
"_id": "$_id._id",
"num1": { "$first": "$num1" },
"num2": { "$first": "$newBooks" },
"count": { "$first": "$_id.count" }
}},
{ "$project": {
"num1": 1,
"num2": 1,
"count": 1,
"type": { "$cond": [ 1, [true,false],0 ] }
}},
{ "$unwind": "$type" },
{ "$project": {
"books": { "$cond": [
"$type",
"$num1",
"$num2"
]},
"count": 1
}},
{ "$group": {
"_id": "$_id",
"count": { "$first": "$count" },
"books": { "$push": "$books" }
}},
{ "$sort": { "count": -1 } }
])
Das gibt Ihnen also tatsächlich die Top 2 "Bücher" aus den Top zwei "Adressen"-Einträgen.
Aber für mein Geld, bleiben Sie bei der ersten Form und "slicen" Sie dann einfach die Elemente des Arrays, die zurückgegeben werden, um die ersten "N" Elemente zu nehmen.
Demonstrationscode
Der Democode ist für die Verwendung mit aktuellen LTS-Versionen von NodeJS aus den Releases v8.x und v10.x geeignet. Das gilt hauptsächlich für async/await
Syntax, aber es gibt nichts wirklich innerhalb des allgemeinen Flusses, der eine solche Einschränkung hat, und passt sich mit geringfügigen Änderungen an einfache Versprechungen oder sogar zurück an die einfache Callback-Implementierung an.
index.js
const { MongoClient } = require('mongodb');
const fs = require('mz/fs');
const uri = 'mongodb://localhost:27017';
const log = data => console.log(JSON.stringify(data, undefined, 2));
(async function() {
try {
const client = await MongoClient.connect(uri);
const db = client.db('bookDemo');
const books = db.collection('books');
let { version } = await db.command({ buildInfo: 1 });
version = parseFloat(version.match(new RegExp(/(?:(?!-).)*/))[0]);
// Clear and load books
await books.deleteMany({});
await books.insertMany(
(await fs.readFile('books.json'))
.toString()
.replace(/\n$/,"")
.split("\n")
.map(JSON.parse)
);
if ( version >= 3.6 ) {
// Non-correlated pipeline with limits
let result = await books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$lookup": {
"from": "books",
"as": "books",
"let": { "addr": "$_id" },
"pipeline": [
{ "$match": {
"$expr": { "$eq": [ "$addr", "$$addr" ] }
}},
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 },
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]
}}
]).toArray();
log({ result });
}
// Serial result procesing with parallel fetch
// First get top addr items
let topaddr = await books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]).toArray();
// Run parallel top books for each addr
let topbooks = await Promise.all(
topaddr.map(({ _id: addr }) =>
books.aggregate([
{ "$match": { addr } },
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]).toArray()
)
);
// Merge output
topaddr = topaddr.map((d,i) => ({ ...d, books: topbooks[i] }));
log({ topaddr });
client.close();
} catch(e) {
console.error(e)
} finally {
process.exit()
}
})()
books.json
{ "addr": "address1", "book": "book1" }
{ "addr": "address2", "book": "book1" }
{ "addr": "address1", "book": "book5" }
{ "addr": "address3", "book": "book9" }
{ "addr": "address2", "book": "book5" }
{ "addr": "address2", "book": "book1" }
{ "addr": "address1", "book": "book1" }
{ "addr": "address15", "book": "book1" }
{ "addr": "address9", "book": "book99" }
{ "addr": "address90", "book": "book33" }
{ "addr": "address4", "book": "book3" }
{ "addr": "address5", "book": "book1" }
{ "addr": "address77", "book": "book11" }
{ "addr": "address1", "book": "book1" }