Solange Ihre Daten über eindeutige Sensor- und Tag-Messwerte pro Dokument verfügen, die bis heute dem entsprechen, was Sie präsentiert haben, benötigen Sie $unwind
überhaupt.
Alles, was Sie wirklich brauchen, ist eine einzige $group
:
db.endpoints.aggregate([
// In reality you would $match to limit the selection of documents
{ "$match": {
"DateTime": { "$gte": new Date("2018-05-01"), "$lt": new Date("2018-06-01") }
}},
{ "$group": {
"_id": "$EndpointId",
"FirstActivity" : { "$min" : "$DateTime" },
"LastActivity" : { "$max" : "$DateTime" },
"RequestCount": { "$sum": 1 },
"TagCount": {
"$sum": {
"$size": { "$setUnion": ["$Tags.Uid",[]] }
}
},
"SensorCount": {
"$sum": {
"$sum": {
"$map": {
"input": { "$setUnion": ["$Tags.Uid",[]] },
"as": "tag",
"in": {
"$size": {
"$reduce": {
"input": {
"$filter": {
"input": {
"$map": {
"input": "$Tags",
"in": {
"Uid": "$$this.Uid",
"Type": "$$this.Sensors.Type"
}
}
},
"cond": { "$eq": [ "$$this.Uid", "$$tag" ] }
}
},
"initialValue": [],
"in": { "$setUnion": [ "$$value", "$$this.Type" ] }
}
}
}
}
}
}
}
}}
])
Oder wenn Sie tatsächlich diese „eindeutigen“ Werte von „Sensoren“ und „Tags“ aus verschiedenen Dokumenten sammeln müssen, dann benötigen Sie immer noch anfängliche $unwind
Anweisungen, um die richtige Gruppierung zu erhalten, aber bei weitem nicht so viele, wie Sie derzeit haben:
db.endpoints.aggregate([
// In reality you would $match to limit the selection of documents
{ "$match": {
"DateTime": { "$gte": new Date("2018-05-01"), "$lt": new Date("2018-06-01") }
}},
{ "$unwind": "$Tags" },
{ "$unwind": "$Tags.Sensors" },
{ "$group": {
"_id": {
"EndpointId": "$EndpointId",
"Uid": "$Tags.Uid",
"Type": "$Tags.Sensors.Type"
},
"FirstActivity": { "$min": "$DateTime" },
"LastActivity": { "$max": "$DateTime" },
"RequestCount": { "$addToSet": "$_id" }
}},
{ "$group": {
"_id": {
"EndpointId": "$_id.EndpointId",
"Uid": "$_id.Uid",
},
"FirstActivity": { "$min": "$FirstActivity" },
"LastActivity": { "$max": "$LastActivity" },
"count": { "$sum": 1 },
"RequestCount": { "$addToSet": "$RequestCount" }
}},
{ "$group": {
"_id": "$_id.EndpointId",
"FirstActivity": { "$min": "$FirstActivity" },
"LastActivity": { "$max": "$LastActivity" },
"TagCount": { "$sum": 1 },
"SensorCount": { "$sum": "$count" },
"RequestCount": { "$addToSet": "$RequestCount" }
}},
{ "$addFields": {
"RequestCount": {
"$size": {
"$reduce": {
"input": {
"$reduce": {
"input": "$RequestCount",
"initialValue": [],
"in": { "$setUnion": [ "$$value", "$$this" ] }
}
},
"initialValue": [],
"in": { "$setUnion": [ "$$value", "$$this" ] }
}
}
}
}}
],{ "allowDiskUse": true })
Und ab MongoDB 4.0 können Sie $toString
verwenden
auf der ObjectId
innerhalb von _id
und führen Sie einfach die eindeutigen Schlüssel für diese zusammen, um den RequestCount
beizubehalten mit $mergeObjects
. Dies ist sauberer und etwas besser skalierbar, als verschachtelte Array-Inhalte zu pushen und zu glätten
db.endpoints.aggregate([
// In reality you would $match to limit the selection of documents
{ "$match": {
"DateTime": { "$gte": new Date("2018-05-01"), "$lt": new Date("2018-06-01") }
}},
{ "$unwind": "$Tags" },
{ "$unwind": "$Tags.Sensors" },
{ "$group": {
"_id": {
"EndpointId": "$EndpointId",
"Uid": "$Tags.Uid",
"Type": "$Tags.Sensors.Type"
},
"FirstActivity": { "$min": "$DateTime" },
"LastActivity": { "$max": "$DateTime" },
"RequestCount": {
"$mergeObjects": {
"$arrayToObject": [[{ "k": { "$toString": "$_id" }, "v": 1 }]]
}
}
}},
{ "$group": {
"_id": {
"EndpointId": "$_id.EndpointId",
"Uid": "$_id.Uid",
},
"FirstActivity": { "$min": "$FirstActivity" },
"LastActivity": { "$max": "$LastActivity" },
"count": { "$sum": 1 },
"RequestCount": { "$mergeObjects": "$RequestCount" }
}},
{ "$group": {
"_id": "$_id.EndpointId",
"FirstActivity": { "$min": "$FirstActivity" },
"LastActivity": { "$max": "$LastActivity" },
"TagCount": { "$sum": 1 },
"SensorCount": { "$sum": "$count" },
"RequestCount": { "$mergeObjects": "$RequestCount" }
}},
{ "$addFields": {
"RequestCount": {
"$size": {
"$objectToArray": "$RequestCount"
}
}
}}
],{ "allowDiskUse": true })
Beide Formen geben dieselben Daten zurück, obwohl die Reihenfolge der Schlüssel im Ergebnis variieren kann:
{
"_id" : "89799bcc-e86f-4c8a-b340-8b5ed53caf83",
"FirstActivity" : ISODate("2018-05-06T19:05:02.666Z"),
"LastActivity" : ISODate("2018-05-06T19:05:02.666Z"),
"RequestCount" : 2,
"TagCount" : 4,
"SensorCount" : 16
}
Das Ergebnis ergibt sich aus diesen Beispieldokumenten, die Sie ursprünglich als Beispielquelle in der ursprünglichen Frage zum Thema angegeben haben :
{
"_id" : ObjectId("5aef51dfaf42ea1b70d0c4db"),
"EndpointId" : "89799bcc-e86f-4c8a-b340-8b5ed53caf83",
"DateTime" : ISODate("2018-05-06T19:05:02.666Z"),
"Url" : "test",
"Tags" : [
{
"Uid" : "C1:3D:CA:D4:45:11",
"Type" : 1,
"DateTime" : ISODate("2018-05-06T19:05:02.666Z"),
"Sensors" : [
{
"Type" : 1,
"Value" : NumberDecimal("-95")
},
{
"Type" : 2,
"Value" : NumberDecimal("-59")
},
{
"Type" : 3,
"Value" : NumberDecimal("11.029802536740132")
},
{
"Type" : 4,
"Value" : NumberDecimal("27.25")
},
{
"Type" : 6,
"Value" : NumberDecimal("2924")
}
]
},
{
"Uid" : "C1:3D:CA:D4:45:11",
"Type" : 1,
"DateTime" : ISODate("2018-05-06T19:05:02.666Z"),
"Sensors" : [
{
"Type" : 1,
"Value" : NumberDecimal("-95")
},
{
"Type" : 2,
"Value" : NumberDecimal("-59")
},
{
"Type" : 3,
"Value" : NumberDecimal("11.413037961112279")
},
{
"Type" : 4,
"Value" : NumberDecimal("27.25")
},
{
"Type" : 6,
"Value" : NumberDecimal("2924")
}
]
},
{
"Uid" : "E5:FA:2A:35:AF:DD",
"Type" : 1,
"DateTime" : ISODate("2018-05-06T19:05:02.666Z"),
"Sensors" : [
{
"Type" : 1,
"Value" : NumberDecimal("-97")
},
{
"Type" : 2,
"Value" : NumberDecimal("-58")
},
{
"Type" : 3,
"Value" : NumberDecimal("10.171658037099185")
}
]
}
]
}
/* 2 */
{
"_id" : ObjectId("5aef51e0af42ea1b70d0c4dc"),
"EndpointId" : "89799bcc-e86f-4c8a-b340-8b5ed53caf83",
"Url" : "test",
"Tags" : [
{
"Uid" : "E2:02:00:18:DA:40",
"Type" : 1,
"DateTime" : ISODate("2018-05-06T19:05:04.574Z"),
"Sensors" : [
{
"Type" : 1,
"Value" : NumberDecimal("-98")
},
{
"Type" : 2,
"Value" : NumberDecimal("-65")
},
{
"Type" : 3,
"Value" : NumberDecimal("7.845424441900629")
},
{
"Type" : 4,
"Value" : NumberDecimal("0.0")
},
{
"Type" : 6,
"Value" : NumberDecimal("3012")
}
]
},
{
"Uid" : "12:3B:6A:1A:B7:F9",
"Type" : 1,
"DateTime" : ISODate("2018-05-06T19:05:04.574Z"),
"Sensors" : [
{
"Type" : 1,
"Value" : NumberDecimal("-95")
},
{
"Type" : 2,
"Value" : NumberDecimal("-59")
},
{
"Type" : 3,
"Value" : NumberDecimal("12.939770381907275")
}
]
}
]
}
Fazit ist, dass Sie entweder das erste hier angegebene Formular verwenden können, das sich "innerhalb jedes Dokuments" und dann "pro Endpunkt ansammelt" in einer einzigen Phase ansammelt und am besten ist, oder Sie müssen tatsächlich Dinge wie den identifizieren "UID"
auf den Tags oder dem "Typ"
auf dem Sensor, wo diese Werte mehr als einmal in einer beliebigen Kombination von Dokumenten vorkommen, die nach dem Endpunkt gruppiert sind.
Ihre bisher gelieferten Beispieldaten zeigen nur, dass diese Werte "in jedem Dokument einmalig" sind, daher wäre die erste angegebene Form am optimalsten, wenn dies für alle übrigen Daten der Fall ist.
Falls dies nicht der Fall ist, ist das "Entwickeln" der beiden verschachtelten Arrays, um "die Details dokumentenübergreifend zu aggregieren", die einzige Möglichkeit, dies zu erreichen. Sie können den Datumsbereich oder andere Kriterien einschränken, da die meisten "Abfragen" normalerweise einige Grenzen haben und nicht wirklich mit den "ganzen" Sammlungsdaten arbeiten, aber die Hauptsache bleibt, dass Arrays "abgewickelt" werden, wodurch im Wesentlichen eine Dokumentkopie für jeden erstellt wird Arraymitglied.
Der Punkt zur Optimierung bedeutet, dass Sie dies nur "zweimal" tun müssen, da es nur zwei Arrays gibt. Nacheinander $group
ausführen
zu $unwind
zu $group
ist immer ein sicheres Zeichen dafür, dass Sie etwas wirklich falsch machen. Wenn Sie einmal etwas "zerlegt" haben, sollten Sie es immer nur einmal "wieder zusammenbauen" müssen . In einer Reihe abgestufter Schritte, wie hier demonstriert, ist das einmal Ansatz, der optimiert.
Außerhalb des Geltungsbereichs Ihrer Frage bleibt noch:
- Fügen Sie der Abfrage andere realistische Einschränkungen hinzu, um die verarbeiteten Dokumente zu reduzieren, tun Sie dies vielleicht sogar in "Stapeln" und kombinieren Sie die Ergebnisse
- Fügen Sie
allowDiskUse
hinzu Option für die Pipeline, um eine Zwischenspeicherung zu ermöglichen. ( tatsächlich demonstriert auf den Befehlen ) - Bedenken Sie, dass "verschachtelte Arrays" wahrscheinlich nicht die beste Speichermethode für die Analyse sind, die Sie durchführen möchten. Es ist immer effizienter, wenn Sie wissen, dass Sie
$unwind
um die Daten einfach in dieser "abgewickelten" Form direkt in eine Sammlung zu schreiben.