Piuttosto che tentare di forzare il database a restituire risultati per dati che non esistono, è una pratica migliore generare i dati vuoti esterni alla query e unire i risultati in essi. In questo modo hai le tue voci "0" dove non ci sono dati e consenti al database di restituire ciò che c'è.
L'unione è un processo di base per creare una tabella hash di chiavi univoche e semplicemente sostituire uno qualsiasi dei valori trovati nei risultati dell'aggregazione in quella tabella hash. In JavaScript un oggetto di base si adatta bene poiché tutte le chiavi sono uniche.
Preferisco anche restituire effettivamente una Date
oggetto dai risultati dell'aggregazione utilizzando la matematica della data per manipolare e "arrotondare" la data all'intervallo richiesto anziché utilizzare gli operatori di aggregazione della data. Puoi modificare le date utilizzando $subtract
per trasformare il valore in una rappresentazione numerica di timestamp sottraendo da un'altra data con il valore di epoch date e $mod
operatore per ottenere il resto e arrotondare la data all'intervallo richiesto.
Al contrario, utilizzando $add
con un oggetto epoch date simile trasformerà un valore intero in una data BSON. E ovviamente è molto più efficiente elaborare direttamente in $group
piuttosto che utilizzare un $project
fase in quanto puoi semplicemente elaborare le date modificate direttamente nel raggruppamento _id
valore comunque.
Come esempio di shell:
var sample = 30,
Days = 30,
OneDay = ( 1000 * 60 * 60 * 24 ),
now = Date.now(),
Today = now - ( now % OneDay ) ,
nDaysAgo = Today - ( OneDay * Days ),
startDate = new Date( nDaysAgo ),
endDate = new Date( Today + OneDay ),
store = {};
var thisDay = new Date( nDaysAgo );
while ( thisDay < endDate ) {
store[thisDay] = 0;
thisDay = new Date( thisDay.valueOf() + OneDay );
}
db.datejunk.aggregate([
{ "$match": { "when": { "$gte": startDate } }},
{ "$group": {
"_id": {
"$add": [
{ "$subtract": [
{ "$subtract": [ "$when", new Date(0) ] },
{ "$mod": [
{ "$subtract": [ "$when", new Date(0) ] },
OneDay
]}
]},
new Date(0)
]
},
"count": { "$sum": 1 }
}}
]).forEach(function(result){
store[result._id] = result.count;
});
Object.keys(store).forEach(function(k) {
printjson({ "date": k, "count": store[k] })
});
Che restituirà tutti i giorni nell'intervallo incluso 0
valori in cui non esistono dati, come:
{ "date" : "Tue Sep 22 2015 10:00:00 GMT+1000 (AEST)", "count" : 0 }
{ "date" : "Wed Sep 23 2015 10:00:00 GMT+1000 (AEST)", "count" : 1 }
{ "date" : "Thu Sep 24 2015 10:00:00 GMT+1000 (AEST)", "count" : 0 }
{ "date" : "Fri Sep 25 2015 10:00:00 GMT+1000 (AEST)", "count" : 1 }
{ "date" : "Sat Sep 26 2015 10:00:00 GMT+1000 (AEST)", "count" : 1 }
{ "date" : "Sun Sep 27 2015 10:00:00 GMT+1000 (AEST)", "count" : 0 }
{ "date" : "Mon Sep 28 2015 10:00:00 GMT+1000 (AEST)", "count" : 1 }
{ "date" : "Tue Sep 29 2015 10:00:00 GMT+1000 (AEST)", "count" : 1 }
{ "date" : "Wed Sep 30 2015 10:00:00 GMT+1000 (AEST)", "count" : 0 }
{ "date" : "Thu Oct 01 2015 10:00:00 GMT+1000 (AEST)", "count" : 1 }
{ "date" : "Fri Oct 02 2015 10:00:00 GMT+1000 (AEST)", "count" : 2 }
{ "date" : "Sat Oct 03 2015 10:00:00 GMT+1000 (AEST)", "count" : 0 }
{ "date" : "Sun Oct 04 2015 11:00:00 GMT+1100 (AEST)", "count" : 1 }
{ "date" : "Mon Oct 05 2015 11:00:00 GMT+1100 (AEDT)", "count" : 0 }
{ "date" : "Tue Oct 06 2015 11:00:00 GMT+1100 (AEDT)", "count" : 1 }
{ "date" : "Wed Oct 07 2015 11:00:00 GMT+1100 (AEDT)", "count" : 2 }
{ "date" : "Thu Oct 08 2015 11:00:00 GMT+1100 (AEDT)", "count" : 2 }
{ "date" : "Fri Oct 09 2015 11:00:00 GMT+1100 (AEDT)", "count" : 1 }
{ "date" : "Sat Oct 10 2015 11:00:00 GMT+1100 (AEDT)", "count" : 1 }
{ "date" : "Sun Oct 11 2015 11:00:00 GMT+1100 (AEDT)", "count" : 1 }
{ "date" : "Mon Oct 12 2015 11:00:00 GMT+1100 (AEDT)", "count" : 0 }
{ "date" : "Tue Oct 13 2015 11:00:00 GMT+1100 (AEDT)", "count" : 3 }
{ "date" : "Wed Oct 14 2015 11:00:00 GMT+1100 (AEDT)", "count" : 2 }
{ "date" : "Thu Oct 15 2015 11:00:00 GMT+1100 (AEDT)", "count" : 2 }
{ "date" : "Fri Oct 16 2015 11:00:00 GMT+1100 (AEDT)", "count" : 0 }
{ "date" : "Sat Oct 17 2015 11:00:00 GMT+1100 (AEDT)", "count" : 3 }
{ "date" : "Sun Oct 18 2015 11:00:00 GMT+1100 (AEDT)", "count" : 0 }
{ "date" : "Mon Oct 19 2015 11:00:00 GMT+1100 (AEDT)", "count" : 0 }
{ "date" : "Tue Oct 20 2015 11:00:00 GMT+1100 (AEDT)", "count" : 0 }
{ "date" : "Wed Oct 21 2015 11:00:00 GMT+1100 (AEDT)", "count" : 2 }
{ "date" : "Thu Oct 22 2015 11:00:00 GMT+1100 (AEDT)", "count" : 1 }
Notando che tutti i valori di "data" sono in realtà ancora date BSON, ma si limitano a stringere in questo modo nell'output da .printjson()
come metodo di shell.
Un esempio un po' più conciso può essere mostrato usando nodejs
dove puoi utilizzare operazioni come async.parallel
per elaborare contemporaneamente la costruzione dell'hash e la query di aggregazione, nonché un'altra utile utilità in nedb
che implementa l '"hash" utilizzando funzioni familiari all'utilizzo di una raccolta MongoDB. Mostra anche come questo può essere ridimensionato per risultati di grandi dimensioni utilizzando una vera raccolta MongoDB se hai anche modificato la gestione per l'elaborazione in streaming del cursore restituito da .aggregate()
:
var async = require('async'),
mongodb = require('mongodb'),
MongoClient = mongodb.MongoClient,
nedb = require('nedb'),
DataStore = new nedb();
// Setup vars
var sample = 30,
Days = 30,
OneDay = ( 1000 * 60 * 60 * 24 ),
now = Date.now(),
Today = now - ( now % OneDay ) ,
nDaysAgo = Today - ( OneDay * Days ),
startDate = new Date( nDaysAgo ),
endDate = new Date( Today + OneDay );
MongoClient.connect('mongodb://localhost/test',function(err,db) {
var coll = db.collection('datejunk');
async.series(
[
// Clear test collection
function(callback) {
coll.remove({},callback)
},
// Generate a random sample
function(callback) {
var bulk = coll.initializeUnorderedBulkOp();
while (sample--) {
bulk.insert({
"when": new Date(
Math.floor(
Math.random()*(Today-nDaysAgo+OneDay)+nDaysAgo
)
)
});
}
bulk.execute(callback);
},
// Aggregate data and dummy data
function(callback) {
console.log("generated");
async.parallel(
[
// Dummy data per day
function(callback) {
var thisDay = new Date( nDaysAgo );
async.whilst(
function() { return thisDay < endDate },
function(callback) {
DataStore.update(
{ "date": thisDay },
{ "$inc": { "count": 0 } },
{ "upsert": true },
function(err) {
thisDay = new Date( thisDay.valueOf() + OneDay );
callback(err);
}
);
},
callback
);
},
// Aggregate data in collection
function(callback) {
coll.aggregate(
[
{ "$match": { "when": { "$gte": startDate } } },
{ "$group": {
"_id": {
"$add": [
{ "$subtract": [
{ "$subtract": [ "$when", new Date(0) ] },
{ "$mod": [
{ "$subtract": [ "$when", new Date(0) ] },
OneDay
]}
]},
new Date(0)
]
},
"count": { "$sum": 1 }
}}
],
function(err,results) {
if (err) callback(err);
async.each(results,function(result,callback) {
DataStore.update(
{ "date": result._id },
{ "$inc": { "count": result.count } },
{ "upsert": true },
callback
);
},callback);
}
);
}
],
callback
);
}
],
// Return result or error
function(err) {
if (err) throw err;
DataStore.find({},{ "_id": 0 })
.sort({ "date": 1 })
.exec(function(err,results) {
if (err) throw err;
console.log(results);
db.close();
});
}
);
});
Questo è molto adatto ai dati per grafici e grafici. La procedura di base è la stessa per qualsiasi implementazione del linguaggio e idealmente eseguita in elaborazione parallela per le migliori prestazioni, quindi gli ambienti asincroni o thread ti danno un vero vantaggio anche se per un piccolo campione come questo la tabella hash di base può essere generata in memoria molto rapidamente del tuo ambiente richiede operazioni sequenziali.
Quindi non provare a forzare il database per farlo. Ci sono certamente esempi di query SQL che eseguono questa "unione" sul server del database, ma non è mai stata davvero una grande idea e dovrebbe davvero essere gestita con un processo di unione "client" simile poiché sta solo creando un sovraccarico del database che in realtà non è ' t richiesto.
È tutto molto efficiente e pratico per lo scopo, e ovviamente non richiede l'elaborazione di una query di aggregazione separata per ogni giorno del periodo, che non sarebbe affatto efficiente.