MongoDB
 sql >> Teknologi Basis Data >  >> NoSQL >> MongoDB

nilai grup mongodb berdasarkan beberapa bidang

Ringkasan TLDR

Dalam rilis MongoDB modern, Anda dapat memaksa ini dengan $slice hanya dari hasil agregasi dasar. Untuk hasil "besar", jalankan kueri paralel sebagai gantinya untuk setiap pengelompokan (daftar demonstrasi ada di akhir jawaban), atau tunggu hingga SERVER-9377 diselesaikan, yang akan memungkinkan "batas" jumlah item ke $push ke array.

db.books.aggregate([
    { "$group": {
        "_id": {
            "addr": "$addr",
            "book": "$book"
        },
        "bookCount": { "$sum": 1 }
    }},
    { "$group": {
        "_id": "$_id.addr",
        "books": { 
            "$push": { 
                "book": "$_id.book",
                "count": "$bookCount"
            },
        },
        "count": { "$sum": "$bookCount" }
    }},
    { "$sort": { "count": -1 } },
    { "$limit": 2 },
    { "$project": {
        "books": { "$slice": [ "$books", 2 ] },
        "count": 1
    }}
])

Pratinjau MongoDB 3.6

Masih belum menyelesaikan SERVER-9377, tetapi dalam rilis ini $lookup memungkinkan opsi "tidak berkorelasi" baru yang menggunakan "pipeline" ekspresi sebagai argumen alih-alih "localFields" dan "foreignFields" pilihan. Ini kemudian memungkinkan "penggabungan sendiri" dengan ekspresi pipa lain, di mana kita dapat menerapkan $limit untuk mengembalikan hasil "top-n".

db.books.aggregate([
  { "$group": {
    "_id": "$addr",
    "count": { "$sum": 1 }
  }},
  { "$sort": { "count": -1 } },
  { "$limit": 2 },
  { "$lookup": {
    "from": "books",
    "let": {
      "addr": "$_id"
    },
    "pipeline": [
      { "$match": { 
        "$expr": { "$eq": [ "$addr", "$$addr"] }
      }},
      { "$group": {
        "_id": "$book",
        "count": { "$sum": 1 }
      }},
      { "$sort": { "count": -1  } },
      { "$limit": 2 }
    ],
    "as": "books"
  }}
])

Tambahan lain di sini tentu saja kemampuan untuk menginterpolasi variabel melalui $expr menggunakan $match untuk memilih item yang cocok di "gabung", tetapi premis umumnya adalah "pipa dalam pipa" di mana konten dalam dapat disaring oleh kecocokan dari induknya. Karena keduanya adalah "pipa" itu sendiri, kami dapat $limit setiap hasil secara terpisah.

Ini akan menjadi opsi terbaik berikutnya untuk menjalankan kueri paralel, dan sebenarnya akan lebih baik jika $match diizinkan dan dapat menggunakan indeks dalam pemrosesan "sub-pipa". Jadi yang tidak menggunakan "batas untuk $push " seperti yang diminta oleh masalah yang dirujuk, sebenarnya memberikan sesuatu yang seharusnya berfungsi lebih baik.

Konten Asli

Anda tampaknya telah menemukan masalah "N" teratas. Di satu sisi masalah Anda cukup mudah untuk dipecahkan meskipun tidak dengan batasan yang tepat seperti yang Anda minta:

db.books.aggregate([
    { "$group": {
        "_id": {
            "addr": "$addr",
            "book": "$book"
        },
        "bookCount": { "$sum": 1 }
    }},
    { "$group": {
        "_id": "$_id.addr",
        "books": { 
            "$push": { 
                "book": "$_id.book",
                "count": "$bookCount"
            },
        },
        "count": { "$sum": "$bookCount" }
    }},
    { "$sort": { "count": -1 } },
    { "$limit": 2 }
])

Nah itu akan memberi Anda hasil seperti ini:

{
    "result" : [
            {
                    "_id" : "address1",
                    "books" : [
                            {
                                    "book" : "book4",
                                    "count" : 1
                            },
                            {
                                    "book" : "book5",
                                    "count" : 1
                            },
                            {
                                    "book" : "book1",
                                    "count" : 3
                            }
                    ],
                    "count" : 5
            },
            {
                    "_id" : "address2",
                    "books" : [
                            {
                                    "book" : "book5",
                                    "count" : 1
                            },
                            {
                                    "book" : "book1",
                                    "count" : 2
                            }
                    ],
                    "count" : 3
            }
    ],
    "ok" : 1
}

Jadi ini berbeda dari apa yang Anda tanyakan, sementara kami mendapatkan hasil teratas untuk nilai alamat, pemilihan "buku" yang mendasarinya tidak terbatas hanya pada jumlah hasil yang diperlukan.

Ini ternyata sangat sulit untuk dilakukan, tetapi itu bisa dilakukan meskipun kompleksitasnya hanya meningkat dengan jumlah item yang Anda butuhkan untuk mencocokkan. Untuk membuatnya tetap sederhana, kami dapat menyimpan ini paling banyak 2 kecocokan:

db.books.aggregate([
    { "$group": {
        "_id": {
            "addr": "$addr",
            "book": "$book"
        },
        "bookCount": { "$sum": 1 }
    }},
    { "$group": {
        "_id": "$_id.addr",
        "books": { 
            "$push": { 
                "book": "$_id.book",
                "count": "$bookCount"
            },
        },
        "count": { "$sum": "$bookCount" }
    }},
    { "$sort": { "count": -1 } },
    { "$limit": 2 },
    { "$unwind": "$books" },
    { "$sort": { "count": 1, "books.count": -1 } },
    { "$group": {
        "_id": "$_id",
        "books": { "$push": "$books" },
        "count": { "$first": "$count" }
    }},
    { "$project": {
        "_id": {
            "_id": "$_id",
            "books": "$books",
            "count": "$count"
        },
        "newBooks": "$books"
    }},
    { "$unwind": "$newBooks" },
    { "$group": {
      "_id": "$_id",
      "num1": { "$first": "$newBooks" }
    }},
    { "$project": {
        "_id": "$_id",
        "newBooks": "$_id.books",
        "num1": 1
    }},
    { "$unwind": "$newBooks" },
    { "$project": {
        "_id": "$_id",
        "num1": 1,
        "newBooks": 1,
        "seen": { "$eq": [
            "$num1",
            "$newBooks"
        ]}
    }},
    { "$match": { "seen": false } },
    { "$group":{
        "_id": "$_id._id",
        "num1": { "$first": "$num1" },
        "num2": { "$first": "$newBooks" },
        "count": { "$first": "$_id.count" }
    }},
    { "$project": {
        "num1": 1,
        "num2": 1,
        "count": 1,
        "type": { "$cond": [ 1, [true,false],0 ] }
    }},
    { "$unwind": "$type" },
    { "$project": {
        "books": { "$cond": [
            "$type",
            "$num1",
            "$num2"
        ]},
        "count": 1
    }},
    { "$group": {
        "_id": "$_id",
        "count": { "$first": "$count" },
        "books": { "$push": "$books" }
    }},
    { "$sort": { "count": -1 } }
])

Jadi itu akan benar-benar memberi Anda 2 "buku" teratas dari dua entri "alamat" teratas.

Tapi untuk uang saya, tetap dengan bentuk pertama dan kemudian cukup "mengiris" elemen array yang dikembalikan untuk mengambil elemen "N" pertama.

Kode Demonstrasi

Kode demonstrasi sesuai untuk digunakan dengan versi LTS NodeJS saat ini dari rilis v8.x dan v10.x. Itu sebagian besar untuk async/await sintaks, tetapi tidak ada yang benar-benar dalam aliran umum yang memiliki batasan seperti itu, dan beradaptasi dengan sedikit perubahan pada janji biasa atau bahkan kembali ke implementasi panggilan balik biasa.

index.js

const { MongoClient } = require('mongodb');
const fs = require('mz/fs');

const uri = 'mongodb://localhost:27017';

const log = data => console.log(JSON.stringify(data, undefined, 2));

(async function() {

  try {
    const client = await MongoClient.connect(uri);

    const db = client.db('bookDemo');
    const books = db.collection('books');

    let { version } = await db.command({ buildInfo: 1 });
    version = parseFloat(version.match(new RegExp(/(?:(?!-).)*/))[0]);

    // Clear and load books
    await books.deleteMany({});

    await books.insertMany(
      (await fs.readFile('books.json'))
        .toString()
        .replace(/\n$/,"")
        .split("\n")
        .map(JSON.parse)
    );

    if ( version >= 3.6 ) {

    // Non-correlated pipeline with limits
      let result = await books.aggregate([
        { "$group": {
          "_id": "$addr",
          "count": { "$sum": 1 }
        }},
        { "$sort": { "count": -1 } },
        { "$limit": 2 },
        { "$lookup": {
          "from": "books",
          "as": "books",
          "let": { "addr": "$_id" },
          "pipeline": [
            { "$match": {
              "$expr": { "$eq": [ "$addr", "$$addr" ] }
            }},
            { "$group": {
              "_id": "$book",
              "count": { "$sum": 1 },
            }},
            { "$sort": { "count": -1 } },
            { "$limit": 2 }
          ]
        }}
      ]).toArray();

      log({ result });
    }

    // Serial result procesing with parallel fetch

    // First get top addr items
    let topaddr = await books.aggregate([
      { "$group": {
        "_id": "$addr",
        "count": { "$sum": 1 }
      }},
      { "$sort": { "count": -1 } },
      { "$limit": 2 }
    ]).toArray();

    // Run parallel top books for each addr
    let topbooks = await Promise.all(
      topaddr.map(({ _id: addr }) =>
        books.aggregate([
          { "$match": { addr } },
          { "$group": {
            "_id": "$book",
            "count": { "$sum": 1 }
          }},
          { "$sort": { "count": -1 } },
          { "$limit": 2 }
        ]).toArray()
      )
    );

    // Merge output
    topaddr = topaddr.map((d,i) => ({ ...d, books: topbooks[i] }));
    log({ topaddr });

    client.close();

  } catch(e) {
    console.error(e)
  } finally {
    process.exit()
  }

})()

books.json

{ "addr": "address1",  "book": "book1"  }
{ "addr": "address2",  "book": "book1"  }
{ "addr": "address1",  "book": "book5"  }
{ "addr": "address3",  "book": "book9"  }
{ "addr": "address2",  "book": "book5"  }
{ "addr": "address2",  "book": "book1"  }
{ "addr": "address1",  "book": "book1"  }
{ "addr": "address15", "book": "book1"  }
{ "addr": "address9",  "book": "book99" }
{ "addr": "address90", "book": "book33" }
{ "addr": "address4",  "book": "book3"  }
{ "addr": "address5",  "book": "book1"  }
{ "addr": "address77", "book": "book11" }
{ "addr": "address1",  "book": "book1"  }


  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. Set Replika MongoDB yang Terdistribusi Secara Geografis untuk Waktu Aktif 100%

  2. Temukan MongoDB()

  3. Bagaimana cara menggunakan perpustakaan pihak ke-3 di glassfish?

  4. 3 Langkah Sederhana untuk Membuat Cluster Sharded MongoDB

  5. Nilai mutlak dengan kerangka agregasi MongoDB