MongoDB
 sql >> Teknologi Basis Data >  >> NoSQL >> MongoDB

Mengimpor kumpulan catatan yang sangat besar ke MongoDB menggunakan nodejs

Bukan jawaban untuk situasi sebenarnya Anda saat mengimpor dari file .csv, tetapi sebaliknya, saat melakukan penyisipan massal

-> Pertama-tama tidak ada operasi penyisipan 'massal' khusus, pada akhirnya semua adalah forEach.

-> jika Anda mencoba membaca file besar async-ly yang akan jauh lebih cepat daripada proses penulisan, maka Anda harus mempertimbangkan untuk mengubah pendekatan Anda, pertama-tama cari tahu berapa banyak yang dapat ditangani oleh pengaturan Anda, (atau cukup tekan-n -uji coba).

---> Setelah itu, ubah cara Anda membaca dari file, Anda tidak perlu membaca setiap baris dari file, async-ly, belajar menunggu, gunakan forEach, forEachSeries dari Async.js untuk menurunkan bacaan Anda di dekat mongodb write level, dan Anda siap melakukannya.



  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. Mengapa MongoDB $atau kueri saya tidak berfungsi?

  2. Kesalahan koneksi MongoDB di tetesan Digital Ocean

  3. Bagaimana cara mendapatkan objek Node saat menggunakan Neo4j jdbc?

  4. Perbarui banyak dokumen secara ATOM DAN kembalikan

  5. Bagaimana cara saya meminta nilai yang berbeda di Mongoose?