Redis
 sql >> Teknologi Basis Data >  >> NoSQL >> Redis

Apakah ada cara untuk menulis kerangka data pyspark ke cache Azure untuk redis?

Anda perlu memanfaatkan perpustakaan ini:https://github.com/RedisLabs/spark-redisabersama dengan toples terkait yang diperlukan (bergantung pada versi spark+scala yang Anda gunakan).

Dalam kasus saya, saya telah menginstal 3 toples di spark cluster(Scala=2.12) spark terbaru:

  1. spark_redis_2_12_2_6_0.jar
  2. commons_pool2_2_10_0.jar
  3. jedis_3_6_0.jar

Sepanjang konfigurasi untuk menghubungkan ke redis:

Pengaturan konfigurasi cluster

spark.redis.auth PASSWORD
spark.redis.port 6379
spark.redis.host xxxx.xxx.cache.windows.net

Pastikan Anda memiliki Azure redis 4.0, perpustakaan mungkin memiliki masalah dengan 6.0. Contoh kode untuk mendorong:

    from pyspark.sql.types import StructType, StructField, StringType
schema = StructType([
    StructField("id", StringType(), True),
    StructField("colA", StringType(), True),
    StructField("colB", StringType(), True)
])

data = [
    ['1', '8', '2'],
    ['2', '5', '3'],
    ['3', '3', '1'],
    ['4', '7', '2']
]
df = spark.createDataFrame(data, schema=schema)
df.show()
--------------
(
    df.
    write.
    format("org.apache.spark.sql.redis").
    option("table", "mytable").
    option("key.column", "id").
    save()
)

 



  1. Redis
  2.   
  3. MongoDB
  4.   
  5. Memcached
  6.   
  7. HBase
  8.   
  9. CouchDB
  1. bagaimana cara menggunakan layanan mikro nestjs redis?

  2. Kumpulan StackExchange.Redis ConnectionMultiplexer untuk metode sinkron

  3. Memori sub saluran Redis Pub

  4. Penyortiran dinamis dengan Redis

  5. redis HLL terlalu banyak positif palsu