मैं दोहराने के लिए चाहते हैं, नीचे दिए गए कोड का उपयोग कर pyspark DataFrame कार्यों के बजाय SQL क्वेरी है ।
spark.sql("select date from walmart_stock order by high desc limit 1").show()
मैं दोहराने के लिए चाहते हैं, नीचे दिए गए कोड का उपयोग कर pyspark DataFrame कार्यों के बजाय SQL क्वेरी है ।
spark.sql("select date from walmart_stock order by high desc limit 1").show()
यहाँ कोड है, तो आप शुरू से जुड़ी सीएसवी फ़ाइल । आप पहचान होना चाहिए SQL कार्य करता है । ध्यान दें कि हम का उपयोग करें inferSchema
विकल्प आदेश में करने के लिए सीधे पार्स संख्या में डबल्स और सही आदेश (यह काम नहीं करेगा के रूप में की उम्मीद के साथ डिफ़ॉल्ट स्ट्रिंग प्रकार). एक और तरीका के लिए किया जाएगा कास्ट करने के लिए कॉलम को पढ़ने के बाद, CSV.
spark.read
.option("header", "true")
.option("inferSchema", "true")
.csv("walmart_stock.csv")
.orderBy(f.col("High"), desc=True)
.limit(1)
.select("Date")
.show()
जो पैदावार
+----------+
| Date|
+----------+
|2015-11-13|
+----------+