實踐教程
- 通過DolphinScheduler提交Spark任務
- 通過Serverless Spark提交PySpark流任務
- 通過spark-submit命令行工具提交Spark任務
- 通過Apache Airflow使用Livy Operator提交任務
- 通過Apache Airflow向EMR Serverless Spark提交任務
- 通過Jupyter Notebook與Serverless Spark進行交互
- 通過實時計算Flink和Paimon實現流批一體
- 在EMR Serverless Spark中實現MaxCompute讀寫操作
- 在PySpark程序中使用Python第三方庫
- 在Notebook中使用Python第三方庫
- EMR Serverless Spark連接外部Hive Metastore
- 在EMR Serverless Spark中使用Paimon
- 在EMR Serverless Spark中使用Hudi
- 在EMR Serverless Spark中使用Iceberg