就可以开始正式执行 spark 应用程序了。第一步是创建 RDD,读取数据源;> - HDFS 文件被读取到多个 Worker节点,形成内存中的分布式数据集,也就是初始RDD;> - Driver会根据程序对RDD的定义的操作,提交 Task 到 Exec... Cassandra、HBase等```cppscala> val file = sc.textFile("/spark/hello.txt")```![在这里插入图片描述](https://img-blog.csdnimg.cn/20200103185709515.png)### 3.2 通过并行化的方式创建RDD由一个已经存...