spark的内存模型(spark内存要多大),本文通过数据整理汇集了spark的内存模型(spark内存要多大)相关信息,下面一起看看。

火花存储器管理

当Spark执行一个应用时,Spark cluster会启动两个JVM进程,驱动程序和执行器。驱动负责创建SparkContext,提交任务,分发任务等。执行器负责计算任务,并将结果返回给驱动程序。同时,有必要为需要坚持的RDD提供存储。驱动端的内存管理比较简单,这里说的Spark内存管理是针对执行端的内存管理。

Spark内存管理包括静态内存管理和统一内存管理。Spark1.6之前使用静态内存管理,Spark1.6之后引入统一内存管理。

在静态内存管理中,存储内存、执行内存和其他内存的大小在Spark应用程序运行期间是固定的,但用户可以在应用程序启动前对其进行配置。

更多spark的内存模型(spark内存要多大)相关信息请关注本站。