Si solo estoy trabajando en un equipo local (No cluster) spark solo actuaria como un procedimiento en paralelo y no distribuido? Si es así que utiliza de mi equipo local para que pueda ejecutar varias instrucciones al mismo tiempo y entiendo yo se comporto como un sistema en paralelo?
-
check_circle_outlineMódulo 1 | 2 clases
Introducción a PySpark 1
expand_more
1 comentario(s)