Si solo estoy trabajando en un equipo local (No cluster) spark solo actuaria como un procedimiento en paralelo y no distribuido? Si es así que utiliza de mi equipo local para que pueda ejecutar varias instrucciones al mismo tiempo y entiendo yo se comporto como un sistema en paralelo?
60% de descuento para cursos ilimitados por un año
$194 USD
$77 USD
La oferta termina en:
D
H
M
S
Oferta válida al 23 de Mayo
-
check_circle_outlineMódulo 1 | 2 clases
Introducción a PySpark 1
expand_more
1 comentario(s)