|      1runningman      2018-01-23 22:26:54 +08:00 | 
|      2ericpeng      2018-01-24 01:02:16 +08:00 也可以考虑直接用 Spark SQL(+UDF),会自动翻译为 mapreduce jobs 的 DAG 并分布式计算。 | 
|  |      3defunct9      2018-01-31 17:13:15 +08:00 mark 一下 |