Sparkの調査過程で明らかになったのは,JavaでSparkのコードを書くべきでなく,scalaで書くべきだということ.(既にSparkを使われている方々にとっては当然のことだと思うが).
まず第一にコードの量が違いすぎる.JavaでのSparkコードは冗長である一方Scalaでのコードは短くエレガントだ.
問題は私自身のscala経験が無いので一から勉強である.
C++, bash, Javaそしてgroovyを主に使ってきた私にしてもscala習得はかなり歯ごたえがありそうな気がする.
以下のコードは一応私にとってhello worldのようなもの.年末までくらいに自身がどれくらいのscalaコードを書けるようになっているか楽しみである.
import scala.util.Random
object Test {
def main(args: Array[String]) {
val r = new Random()
// does not work
def l1 = r.shuffle((0 to 20).toList)
def l2 = r.shuffle((0 until 20).toList)
l1.foreach { it => println(it) }
println(l1 sameElements l2)
}
}
0 件のコメント:
コメントを投稿