Tag: 斯卡拉

如何从用户在斯卡拉input?

我想从用户那里获得input。 你能告诉我如何要求在斯卡拉string用户input?

斯卡拉控制台将无法正常工作,IntelliJ

我做了所有的偏好工作,安装了scala,除此之外的一切工作,我只是不能在控制台窗口中testing一个scala类。 在教程中,我看到他们只是键入scala后面的东西>但它不会工作,我可以在下面键入一些随机的东西,当我按Enter键时什么也不做。 你们能帮我吗? 我会非常感激。 干杯

Spark – 错误“提交应用程序时,必须在您的configuration中设置主url”

我有一个在本地模式下运行没有问题的Spark应用程序,但在提交给Spark群集时遇到一些问题。 错误信息如下: 16/06/24 15:42:06 WARN scheduler.TaskSetManager: Lost task 2.0 in stage 0.0 (TID 2, cluster-node-02): java.lang.ExceptionInInitializerError at GroupEvolutionES$$anonfun$6.apply(GroupEvolutionES.scala:579) at GroupEvolutionES$$anonfun$6.apply(GroupEvolutionES.scala:579) at scala.collection.Iterator$$anon$14.hasNext(Iterator.scala:390) at org.apache.spark.util.Utils$.getIteratorSize(Utils.scala:1595) at org.apache.spark.rdd.RDD$$anonfun$count$1.apply(RDD.scala:1157) at org.apache.spark.rdd.RDD$$anonfun$count$1.apply(RDD.scala:1157) at org.apache.spark.SparkContext$$anonfun$runJob$5.apply(SparkContext.scala:1858) at org.apache.spark.SparkContext$$anonfun$runJob$5.apply(SparkContext.scala:1858) at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:66) at org.apache.spark.scheduler.Task.run(Task.scala:89) at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:214) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745) Caused by: org.apache.spark.SparkException: A master URL must be set in your […]

如何检查一个string是否是Scala中的十进制数字

我对Scala还是比较陌生的,而且我几乎每天都在发现新的,有趣的做事方式,但是它们并不总是合理的,有时在语言中已经存在,不了解他们。 所以,用这个序言,我正在检查给定的string是否完全由数字组成,所以我在做: def isAllDigits(x: String) = x.map(Character.isDigit(_)).reduce(_&&_) 这是明智的还是不必要的愚蠢? 那有更好的办法吗? 只是调用x.toInt并捕获exception,还是不那么惯用? 是否有性能优势/缺点?

为什么Scalaselectvariables名后的types?

可能重复: 在Scala中有“val容量:Int”而不是“val Int容量”的任何理由 在Scala中,variables声明如下: var stockPrice: Double = 100. types(Double)在标识符(stockPrice)之后。 传统上使用命令式语言,如C,Java,C#,types名称在标识符之前。 double stock_price = 100.0; 这纯粹是一个味道的问题,还是最终有types名称帮助编译器以任何方式? 去也有相同的风格。

在sbt 0.13中使用.sbt文件编写多项目编译的习惯方法

我听说.sbt文件已经在0.13中以各种方式得到了改进,现在我可以指定它们中的多项目构build。 http://www.scala-sbt.org/0.13.0/docs/Community/ChangeSummary_0.13.0.html#sbt-format-enhancements提到我们现在可以在.sbt文件中定义子项目。 我也知道,根中的多个.sbt文件将被聚合成一个概念文件。 但是我真正喜欢的是不要用十几个子项目.sbt文件污染我的根。 有没有一种方法可以将子项目build.sbt文件放到它们各自的子目录中,在它们之间保留一些共享的代码,然后为整个项目build立一个根build.sbt来聚合子项目? 我现在在.scala文件中有一个类似的设置,但如果可能的话,宁愿使用.sbt文件。 如果这是不可能的,用.sbt文件构build大型多项目构build的“正确”方法是什么?

如何更改sbt项目的Scala版本?

我怎样才能改变一个sbt项目的Scala版本? 我希望SBT检查系统的Scala版本是否正确,如果不是这样,请下载。

Scala中有没有游戏引擎?

我不知道是否有任何Scala写的游戏引擎,或者从Scala中很容易获得?

特质inheritance与自我types注释的区别

在斯卡拉,我已经看到了构造 trait T extends S 和 trait T { this: S => 用来实现类似的事情(即S中的抽象方法必须在创build实例之前被定义)。 他们之间有什么区别? 你为什么要用另一个呢?

dynamic混合性状

有一个特点 trait Persisted { def id: Long } 我该如何实现一个方法来接受任何case类的实例,并将其中的特性与混合的特性一起返回? 该方法的签名如下所示: def toPersisted[T](instance: T, id: Long): T with Persisted