sbt-assembly

    5热度

    1回答

    罐子我尝试从清洁工程与sbt-assembly建立罐子如何在docs描述: addSbtPlugin("com.eed3si9n" % "sbt-assembly" % "0.11.2") import AssemblyKeys._ assemblySettings mainClass in assembly := Some("play.core.server.ProdServerSt

    0热度

    2回答

    我通过intellij运行spark工作。作业执行并给出输出。我需要这份工作的jar文件到服务器并运行,但是当我尝试做sbt assembly它抛出以下错误: [error] Not a valid command: assembly [error] Not a valid project ID: assembly [error] Expected ':' (if selecting a co

    9热度

    1回答

    这可能听起来像一个愚蠢的问题,但我一直在搜索整个互联网上如何评论一个sbt文件中的一行。有谁知道如何?

    2热度

    1回答

    我正在将几个大型scala项目合并为一个。目前他们使用剪切和粘贴(不是非常多的代码)来共享代码,而我正在使它有一个通用的实用程序jar。这些项目中的大多数都部署在亚马逊云上,并使用sbt-native-packager对其进行打包 我的问题是我不知道如何配置多个项目的sbt本地管理器。我也不是很熟悉它,在所有最初的工作完成后进入了这个项目。 我已经将问题减少到了我能得到的最小问题。有一个在http

    0热度

    1回答

    我可以sbt assembly我自己是一个没有下面的build.sbt文件的问题的胖罐子。但是,当我尝试发布这个“胖罐子”时,sbt publish只会在s3存储桶中转储1kb的.jar文件。 解压缩.jar文件显示它只包含清单文件。 如何将脂肪罐装入我的回购库中? 更新:自提出问题以来,被拖动的文本已被更改。删除名字覆盖,现在出版的构建代码,但没有外部库 下面 ,我build.sbt文件 nam

    2热度

    1回答

    我们对我们的scala应用程序使用了很多spark。如果我在本地测试我的函数库的依赖是: libraryDependencies += "org.apache.spark" % "spark-core_2.10" % "1.6.1", libraryDependencies += "org.apache.spark" % "spark-sql_2.10" % "1.6.1" , 而为我建立一

    1热度

    1回答

    我有一个sbt(0.13.8)项目,其中有几个子项目,其中大部分都是纯Scala项目。他们交叉assembly ed和publish ed; crossScalaVersions := Seq("2.10.6", "2.11.8") releaseCrossBuild := true 到目前为止,这个工作很好。 现在我正在添加一个Java子项目,它依赖于一些Scala子项目。但是,我找不到一

    1热度

    1回答

    我已经从apache下载了Kafka并将其提取到了它自己的文件夹中。继快速入门,我也装SBT,但在SBT命令第三行(我发起从内部卡夫卡文件夹中的终端,我得到: [error] Not a valid command: assembly-package-dependency [error] Not a valid project ID: assembly-package-dependency [

    1热度

    1回答

    我使用的是普通的装配插件与SBT但随着组装的包装,我得到这样的额外的软件包: mypackage_2.11.jar mypackage_2.11-javadoc.jar mypackage_2.11.-sourcesjar 有没有办法跳过与SBT那些包?

    4热度

    1回答

    我有我的目录结构设置。 src/main/scala/main/Main.scala src/main/scala/scripts/MainScript.scala 脚本是一个将要运行的后台作业。 我之前用sbt-assembly将主文件打包成一个jar来部署,但我不知道如何创建两个单独的罐子,分别是sbt-assembly或sbt-native-packager。我将如何去做这件事,以及对