spark-java

    0热度

    2回答

    所以,我试图制作一个页面,它从数据库中提取数据并将其显示在页面上。 我正在使用Java Spark用于后端速度模板引擎。 我有我的记录从数据库放入存储对象的数组列表。 class DB_record { private String id; private String value; public DB_record(String i, String v){

    0热度

    1回答

    我从DB使用下面的下面的方法(从spark-java framework方法)返回的数据: get("/data_on_page_load", "application/json", (Request request, Response response) -> { List<Post> list = Post.findAll(); // NEED TO SERIALIZE THE RE

    0热度

    1回答

    我为我的API使用Spark java。我有以下网址 get("/template/:id") -> controller.getById(req, res).handle(req, res) get("/template/:name") -> controller.getByName(req, res).handle(req, res) 现在我的方法GetByName方法将不会被调用的请求

    2热度

    1回答

    在我的Spark应用程序中,我有一个简单的表单,其输入使用POST请求发送到服务器。该请求是通过评估其身体和提取所需的参数进行处理: post("/upload",(request, response) -> { String body = request.body(); MultiMap<String> parameters = decodeParams(body);

    0热度

    1回答

    我想图像保存到数据库中,但我得到的错误: org.codehaus.jackson.map.JsonMappingException: Can not construct instance of java.sql.Blob, problem: abstract types can only be instantiated with additional type information at [

    1热度

    2回答

    我试图从命令行构建Spark-Java documentation中的简单示例。我已经添加了依赖我的pom.xml中,我正在使用的代码从第一个例子: 新增的依赖: <dependency> <groupId>com.sparkjava</groupId> <artifactId>spark-core</artifactId> <version>2.5.5</version> </depen

    0热度

    2回答

    是否可以连接到一个实时Java-spark应用程序并使用类似于调试Tomcat Web服务(对于Tomcat调试模式,例如:catalina jpda start)的方式进行调试? 目标是能够附加到java-spark微服务,并在运行时浏览源代码。 谢谢!

    0热度

    1回答

    这里是我的问题: 我使用的Spark在我的Java项目中我的Web服务器架构。 我的网站设计结构如下: 的Index.html 的js文件夹(用JavaScript库和文件) css文件夹中(与样式) 映像文件夹(含图片) 我复制这个结构导入到我的“公共”文件夹(资源下),就像在星火文档。使用添加了这个文件夹的静态文件夹: staticFiles.location("/public"); ini

    0热度

    2回答

    我正在使用sparkjava作为嵌入式REST服务器。我已经使端口号用户可配置,但是我想处理用户已经指定了一个已经在使用的端口的情况。 文档的error handling节只处理的处理路线。 有什么办法可以解决端口被调用时发生的错误,该端口已经被使用或以其他方式失效? 我现在的不雅的解决方案是检查与服务器套接字之前启动使用星火类: try { ServerSocket socket =

    2热度

    2回答

    AppEngine上创建基于Google Tutorial新项目,并切换到Java 1.8, 添加SparkJava依赖关系: dependencies { compile 'com.google.appengine:appengine:+' compile 'com.sparkjava:spark-core:2.5.5' compile 'com.google.cl