azure-stream-analytics

    0热度

    1回答

    在我们的应用程序中,多个IoT设备将数据发布到IoT中心。他们在房间发出一些读数(例如:用电量)。 现在我们有一个要求去查找一个地区在过去一小时内消耗的总能量并记录下来。 假设有一个灯泡在上午8点开启,功率为60瓦,并在8点20分关闭了10分钟。在8:30时,它以黯淡的方式开启,功率为40瓦。因此,在上午8点至上午9点之间消耗的能量(瓦每小时)应为: 60 * 20/60(上午8:00至上午8:2

    0热度

    1回答

    我怎么能收集传感器事件为每小时文档与原始消息的字段的子集的数组: 输入事件的格式如下: {"plantId": "Plant A", "machineId" : "M001", "sensorId": "S001", "unit": "kg", "time": "2017-09-05T22:00:14.9410000Z", "value": 1234.56} {"plantId": "Plan

    0热度

    1回答

    我通过azure流分析作业将文档插入MongoDB(作为CosmosDB中的服务)。 除了以字符串而不是日期时间字段到达数据库的时间字段之外,一切正常。 问题是azure流分析只能使用有效的JSON格式,而mongoDB接受的格式稍有不同。 目前,这是中发送的JSON消息: { "Time" : "08/16/2017 19:20:00" } 虽然MongoDB中应该得到这样的:

    0热度

    1回答

    有没有办法在流分析中做array_agg或string_agg的postgres等价物?我每隔几秒就会收到一次数据,并希望在一段时间内获得数值。 数据: {time:12:01:01,name:A,location:X,value:10} {time:12:01:01,name:B,location:X,value:9} {time:12:01:02,name:C,location:Y,val

    1热度

    2回答

    我无法找到一种方法来使http调用失败,并且包含自定义错误响应。 调用context.done()允许自定义响应(但不表示在应用洞察失败) 调用context.done(真实的,XXX)并创建一个失败,但返回通用错误用户(不管是什么,我把XXX): {"id":"b6ca6fb0-686a-4a9c-8c66-356b6db51848","requestId":"7599d94b-d3f2-48f

    0热度

    2回答

    我想对数据进行一些机器学习任务,因为它是通过来自事件中心的流分析进行的。但是,我的大部分数据处理管道和预测服务都是使用python。有没有办法将时间分块的数据发送到python脚本进行处理? Azure ML studio功能不适合我的需要,因为它似乎适用于单行数据,并且Stream Analytics中可用的聚合功能似乎不适用于此数据。

    0热度

    1回答

    在我的Azure流式分析作业中,我尝试对地址进行地理定位。我使用的参考大约是165 MB。参考数据的斑点被限制在每100 MB,但documentation状态以下: 流分析具有每斑点100 MB但作业限制可以通过使用路径图案属性处理多个参考斑点。 我该如何去利用这个优势?我已将数据分成两个85 MB文件,分别为iplookup1.csv和iplookup2.csv,但似乎无法弄清楚如何获取参考数

    0热度

    1回答

    是否有可能访问流作业中的设备孪生元数据。我知道我可以将数据上传到Blob存储并访问流式作业中的数据,但这会变得非常麻烦。 有没有一种方法可以访问流作业中的设备元数据(标签,所需属性,报告的属性),以便我可以坚持并相应地作出决定?

    0热度

    1回答

    是否可以将事件中心添加到Azure中的VNet并使其公开对待。是否有任何限制,只有VM/Web/API应用程序可以在VNet的公共子网中,而不是像Event Hub /物联网集线器/服务总线那样的资源

    1热度

    1回答

    我创建一个天青流分析查询和我需要输出恒定列标题/值,我注意到,如果我包括串表达式作为SELECT项,它需要被包含在单(')不是双引号(“),否则我得到一个NULL。 SELECT 'foo' as "bar" INTO ... FROM ... >>> outputs foo as a value of bar. SELECT "foo" as "bar" INTO ... FROM ... >