amazon-sqs

    1热度

    1回答

    我在这里有一个小问题。我想使用python从文本文件读取并创建队列,然后将这些行从文本文件发送到Amazon Web服务SQS(简单队列服务)。首先,我实际上设法使用boto来做到这一点,但问题是这些线不是按顺序排列的,只是随机的,就像4号线,1号线,5号线等等。 这里是我的代码: import boto.sqs conn = boto.sqs.connect_to_region("us-ea

    0热度

    1回答

    在Amazon SQS中,消息发布者创建队列并将消息发布到它们上。但是,为了使用队列中的消息,客户端需要知道队列URL,显然只有发布者知道。 我在这里错过了关于队列架构的工作原理吗?

    0热度

    1回答

    我有以下管道来移动事件: - 服务 - > SNS - > AWS Lambda - > Dynamo Db。 因此,基本上,Service将数据发布到由AWS Lambda Function订阅的SNS Topic。然后,此AWS Lambda函数将数据推送到Dynamo Db。现在,我正在使用AWS Lambda添加DLQ来存储错误处理的消息。 错误消息可能是由于发布者应用程序或消费者应用程序

    1热度

    1回答

    有没有什么方法可以使用库将数据流式传输或从Spark写入Amazon SQS队列? 在星火包装上市无 - https://spark-packages.org/ 我GOOGLE了一下,但发现没有什么。 有什么想法吗?

    3热度

    1回答

    我有一个SQS队列使用有以下政策文档。用于从桶中接收S3事件: { "Version": "2008-10-17", "Id": "example-ID", "Statement": [ { "Sid": "example-statement-ID", "Effect": "Allow", "Principal": {

    1热度

    3回答

    我正在寻找与我正在使用产品进行的架构设计决策有关的帮助。 我们已经有多个生产者(由API网关调用到Lambda中发起)将消息放入SQS队列(请求队列)中。可以有多个同时调用,所以会有多个并行运行的Lambda实例。 然后我们有消费者(让我们说20个EC2实例)对SQS进行长时间轮询以处理消息。他们需要大约30-45秒来处理每条消息。 然后,我会理想地将响应发回给发出请求的生产者 - 这是我与SQS

    1热度

    1回答

    SQS FIFO TPS限制从AWS SQS文档FIFO queues它说: FIFO队列还提供一次准确处理但被限制为每秒300个交易(TPS)。 ... FIFO队列支持邮件组,允许单个队列中的多个有序消息组。属于同一消息组 ... 消息总是处理一个接一个,严格相对于所述消息组(但是,消息的顺序属于不同的消息组中可能无序处理)。 是否知道这是否意味着将300 TPS限制应用于while队列或每个

    1热度

    2回答

    你好,并提前感谢您的时间。 在我的代码中,我正在向AWSSQS发出各种请求,这些请求都返回AWSTask。我发现使用这些AWSTask对象非常困难,同时也试图将所有特定于AWS的逻辑保存在一个类中,以便在需要时可以轻松切换到不同的云服务。 理想情况下,我想要做的是以串行方式异步执行一系列AWS任务。通常我只是将任务添加到自定义的串行调度队列中,但由于AWSTask对象本身就是异步任务,所以我不能这

    0热度

    1回答

    在我的客户端服务器中,我使用Artisan::queue向AWS SQS发送队列。在.env文件我配置QUEUE_DRIVER=sqs和config/queue.php文件我配置如下。 'default' => env('QUEUE_DRIVER', 'sqs'), 'sqs' => [ 'driver' => 'sqs', 'key' => 'MY_AWS_KEY',

    2热度

    2回答

    每当新消息添加到SQS时,我都希望触发Lambda函数。 请注意,我不想将新消息(事件)添加到SQS。 我想要做的事: 我的应用程序将发送消息给SQS 如果添加新的消息队列获取生成CloudWatch的事件 CloudWatch的事件触发拉姆达 问题: 在配置CloudWatch事件时在AWS控制台中我没有找到任何添加事件源的选项,即URL或我的SQS队列的名称。 我不确定这个用例是否有效,但请帮