s3cmd

    1热度

    1回答

    s3cmd du -H s3://bucketabc/prefix/further-prefix 给出21G s3cmd du -H s3://bucketabc/prefix/further-prefix/ 给10G。 那里没有文件,只有四个“子目录”。 我有五个接近副本的桶,这只发生在其中两个桶中。其他人一致显示10G。 桶之间的唯一明显差异 - 和一个看似无关一个 - 是这给10G具

    0热度

    2回答

    建立s3cmd和我的S3桶后,当我尝试这个命令 sudo s3cmd sync --recursive --preserve /srv s3://MyS3Bucket 我得到这个错误: ERROR: S3 error: 400 (InvalidRequest): The authorization mechanism you have provided is not supported. Pl

    -2热度

    1回答

    是否存在被保留的文件路径使用拷贝文件到S3存储的方法吗? 这是例子: 1.我生产使用s3cmd同步--dry运行 名单是在bucket1不同,那么在bucket2文件列表如下: s3://BUCKET/20150831/PROD/JC-migration-test-01/META-INF/vault/definition/.content.xml s3://BUCKET/20150831/PRO

    1热度

    2回答

    我正在构建一个Apache Spark应用程序,该应用程序将在EMR实例中执行。为此,我创建了一个群集,之后我将步骤添加到群集以执行Spark应用程序。 在Spark应用程序中,我需要对S3执行读/写操作。 对于与S3服务的交互,我需要安装s3cmd in EMR实例。 也同时创造EMR集群,我需要安装和配置s3cmd使用--bootstrap应用 但我需要关于如何安装和配置s3cmd使用引导程序

    12热度

    1回答

    如何在使用aws s3 syn时排除多个文件夹? 我想: # aws s3 sync s3://inksedge-app-file-storage-bucket-prod-env s3://inksedge-app-file-storage-bucket-test-env --exclude 'reportTemplate/* orders/* customers/*' 但仍然是在做同步文件夹

    0热度

    3回答

    我想从s3中的已加密存储区下载文件。存储桶使用AES256加密。我使用下面的命令 s3cmd --access_key=<access_key> --secret_key=<secret_key> get <s3_key_location> <target_loc>. 我读了s3 usage。它没有多大帮助。 如何指定我要下载的文件从S3解密后的选项? 另外,由于铲斗被加密,该命令创建具有相同

    4热度

    1回答

    时,当我使用AWS同步设置配置文件,我可以doimg aws sync ./test s3://test --profile stage 的轮廓相匹配的一组凭据设置的配置文件。我为每个配置文件拥有不同的凭据。 如何使用s3cmd sync命令并设置配置文件,就像我使用aws sync一样?

    2热度

    1回答

    我使用s3cmd从AWS获取文件到我的Ubuntu服务器。 s3cmd get s3://bucket/filename newfilename 它从ubuntu的终端运行时工作正常。 但是,当我从PHP运行像下面 $query1 = 's3cmd get s3://bucket/filename newfilename'; $q1 = serialize(shell_exec($query

    1热度

    1回答

    我有一个要求,列出从一个Amazon S3位置的文件: BUCKET= "s3://static.abc.com" s3cmd ls --recursive $BUCKET/colorpics/*/640/ 的colorpics目录包含多个子目录多年,如: 2013 2014 2015 2016 所以ls命令应该动态列出所有年份的图像,并且应该仅从下一级子目录/640/中列出。 如

    0热度

    1回答

    我需要递归下载一个文件夹中的文件夹的目录树,但不要下载任何文件(它们很大)。这是我到目前为止: s3cmd --dry-run --recursive --no-delete-removed --verbose --rinclude='^[^.]*$' --rexclude='[^.]*$' sync s3://bucket_name/folder/ ~/Downloads/local_