compression

    14热度

    1回答

    我正在尝试为教育目的实施QM编码。我的主要资源是数据压缩手册第5版第5.11章。这是我粗略实现编码器的现在: def _encode_bit(self, bit): if bit == self._lps: self._code_lps() else: self._code_mps() def _code_mps(self): self._

    0热度

    3回答

    是否有任何主流压缩算法,例如snappy,zlib或bzip本地支持跨网络流数据?例如,如果我必须发送一个压缩的有效负载,那么在发送消息之前,我是否必须手动预先确定有效负载的大小?或者是否有任何库提供API来告知邮件是否完整,并给出x字节?

    3热度

    3回答

    我已经编写了几个用于处理FASTA/FASTQ文件的脚本(例如fastx-length.pl),但希望使它们更通用,并且同时接受压缩文件和未压缩文件作为命令行参数和标准输入(以便脚本“只是工作“,当你扔在他们的随机文件)。对于我来说,处理未压缩和压缩的文件(例如压缩读取文件,未压缩的组装基因组)是很常见的,并且像<(zcat file.fastq.gz)这样的插槽会很快变得烦人。 下面是来自fas

    0热度

    2回答

    我正在寻找大文本文件来测试从1kb到100mb的所有尺寸的压缩和解压缩。有人可以请参考我从某个链接下载它?

    1热度

    1回答

    当前最小阈值文件大小需要为1KB,以便在AWS Cloudfront中启用Gzip压缩。我想将压缩的最小文件大小要求从1KB减少到200B。我怎样才能配置相同?

    3热度

    1回答

    按照“硅谷”电视剧中所展示的效率压缩某些东西,是否真的有像weissmann得分那样的东西?

    0热度

    1回答

    因此,正如我发现要压缩数据Gzip在2012年还在使用甚至更多。这是2017年,我们仍然在使用Gzip的大部分地方。为什么这样?没有更好的选择吗? 个人而言,我必须在从服务器向应用程序发送数据(JSON字符串)的同时减少有效负载,反之亦然。我看到有更好的压缩,但它们需要更多的时间。我只是害怕我是否错过了一些东西?或者Gzip仍然是最好的?

    0热度

    1回答

    给定一个numpy数组,有没有一个脚本可以写在纯粹的python中,它会返回压缩比? 这是一个非常简单,具体的问题,我似乎无法拿出一个好的解决方案,而无需手动使用文件系统。 请注意,使用压缩文件本身与此问题无关。答案只需要与压缩比值有关。

    0热度

    1回答

    识别更多可压缩数据集,这可能是这里的问题的重复:Predict Huffman compression ratio without constructing the tree 所以基本上,我有两个数据集具有相同的变量,但不同的概率概率分布。现在,有没有办法通过查看变量分布,我可以在某种程度上自信地说数据集在通过霍夫曼编码实现后会获得比另一个更高的压缩比? 我遇到的解决方案之一是使用条件熵计算上限,

    0热度

    1回答

    我想使用ZipArchiveMode压缩几个文件。这些文件位于不同的目录中。 zipFile.CreateEntryFromFile(file, Path.GetFileName(file), compression); 我打电话给每个文件。 有没有办法在文件中保持文件夹的完整性,以便它解压缩到正确的文件夹? 如果没有,我还有其他压缩文件的选项吗? 谢谢