2
这是我们正在努力解决的问题。 我们正在处理大量项目的巨大流数据。我们也有一个预定义的项目列表。我们需要检查一个流中的每个项目是否属于我预定义的非常大的列表(大约400万项)。查找/检查操作应尽可能高效检查一个巨大的列表中的流项目
如果这里的人可以帮助我指出论文/算法,我可以阅读以正确的方式处理这个问题,那将是非常好的。
感谢,
这是我们正在努力解决的问题。 我们正在处理大量项目的巨大流数据。我们也有一个预定义的项目列表。我们需要检查一个流中的每个项目是否属于我预定义的非常大的列表(大约400万项)。查找/检查操作应尽可能高效检查一个巨大的列表中的流项目
如果这里的人可以帮助我指出论文/算法,我可以阅读以正确的方式处理这个问题,那将是非常好的。
感谢,
您可能需要来解决
一般来说,您会希望维护一个对象的散列表(或代表这些对象的唯一键),并查看每个对象,因为它通过您的流进来。散列表提供了快速查找,如果您的数据集是静态的,它们对于您描述的用例来说是理想的。但是,在其他解决方案可能表现更好的情况下,上述问题应该揭示是否是这种情况。
进一步的阅读,我会为你向Data Structures和Big-O符号的文章在维基百科上
编辑:我砍死在一起,这种快速程序来衡量蟒蛇哈希查找性能:
#!/usr/bin/python
import random
import string
import time
# return a random username, all lowercase, between n and m characters long
def generate_username(min_length = 5, max_length = 10):
n = random.randint(min_length, max_length)
return ''.join(random.sample(string.ascii_lowercase, n))
# Build a hash table of 4mil usernames (the 'predefined items')
users = set()
for i in xrange(4000000):
users.add(generate_username())
# Build a 'stream' of usernames to check against the hash table
stream = []
for i in xrange(10000000):
stream.append(generate_username())
# Measure performance of hash lookups for 10mil usernames
start = time.clock()
for name in stream:
if name in users:
pass #print "%s is present" % name
end = time.clock()
print "%fs (%f - %f)" % (end - start, start, end)
结果:
3.660000s (238.100000 - 241.760000)
所以在Python中,你可以检查10米在不到4秒的时间内,用户数量达到上限,相当于流媒体大于17MB/s。你真的需要多快? :)
感谢您的回复, – thickblood 2012-04-26 07:35:39
回答您的问题1)我的列表不适合在主内存中。 2)访问模式将是相同的类型。 3)我的项目是短串。更具体。他们是用户名。 4)这个列表也是一个静态列表。它不会改变。增量更新我的列表并不关心我。我正在考虑使用哈希表的方式。因为我的输入数据是高速数据流,所以我一直在寻找在流设置中使用的高效散列算法的指针 – thickblood 2012-04-26 07:42:23
用户名最多可能平均大约10个字节。 '4mil * 10 = 40MB',我错过了什么吗? – dwurf 2012-04-26 07:46:39