我正在建立一个网站,其基本前提是有两个文件。 index.php和file.txt。PHP文件寻求性能优化
File.txt具有(当前)10megs的数据,可能高达500mb。该网站的想法是,人们去index.php,然后可以寻求文件的任何位置。另一个特点是他们可以从搜索的角度读取10kb的数据。所以:
index.php?pos=432
将获得文件上位置423的字节。从555位
开始
index.php?pos=555&len=5000
将得到的数据5KB从文件现在,想象一下,该网站得到数千次点击的日子。
我目前使用fseek
和fread
来提供数据。有没有更快的方法来做到这一点?或者我的用法太低,无法考虑高级优化,例如缓存每个请求的结果或将文件加载到内存中并从中读取?
现阶段您应该考虑使用带索引的数据库。 –
然而,文件中的数据不会以任何方式进行人工编辑。它实际上只是存储随机系列的数字和字母。应用程序将根据用户的请求检索任意数据段(最多10kb)。所以有人可能会要求位置10的1000个字节和位置11的1000个字节。虽然结果几乎相同,但它们是不同的。你的数据库实现如何解决这个问题? – Ozzy