的情况如下:处理文本文件
一系列远程工作站采集现场数据,并通过FTP的FTP收集到的现场数据的服务器。数据作为CSV文件发送,存储在FTP服务器中每个工作站的唯一目录中。
每个工作站每隔10分钟发送一次新更新,导致先前的数据被覆盖。我们想以某种方式自动连接或存储这些数据。工作站的处理是有限的,不能扩展,因为它是一个嵌入式系统。
提供的一个建议是在FTP服务器上运行cronjob,但是有一个服务条款限制只允许30分钟的时间间隔cronjob,因为它是共享托管的。鉴于上传工作站的数量和上传时间间隔为10分钟,看起来cronjob的30分钟呼叫限制可能是一个问题。
有没有其他方法可能会被建议?可用的服务器端脚本语言是perl,php和python。
升级到专用服务器可能是必要的,但我仍然想以最优雅的方式获得有关如何解决此问题的输入。