从我以前的问题来看,我试图建立一个简单的眼动仪。决定从Linux版本开始(运行Ubuntu)。同步屏幕录像(ffmpeg)和从网络摄像头捕捉(OpenCV)
要完成此任务,您应该组织屏幕录像和网络摄像头捕捉,以使来自两个流的帧完全相互匹配,并且每个帧中都有相同数量的帧。
Screencasting fps完全取决于相机的fps,因此每次我们从网络摄像头获取图像时,我们都可能抓住屏幕框架并保持高兴。但是,所有用于快速截屏的工具,例如ffmpeg,都会返回.avi文件,并要求已知fps已启动。
另一方面,Java + Robot或ImageMagick等工具似乎需要大约20ms才能返回.jpg任务的截图。但是可能会在每次抓取摄像头帧后立即请求并提供所需的同步。
所以子问题是:
- 是否单个会话期间USD摄像机的帧率变化?
- 有没有提供逐帧快速屏幕录像的工具?
- 有没有什么办法可以让ffmpeg只有在程序启动这个请求时才会向.avi文件推送一个新的帧?
对于我的任务,我可以使用C++或Java。
我实际上是一个界面设计师,而不是驱动程序员,而且这个任务看起来很低级。我会很感激任何建议和提示!
你的意思是FPS(每秒帧数),不FSP,正确吗? – metaliving 2010-06-05 16:41:27
当然,谢谢! :) – lyuba 2010-06-05 17:51:23
和USB而不是美元? – 2013-04-24 06:26:27