阅读:1278回复:9
100分,关于中断频率变化的实时采集驱动程序的实现
问题背景: 在实时采集中,通过响应中断采集数据,通过共享APP的缓冲区实现数据交换.每XXX个字节通知采集线程处理一次.
问题提出: 当中断频率因为某种原因下降时,比如从2KBytes/s 降到30Bytes/s ,下降的幅度很大时,数据出现很大的延迟. 而这种延迟不能超过500ms. 请问: 当中断频率经常变化时,怎样减少延迟? 谢谢关注. |
|
|
沙发#
发布于:2003-08-22 20:41
您问题没有表达清楚!
数据出现延迟什么意思啊? 您的采样频率难道不是固定的吗? |
|
板凳#
发布于:2003-08-23 14:43
呵呵,我也很想知道这个问题
|
|
|
地板#
发布于:2003-08-24 16:06
是的,采样频率变化。而且没有规律。
采用缓冲区半满再通知APP,那么采样频率小的时候,APP数据得到的数据就被延迟了。很麻烦的问题。 |
|
|
地下室#
发布于:2003-08-24 16:35
“延迟了”是个什么概念,说明白些。
采样频率小,App得到数据的间隔时间当然会变长。 |
|
5楼#
发布于:2003-08-24 16:46
如果规定了延迟时间,这种延迟怎么才能减小呢?
|
|
|
6楼#
发布于:2003-08-24 16:58
举例: 缓冲区500字节
2000Hz时,数据到达APP的时间平均被延迟0.25秒 100Hz时,数据到达APP的时间平均被延迟5秒 如果规定延迟不能超过1秒,该怎么办? |
|
|
7楼#
发布于:2003-08-26 16:02
谢谢大家,这个问题我已经解决了.
谢谢关注. |
|
|
8楼#
发布于:2003-08-26 16:40
帖主能不能把你的解决办法给大家说一声,也让其他人有个借鉴,少走些弯路!
谢谢! |
|
|
9楼#
发布于:2003-08-26 19:39
实在对不起呀,这是关于军事的东西,说了不太好.
|
|
|