各位大神们及TI员工们:
我最近做了个实验,使用OMAPL138,ARM 和DSP跑的都是裸机程序.程序内容一模一样.都是delay延时一段时间灯闪烁(ARM和DSP延时的代码是一样的).
ARM和DSP分别控制一个LED灯.ARM的代码放在DDR2里跑,DSP的程序在L2RAM里跑.CPU的频率都是360MHZ,DDR2的频率是150MHZ.
上电运行后,发现DSP控制的LED闪烁频率明显快于ARM控制的LED.大概ARM的灯闪烁一次,DSP要闪5到6次.
我有几点疑惑:
1.相同CPU频率下,ARM 与DSP指令执行速度到底差多少?
2.ARM或者DSP的指令运行速率是由CPU的时钟频率决定的还是由它的代码存放的位置的读取频率决定的?比如说它的代码放在DDR2内的话,执行速率是不是 与DDR2的150MHZ有关系还是只跟CPU的频率有关系?
noaming:
首先代码一个放在L2中,而另一个放在DDR中,这样不具有可比性。可以放在共享内存中来比较。
执行代码的速度,L2中要比DDR中快。