问个简单问题,2440执行一条指令的时间是怎么算的?
我使用GPIO模拟IIC驱动程序。
搞了两天也不成功,
我怀疑是延时不精确
想问一下2440执行一条C语言指令的时间是怎么确定的?
比如
static void Delay(USHORT count)
{
volatile int i, j = 0;
volatile static int loop = S3C2440A_FCLK/100000;
//RETAILMSG(1,(TEXT("S3C2440A_FCLK/100000=0x%x\r\n"),S3C2440A_FCLK/100000));
//S3C2440A_FCLK/100000=0xfd2=4050会不会太大呢?
for(;count > 0;count--)
for(i=0;i < loop; i++) { j++; }
}
这是我模拟IIC使用的延时程序。
这个S3C2440A_FCLK是不是相当于51单片机的12M晶振的作用?
如果是这样那么2440执行一条C的指令应该是
(1/S3C2440A_FCLK)*12,我这样理解对吗?
请了解的人说一下。
我觉得我IIC模拟的不行极有可能是这样原因。
刚接触ARM几个月,发现好多不明白。
[解决办法]
拿示波器把波形抓下来分析一下,看到底是哪里的时序不对了了,再调整调整就可以啊
2440自己有标准的IIC接口,为什么要用GPIO来模拟呢?
[解决办法]
如果是这样那么2440执行一条C的指令应该是
(1/S3C2440A_FCLK)*12,我这样理解对吗?
这个好象有问题吧,每条C的指令转成汇编后有可能是几条指令,一般理解是要看汇编指令,执行不同的指令可能需要的时间也不一样,记得以前书上有说的
一般是1个或者2个或者4个Clock吧,具体的不记得了,没有仔细研究过
所以*12肯定是有问题的
[解决办法]
用过Kitl, kitl跟Bootloader没有什么关系的
没有示波器?那怎么用GPIO来模拟?怎么知道时序对不对,Faint
[解决办法]
对,只能算出汇编代码的执行时间,C语言不行。
[解决办法]