引自 http://topic.csdn.net/t/20010521/10/128376.html
int型变量有时候占4个字节(在Win32),有时候占2个字节(在DOS)
这个int类型的大小到底是跟编译器有关,还是跟CPU有关,还是跟操作系统有关?
所谓的16位32位64位系统是由cpu决定的,由机器指令的寻址、寄存器位数决定的
os受cpu的限制,但在32位的cpu下16位的os也可以跑(就向上面提到的所谓纯dos)
很多os是向前兼容的,就是使以前的程序也能运行,如果编译器本身是16位时代做的,那么os会提供一个模拟16位的子环境供这个编译器使用
int和void*长度应该是一样的(16位的时候的20位的指针是两个16位错位加起来的)
非要转牛角尖的话,int只是语言定义里面的一个关键字,只对compiler可见,complier说它是几位就是几位,和os/cpu都没关系
永远都用sizeof是最安全的办法,但sizeof只是编译时常量,不能做到二进制兼容(移植)
说
int和void*一样长只是因为在一般情况下它们都应该可以放到单个寄存器里,其实这样说很不确切,还是不要这样理解的好,说在xx位的cpu上int
是多少位只是因为这级别的cpu有对xx位数据进行操作的单条指令(因为寄存器是xx位)(可能会有扩展指令,我不清楚,但关键看寄存器的位数),从而编
译器就图个方便把int做为xx位,这也不一定的,譬如以后64位机器出来了,可能编译器只是把long扩到64位,而int还是当作32,也挺合适的
呵呵,这也就是为什么很多程序不用int,short,long,而是自己定义一大把int32_t, int16_t, uint32_t, ...,以后不管cpu/compiler怎么变,它只需要改改自己的typedef
是
不是觉得short, unsigned short(or WORD)定义出来的就一定是16位而long, unsigned
long(DWORD)定义出来的就一定是32位呢?WORD和DWORD我是相信的,因为它们是M$VC里typedef了的,剩下的不还是依赖于编译
器么?
float存在的理由是因为存在浮点数,double存在的理由是因为需要处理精度更高的浮点数,int存在的理由是因为存在整数,long存在的理由是需要处理值域更大的整数,short存在的理由是为了节省空间处理值域较小的整数
int的意义在于当你需要定义一个循环变量(i=0; i<100; i++)的时候,你不需要费脑筋考虑到底用long还是用short,要不要加unsigned.............
标准之所以没有规定int、short、long的位数而把它们留给编译器自己决定,就是为了在硬件进化的时候编译器可以随之进化呀。