计算机系统中,我们是以字节为单位的,每个地址单元都对应着一个字节,一个字节为 8bit。但是在C语言中除了8bit的char之外,还有16bit的short型,32bit的long型(要看具体的编译器),另外,对于位数大于 8位的处理器,例如16位或者32位的处理器,由于寄存器宽度大于一个字节,那么必然存在着一个如何将多个字节安排的问题。因此就导致了大端存储模式和小端存储模式。例如一个16bit的short型x,在内存中的地址为0x0010,x的值为0x1122,那么0x11为高字节,0x22为低字节。对于 大端模式,就将0x11放在低地址中,即0x0010中,0x22放在高地址中,即0x0011中。小端模式,刚好相反。我们常用的X86结构是小端模式,而KEIL C51则为大端模式。很多的ARM,DSP都为小端模式。有些ARM处理器还可以由硬件来选择是大端模式还是小端模式。----百度百科
由于不同的计算机系统可能存在不同的大小端模式,所以不同的体系系统间通信就需要进行大小端转换。任何在不同系统间的通信信息都经过网络字节(大端)序进行传输,也就是说不管本机是什么模式,都要保证发送端传输的数据转换为网络序,接受端都要把网络序的数据转换为本地序。
16bit和32bit的大小端转换很常见,一般也不会存在什么问题。但如果定义的数据结构中包含bit位域,该如何转换呢?
1)低字节都存放在低地址
2)大端模式首先为字段的高bit位分配空间,小端模式首先为字段的低bit位分配空间
3)大端模式首先存放在地址的高bit位,小端模式首先存放在地址的低bit位
一个例子
struct
{
short bit1:4
short bit2:9
short bit3:3
};
大端模式下在内存中存放的形式如下:
Bit1 |
Bit2(h4) |
Bit2(l5) |
Bit3 |
7 0 7 0
图1
小端模式下在内存中存放的形式如下:
Bit2(l4) |
Bit1 |
Bit3 |
Bit2(h5) |
7 0 7 0
图2
如果我们在小端机器上,数据流按照图2的格式发送到目标端是大端的机器上,明显不能直接通过图1的结构来解码。
如果为大小端分别定义两套结构呢?定义如下:
struct
{
#ifdef __LITTLE_ENDIAN__
short bit1:4
short bit2:9
short bit3:3
#else
short bit3:3
short bit2:9
short bit1:4
#endif
};
在大端的机器上我们按照下面的格式进行解析:
Bit3 |
Bit2(h5) |
Bit2(l4) |
Bit1 |
7 0 7 0
图3
可是解码的数据还是不对,但观察一下不难发现,如果我们把小端的的数据(图2)前后两个字节颠倒,就和大端机器上的结构(图3)完全一致了。
综上所述,bit位域的大小端转换如下:
1: 在机器上定义大小端两套数据结构分别针对大小端
2:传输的bit域数据需要进行本机序->网络序->本机序的转换过程(bit域数据可以映射为对应长度的short或int类型进行转换)
struct
{
short bitData;
};
3:定义不超过一个字节的bit位域,只需要定义两套数据结构,不再需要进行本机序->网络序->本机序的转换过程
http://www.cnblogs.com/chencheng/archive/2012/06/19/2554081.html