socket.error: [Errno 99] Cannot assign requested address
网上你去搜,基本都是说bind的时候,地址已经被用了,都是胡扯。地址被用报的错误应该是:
Address already in use才对
然后我看得都是英文的,说明外国人也不是想象中的那么一丝不苟,
言归正传。socket发起connect请求的时候会随机分配一个端口给你。这个分配的端口是有范围的,记录在:
/proc/sys/net/ipv4/ip_local_port_range
这个文件里面(fedora 17).当你用多个进程发起过多的请求的时候,端口用完了就会报这个错误。比如我就开了4个进程,一下发起了40000个请求。
你可以做个实验试试,切换到root用户,敲一下这条命令:
echo 32768 32769 > /proc/sys/net/ipv4/ip_local_port_range
这下你打开人人,微博就会发现很多图片加载不出来了。因为图片加载在浏览器里面就是并行加载的,由于你没有足够的端口数,所以图片加载都失败了。别当心,这个修改是临时的(是不是临时的我也不知道,听别人说的)
修改过来用下面这条命令:
echo 32768 61000 > /proc/sys/net/ipv4/ip_local_port_range
32768 到 61000 是系统默认的随机分配端口范围(再次声明,fedora 17版本)
(3) errno = 99的原因;
至于connect系统调用为什么返回失败,就只能看系统调用的实现了。
a) connect系统调用
connect系统调用在net/socket.c中实现,Sys_connect系统调用的调用栈如下:
Sys_connect--->
sock->ops->connect // inet_stream_connect
sk->sk_prot->connect // tcp_v4_connect
tcp_v4_connect的作用主要是完成TCP连接三次握手中的第一个握手,即向服务端发送SYNC = 1和一个32位的序号的连接请求包。要发送SYNC请求包,按照TCP/IP协议,就必须有源IP地址和端口,源IP地址的选择和路由相关,需要查询路由表,在ip_route_connect中实现,源端口的选择在__inet_hash_connect中实现,而且如果找不到一个可用的端口,这个函数会返回-EADDRNOTAVAIL,因此基本上可以确定是这个函数返回错误导致connect失败;
b) __inet_hash_connect
这个函数的主要作用是选择一个可用的端口,其主要的实现步骤如下:
i. 调用inet_get_local_port_range(&low, &high);获取可用的端口链表;
- 调用read_seqbegin(&sysctl_local_ports.lock);得到顺序锁;
- 得到可用端口的low和high:
*low = sysctl_local_ports.range[0];
*high = sysctl_local_ports.range[1];
ii. 对于每一个端口,进行下面的步骤:
- 在inet_hashinfo *hinfo中查找这个端口inet_hashinfo用于保存已经使用的端口信息,每个使用的端口在这个hash表中有一个entry;
- 对端口做hash得到链表头(使用链表解决hash冲突)
- 遍历链表中的每一个entry:
a) 判断是否与这个要使用的端口相同,如果相同转到步骤b,如果不相同则遍历下一个entry
b) 找到这个端口,调用check_established(__inet_check_established)判断这个端口是否可以重用(TIME_WAIT状态下的端口并且net.ipv4.tcp_tw_recycle = 1是端口可以重用)
- 如果在链表中没有找到这个端口,表示端口没有被使用,调用inet_bind_bucket_create在hash表中插入一个entry;
iii. 如果到最后都没有找到一个可用的端口就返回EADDRNOTAVAIL;
从这个函数的实现可以看出,主要是由于可用的端口被占满了,所以找不到一个可用的端口,导致连接失败。运行netstat可以发现确实存在很多TIME_WAIT状态的socket,这些socket将可用端口占满了。
[root@test miuistorage-dev]# netstat -n | awk '/^tcp/ {++state[$NF]} END {for(key in state) print key," ",state[key]}' TIME_WAIT 26837 ESTABLISHED 30
(4) 解决办法:
要解决端口被TIME_WAIT状态的socket占满的问题,可以有以下的解决办法:
a) 修改可用端口范围
查看当前的端口范围:
root@guojun8-desktop:/linux-2.6.34# sysctl net.ipv4.ip_local_port_range
net.ipv4.ip_local_port_range = 32768 61000
修改端口范围:
root@guojun8-desktop:linux-2.6.34# sysctl net.ipv4.ip_local_port_range="32768 62000"
net.ipv4.ip_local_port_range = 32768 62000
这种办法可能不能解决根本问题,因为如果使用短连接,即使增加可用端口还是会被占满的。
b) 设置net.ipv4.tcp_tw_recycle = 1(本人采用这种解决方式)
这个参数表示系统的TIME-WAIT sockets是否可以快速回收
root@guojun8-desktop:linux-2.6.34# sysctl net.ipv4.tcp_tw_recycle=1 net.ipv4.tcp_tw_recycle = 1
c) 设置net.ipv4.tcp_tw_reuse=1
这个参数表示是否可以重用TIME_WAIT状态的端口;
root@guojun8-desktop:linux-2.6.34# [root@test thumbnail]# sysctl net.ipv4.tcp_tw_reuse=1 net.ipv4.tcp_tw_reuse = 1
(5) 更深入的探讨:sysctl做了什么
可以用strace跟踪一下sysctl的系统调用:
root@guojun8-desktop:linux-2.6.34# strace sysctl net.ipv4.tcp_tw_recycle=1
execve("/sbin/sysctl", ["sysctl", "net.ipv4.tcp_tw_recycle=1"], [/* 20 vars */]) = 0
brk(0) = 0x952f000
…..
open("/proc/sys/net/ipv4/tcp_tw_recycle", O_WRONLY|O_CREAT|O_TRUNC, 0666) = 3
fstat64(3, {st_mode=S_IFREG|0644, st_size=0, ...}) = 0
mmap2(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0xb788e000
write(3, "1
", 2) = 2
close(3) = 0
munmap(0xb788e000, 4096) = 0
fstat64(1, {st_mode=S_IFCHR|0620, st_rdev=makedev(136, 8), ...}) = 0
mmap2(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0xb788e000
write(1, "net.ipv4.tcp_tw_recycle = 1
", 28net.ipv4.tcp_tw_recycle = 1
) = 28
exit_group(0) = ?
可以看到这个程序打开/proc/sys/net/ipv4/tcp_tw_recycle并向文件中写入1,但是这个设置时怎样其作用的呢?在内核中对/proc/sys目录下的文件的i_fop做了特殊的处理,在proc_sys_make_inode 中设置:inode->i_fop = &proc_sys_file_operationsproc_sys_file_operations的定义如下:
static const struct file_operations proc_sys_file_operations = {
.read = proc_sys_read,
.write = proc_sys_write,
};
proc_sys_write中会修改对应的文件,并且修改内存中的内容,不同的文件有不同的proc_handler,如tcp_tw_recycle对应的处理函数是proc_dointvec,这个函数会修改下面的变量:
tcp_death_row.sysctl_tw_recycle
这个变量在内核中表示TIME_WIAT状态的socket是否可以被快速回收。
(3) errno = 99的原因;
至于connect系统调用为什么返回失败,就只能看系统调用的实现了。
a) connect系统调用
connect系统调用在net/socket.c中实现,Sys_connect系统调用的调用栈如下:
Sys_connect--->
sock->ops->connect // inet_stream_connect
sk->sk_prot->connect // tcp_v4_connect
tcp_v4_connect的作用主要是完成TCP连接三次握手中的第一个握手,即向服务端发送SYNC = 1和一个32位的序号的连接请求包。要发送SYNC请求包,按照TCP/IP协议,就必须有源IP地址和端口,源IP地址的选择和路由相关,需要查询路由表,在ip_route_connect中实现,源端口的选择在__inet_hash_connect中实现,而且如果找不到一个可用的端口,这个函数会返回-EADDRNOTAVAIL,因此基本上可以确定是这个函数返回错误导致connect失败;
b) __inet_hash_connect
这个函数的主要作用是选择一个可用的端口,其主要的实现步骤如下:
i. 调用inet_get_local_port_range(&low, &high);获取可用的端口链表;
- 调用read_seqbegin(&sysctl_local_ports.lock);得到顺序锁;
- 得到可用端口的low和high:
*low = sysctl_local_ports.range[0];
*high = sysctl_local_ports.range[1];
ii. 对于每一个端口,进行下面的步骤:
- 在inet_hashinfo *hinfo中查找这个端口inet_hashinfo用于保存已经使用的端口信息,每个使用的端口在这个hash表中有一个entry;
- 对端口做hash得到链表头(使用链表解决hash冲突)
- 遍历链表中的每一个entry:
a) 判断是否与这个要使用的端口相同,如果相同转到步骤b,如果不相同则遍历下一个entry
b) 找到这个端口,调用check_established(__inet_check_established)判断这个端口是否可以重用(TIME_WAIT状态下的端口并且net.ipv4.tcp_tw_recycle = 1是端口可以重用)
- 如果在链表中没有找到这个端口,表示端口没有被使用,调用inet_bind_bucket_create在hash表中插入一个entry;
iii. 如果到最后都没有找到一个可用的端口就返回EADDRNOTAVAIL;
从这个函数的实现可以看出,主要是由于可用的端口被占满了,所以找不到一个可用的端口,导致连接失败。运行netstat可以发现确实存在很多TIME_WAIT状态的socket,这些socket将可用端口占满了。
[root@test miuistorage-dev]# netstat -n | awk '/^tcp/ {++state[$NF]} END {for(key in state) print key," ",state[key]}' TIME_WAIT 26837 ESTABLISHED 30
(4) 解决办法:
要解决端口被TIME_WAIT状态的socket占满的问题,可以有以下的解决办法:
a) 修改可用端口范围
查看当前的端口范围:
root@guojun8-desktop:/linux-2.6.34# sysctl net.ipv4.ip_local_port_range
net.ipv4.ip_local_port_range = 32768 61000
修改端口范围:
root@guojun8-desktop:linux-2.6.34# sysctl net.ipv4.ip_local_port_range="32768 62000"
net.ipv4.ip_local_port_range = 32768 62000
这种办法可能不能解决根本问题,因为如果使用短连接,即使增加可用端口还是会被占满的。
b) 设置net.ipv4.tcp_tw_recycle = 1
这个参数表示系统的TIME-WAIT sockets是否可以快速回收
root@guojun8-desktop:linux-2.6.34# sysctl net.ipv4.tcp_tw_recycle=1 net.ipv4.tcp_tw_recycle = 1
c) 设置net.ipv4.tcp_tw_recycle = 1
这个参数表示是否可以重用TIME_WAIT状态的端口;
root@guojun8-desktop:linux-2.6.34# [root@test thumbnail]# sysctl net.ipv4.tcp_tw_reuse=1 net.ipv4.tcp_tw_reuse = 1
(5) 更深入的探讨:sysctl做了什么
可以用strace跟踪一下sysctl的系统调用:
root@guojun8-desktop:linux-2.6.34# strace sysctl net.ipv4.tcp_tw_recycle=1
execve("/sbin/sysctl", ["sysctl", "net.ipv4.tcp_tw_recycle=1"], [/* 20 vars */]) = 0
brk(0) = 0x952f000
…..
open("/proc/sys/net/ipv4/tcp_tw_recycle", O_WRONLY|O_CREAT|O_TRUNC, 0666) = 3
fstat64(3, {st_mode=S_IFREG|0644, st_size=0, ...}) = 0
mmap2(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0xb788e000
write(3, "1
", 2) = 2
close(3) = 0
munmap(0xb788e000, 4096) = 0
fstat64(1, {st_mode=S_IFCHR|0620, st_rdev=makedev(136, 8), ...}) = 0
mmap2(NULL, 4096, PROT_READ|PROT_WRITE, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0xb788e000
write(1, "net.ipv4.tcp_tw_recycle = 1
", 28net.ipv4.tcp_tw_recycle = 1
) = 28
exit_group(0) = ?
可以看到这个程序打开/proc/sys/net/ipv4/tcp_tw_recycle并向文件中写入1,但是这个设置时怎样其作用的呢?在内核中对/proc/sys目录下的文件的i_fop做了特殊的处理,在proc_sys_make_inode 中设置:inode->i_fop = &proc_sys_file_operationsproc_sys_file_operations的定义如下:
static const struct file_operations proc_sys_file_operations = {
.read = proc_sys_read,
.write = proc_sys_write,
};
proc_sys_write中会修改对应的文件,并且修改内存中的内容,不同的文件有不同的proc_handler,如tcp_tw_recycle对应的处理函数是proc_dointvec,这个函数会修改下面的变量:
tcp_death_row.sysctl_tw_recycle
这个变量在内核中表示TIME_WIAT状态的socket是否可以被快速回收。