⼀、Sysctl命令⽤来配置与显⽰在/proc/sys⽬录中的内核参数.如果想使参数长期保存,可以通过编辑/f⽂件来实现。
命令格式:
sysctl [-n] [-e] -w variable=value
sysctl [-n] [-e] -p (default /f)
sysctl [-n] [-e] –a
常⽤参数的意义:
-w 临时改变某个指定参数的值,如
# sysctl -w net.ipv4.ip_forward=1
-a 显⽰所有的系统参数
-p从指定的⽂件加载系统参数,默认从/f ⽂件中加载,如:
# echo 1 > /proc/sys/net/ipv4/ip_forward
# sysctl -w net.ipv4.ip_forward=1
以上两种⽅法都可能⽴即开启路由功能,但如果系统重启,或执⾏了
# service network restart
命令,所设置的值即会丢失,如果想永久保留配置,可以修改/f⽂件,将 net.ipv4.ip_forward=0改为
net.ipv4.ip_forward=1
⼆、linux内核参数调整:linux 内核参数调整有两种⽅式
⽅法⼀:修改/proc下内核参数⽂件内容,不能使⽤编辑器来修改内核参数⽂件,理由是由于内核随时可能更改这些⽂件中的任意⼀个,另外,这些内核参数⽂件都是虚拟⽂件,实际中不存在,因此不能使⽤编辑器进⾏编辑,⽽是使⽤echo命令,然后从命令⾏将输出重定向⾄/proc 下所选定的⽂件中。如:将 timeout_timewait 参数设置为30秒:
# echo 30 > /proc/sys/net/ipv4/tcp_fin_timeout
参数修改后⽴即⽣效,但是重启系统后,该参数⼜恢复成默认值。因此,想永久更改内核参数,需要修改/f⽂件
⽅法⼆.修改/f⽂件。检查f⽂件,如果已经包含需要修改的参数,则修改该参数的值,如果没有需要修改的参数,在f⽂件中添加参数。如:
p_fin_timeout=30
保存退出后,可以重启机器使参数⽣效,如果想使参数马上⽣效,也可以执⾏如下命令:
# sysctl -p
三、f ⽂件中参数设置及说明
proc/sys/net/core/wmem_max
最⼤socket写buffer,可参考的优化值:873200
/proc/sys/net/core/rmem_max
最⼤socket读buffer,可参考的优化值:873200
/proc/sys/net/ipv4/tcp_wmem
TCP写buffer,可参考的优化值: 8192 436600 873200虾干
/proc/sys/net/ipv4/tcp_rmem
TCP读buffer,可参考的优化值: 32768 436600 873200
/proc/sys/net/ipv4/tcp_mem
同样有3个值,意思是:
p_mem[0]:低于此值,TCP没有内存压⼒.
p_mem[1]:在此值下,进⼊内存压⼒阶段.
p_mem[2]:⾼于此值,TCP拒绝分配socket.
上述内存单位是页,⽽不是字节.可参考的优化值是:786432 1048576 1572864
/proc/sys/net/core/netdev_max_backlog
进⼊包的最⼤设备队列.默认是300,对重负载服务器⽽⾔,该值太低,可调整到1000
/proc/sys/net/core/somaxconn
林志玲资料listen()的默认参数,挂起请求的最⼤数量.默认是128.对繁忙的服务器,增加该值有助于⽹络性能.可调整到256.
/proc/sys/net/core/optmem_max
socket buffer的最⼤初始化值,默认10K
/proc/sys/net/ipv4/tcp_max_syn_backlog
进⼊SYN包的最⼤请求队列.默认1024.对重负载服务器,可调整到2048
/proc/sys/net/ipv4/tcp_retries2
TCP失败重传次数,默认值15,意味着重传15次才彻底放弃.可减少到5,尽早释放内核资源.
/proc/sys/net/ipv4/tcp_keepalive_time
/proc/sys/net/ipv4/tcp_keepalive_intvl
/proc/sys/net/ipv4/tcp_keepalive_probes
这3个参数与TCP KeepAlive有关.默认值是:
tcp_keepalive_time = 7200 seconds (2 hours)
tcp_keepalive_probes = 9
tcp_keepalive_intvl = 75 seconds
意思是如果某个TCP连接在idle 2个⼩时后,内核才发起probe.如果probe 9次(每次75秒)不成功,内核才彻底放弃,认为该连接已失效.对服务器⽽⾔,显然上述值太⼤. 可调整到:
/proc/sys/net/ipv4/tcp_keepalive_time 1800
/proc/sys/net/ipv4/tcp_keepalive_intvl 30
/proc/sys/net/ipv4/tcp_keepalive_probes 3
/proc/sys/net/ipv4/ip_local_port_range
指定端⼝范围的⼀个配置,默认是32768 61000,已够⼤.
p_syncookies = 1
表⽰开启SYN Cookies。当出现SYN等待队列溢出时,启⽤cookies来处理,可防范少量SYN攻击,默认为0,表⽰关闭;
p_tw_reuse = 1
表⽰开启重⽤。允许将TIME-WAIT sockets重新⽤于新的TCP连接,默认为0,表⽰关闭;
p_tw_recycle = 1
表⽰开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表⽰关闭。
p_fin_timeout = 30
表⽰如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间。
p_keepalive_time = 1200
表⽰当keepalive起⽤的时候,TCP发送keepalive消息的频度。缺省是2⼩时,改为20分钟。
net.ipv4.ip_local_port_range = 1024 65000
表⽰⽤于向外连接的端⼝范围。缺省情况下很⼩:32768到61000,改为1024到65000。
p_max_syn_backlog = 8192曾黎 男人装
表⽰SYN队列的长度,默认为1024,加⼤队列长度为8192,可以容纳更多等待连接的⽹络连接数。
p_max_tw_buckets = 5000
表⽰系统同时保持TIME_WAIT套接字的最⼤数量,如果超过这个数字,TIME_WAIT套接字将⽴刻被清除并打印警告信息。默认为180000,改为 5000。对于Apache、Nginx等服务器,上⼏⾏的参数可以很好地减少TIME_WAIT套接字数量,但是对于Squid,效果却不⼤。此项参数可以控制TIME_WAIT套接字的最⼤数量,避免Squid服务器被⼤量的TIME_WAIT套接字拖死。
Linux上的NAT与iptables
谈起Linux上的NAT,⼤多数⼈会跟你提到iptables。原因是因为iptables是⽬前在linux上实现NAT的⼀个⾮常好的接⼝。它通过和内核级直接操作⽹络包,效率和稳定性都⾮常⾼。这⾥简单列举⼀些NAT相关的iptables实例命令,可能对于⼤多数实现有多帮助。
这⾥说明⼀下,为了节省篇幅,这⾥把准备⼯作的命令略去了,仅仅列出核⼼步骤命令,所以如果你
单单执⾏这些没有实现功能的话,很可能由于准备⼯作没有做好。如果你对整个命令细节感兴趣的话,可以直接访问我的《如何让你的Linux⽹关更强⼤》系列⽂章,其中对于各个脚本有详细的说明和描述。
# 案例1:实现⽹关的MASQUERADE
# 具体功能:内⽹⽹卡是eth1,外⽹eth0,使得内⽹指定本服务做⽹关可以访问外⽹
EXTERNAL="eth0"
INTERNAL="eth1"
# 这⼀步开启ip转发⽀持,这是NAT实现的前提
echo 1 > /proc/sys/net/ipv4/ip_forward
iptables -t nat -A POSTROUTING -o $EXTERNAL -j MASQUERADE
# 案例2:实现⽹关的简单端⼝映射
# 具体功能:实现外⽹通过访问⽹关的外部ip:80,可以直接达到访问私有⽹络内的⼀台主机192.168.1.
姜亦珊10:80效果
LOCAL_EX_IP=11.22.33.44 #设定⽹关的外⽹卡ip,对于多ip情况,参考《如何让你的Linux⽹关更强⼤》系列⽂章
LOCAL_IN_IP=192.168.1.1 #设定⽹关的内⽹卡ip
INTERNAL="eth1" #设定内⽹卡
# 这⼀步开启ip转发⽀持,这是NAT实现的前提
echo 1 > /proc/sys/net/ipv4/ip_forward
# 加载需要的ip模块,下⾯两个是ftp相关的模块,如果有其他特殊需求,也需要加进来
modprobe ip_conntrack_ftp
modprobe ip_nat_ftp
租房子要注意什么# 这⼀步实现⽬标地址指向⽹关外部ip:80的访问都吧⽬标地址改成192.168.1.10:80
iptables -t nat -A PREROUTING -d $LOCAL_EX_IP -p tcp --dport 80 -j DNAT --to 192.168.1.10
# 这⼀步实现把⽬标地址指向192.168.1.10:80的数据包的源地址改成⽹关⾃⼰的本地ip,这⾥是192.168.1.1
iptables -t nat -A POSTROUTING -d 192.168.1.10 -p tcp --dport 80 -j SNAT --to $LOCAL_IN_IP
# 在FORWARD链上添加到192.168.1.10:80的允许,否则不能实现转发
iptables -A FORWARD -o $INTERNAL -d 192.168.1.10 -p tcp --dport 80 -j ACCEPT
# 通过上⾯重要的三句话之后,实现的效果是,通过⽹关的外⽹ip:80访问,全部转发到内⽹的192.168.1.10:80端⼝,实现典型的端⼝映射
# 特别注意,所有被转发过的数据都是源地址是⽹关内⽹ip的数据包,所以192.168.1.10上看到的所有访问都好像是⽹关发过来的⼀样,⽽看不到外部ip
# ⼀个重要的思想:数据包根据“从哪⾥来,回哪⾥去”的策略来⾛,所以不必担⼼回头数据的问题
# 现在还有⼀个问题,⽹关⾃⼰访问⾃⼰的外⽹ip:80,是不会被NAT到192.168.1.10的,这不是⼀个严重的问题,但让⼈很不爽,解决的⽅法如下:
iptables -t nat -A OUTPUT -d $LOCAL_EX_IP -p tcp --dport 80 -j DNAT --to 192.168.1.10
获取系统中的NAT信息和诊断错误
了解/proc⽬录的意义
在Linux系统中,/proc是⼀个特殊的⽬录,proc⽂件系统是⼀个伪⽂件系统,它只存在内存当中,⽽不占⽤外存空间。它包含当前系统的⼀些参数(variables)和状态(status)情况。它以⽂件系统的⽅式为访问系统内核数据的操作提供接⼝
通过/proc可以了解到系统当前的⼀些重要信息,包括磁盘使⽤情况,内存使⽤状况,硬件信息,⽹络使⽤情况等等,很多系统监控⼯具(如HotSaNIC)都通过/proc⽬录获取系统数据。
另⼀⽅⾯通过直接操作/proc中的参数可以实现系统内核参数的调节,⽐如是否允许ip转发,syn-cookie是否打开,tcp超时时间等。
获得参数的⽅式:
第⼀种:cat /proc/xxx/xxx,如 cat /proc/sys/net/ipv4/conf/all/rp_filter
第⼆种:x,如 sysctl f.all.rp_filter
改变参数的⽅式:
第⼀种:echo value > /proc/xxx/xxx,如 echo 1 > /proc/sys/net/ipv4/conf/all/rp_filter
第⼆种:sysctl [-w] variable=value,如 sysctl [-w] f.all.rp_filter=1
以上设定系统参数的⽅式只对当前系统有效,重起系统就没了,想要保存下来,需要写⼊/f⽂件中
通过执⾏ man 5 proc可以获得⼀些关于proc⽬录的介绍
查看系统中的NAT情况
和NAT相关的系统变量
/proc/slabinfo:内核缓存使⽤情况统计信息(Kernel slab allocator statistics)
/proc/sys/net/ipv4/ip_conntrack_max:系统⽀持的最⼤ipv4连接数,默认65536(事实上这也是理论最⼤值)
/proc/sys/net/ipv4/netfilter/ip_conntrack_tcp_timeout_established 已建⽴的tcp连接的超时时间,默认432000,也就是5天
和NAT相关的状态值
/proc/net/ip_conntrack:当前的前被跟踪的连接状况,nat翻译表就在这⾥体现(对于⼀个⽹关为主要功能的Linux主机,⾥⾯⼤部分信息是NAT翻译表)
/proc/sys/net/ipv4/ip_local_port_range:本地开放端⼝范围,这个范围同样会间接限制NAT表规模
# 1. 查看当前系统⽀持的最⼤连接数
cat /proc/sys/net/ipv4/ip_conntrack_max
# 值:默认65536,同时这个值和你的内存⼤⼩有关,如果内存128M,这个值最⼤8192,1G以上内存这个值都是默认65536
# 影响:这个值决定了你作为NAT⽹关的⼯作能⼒上限,所有局域⽹内通过这台⽹关对外的连接都将占⽤⼀个连接,如果这个值太低,将会影响吞吐量
# 2. 查看tcp连接超时时间
cat /proc/sys/net/ipv4/netfilter/ip_conntrack_tcp_timeout_established
# 值:默认432000(秒),也就是5天
# 影响:这个值过⼤将导致⼀些可能已经不⽤的连接常驻于内存中,占⽤⼤量链接资源,从⽽可能导致NAT ip_conntrack: table full的问题
# 建议:对于NAT负载相对本机的 NAT表⼤⼩很紧张的时候,可能需要考虑缩⼩这个值,以尽早清除连接,保证有可⽤的连接资源;如果不紧张,不必修改
# 3. 查看NAT表使⽤情况(判断NAT表资源是否紧张)
# 执⾏下⾯的命令可以查看你的⽹关中NAT表情况
cat /proc/net/ip_conntrack
# 4. 查看本地开放端⼝的范围
cat /proc/sys/net/ipv4/ip_local_port_range
# 返回两个值,最⼩值和最⼤值
# 下⾯的命令帮你明确⼀下NAT表的规模
wc -l /proc/net/ip_conntrack
#或者
grep ip_conntrack /proc/slabinfo | grep -v expect | awk '{print $1 ',' $2;}'
# 下⾯的命令帮你明确可⽤的NAT表项,如果这个值⽐较⼤,那就说明NAT表资源不紧张三年级上册猜猜我是谁
grep ip_conntrack /proc/slabinfo | grep -v expect | awk '{print $1 ',' $3;}'
# 下⾯的命令帮你统计NAT表中占⽤端⼝最多的⼏个ip,很有可能这些家伙再做⼀些bt的事情,嗯bt的事情:-)
cat /proc/net/ip_conntrack | cut -d ' ' -f 10 | cut -d '=' -f 2 | sort | uniq -c | sort -nr | head -n 10
# 上⾯这个命令有点瑕疵cut -d' ' -f10会因为命令输出有些⾏缺项⽽造成统计偏差,下⾯给出⼀个正确的写法:
cat /proc/net/ip_conntrack | perl -pe s/^\(.*?\)src/src/g | cut -d ' ' -f1 | cut -d '=' -f2 | sort | uniq -c | sort -nr | head -n 10
发布评论