对于每一个Linux学习者来说,了解Linux文件系统的目录结构,是学好Linux的至关重要的一步.,深入了解linux文件目录结构的标准和每个目录的详细功能,对于我们用好linux系统只管重要,下面我们就开始了解一下linux目录结构的相关知识。
当 在使用Linux的时候,如果您通过ls –l / 就会发现,在/下包涵很多的目录,比如etc、usr、var、bin ... ... 等目录,而 在这些目录中,我们进去看看,发现也有很多的目录或文件。文件系统在Linux下看上去就象树形结构,所以我们可以把文件系统的结构形象的称为 树形结 构。
文 件系统的是用来组织和排列文件存取的,所以她是可见的,在Linux中,我们可以通过ls等工具来查看其结构,在Linux系统中,我们见到的都是树形结 构;比如操作系统安装在一个文件系统中,他表现为由/ 起始的树形结构。linux文件系统的最顶端是/,我们称/为Linux的root,也就 是 Linux操作系统的文件系统。Linux的文件系统的入口就是/,所有的目录、文件、设备都在/之下,/就是Linux文件系统的组织者,也是最上 级的领导者。
由于linux是开放源代码,各大公司和团体根据linux的核心代码做各自的操作,编程。这样就造成在根下的目录的不同。这样就造成个人不能使用他人的linux系统的PC。因为你根本不知道一些基本的配置,文件在哪里。。。这就造成了混乱。这就是FHS(Filesystem Hierarchy Standard )机构诞生的原因。该机构是linux爱好者自发的组成的一个团体,主要是是对linux做一些基本的要求,不至于是操作者换一台主机就成了linux的‘文盲’。
根 据FHS(http://www.pathname.com/fhs/)的官方文件指出, 他们的主要目的是希望让使用者可以了解到已安装软件通常放置于 那个目录下, 所以他们希望独立的软件开发商、操作系统制作者、以及想要维护系统的用户,都能够遵循FHS的标准。 也就是说,FHS的重点在于规范每个 特定的目录下应该要放置什么样子的数据而已。 这样做好处非常多,因为Linux操作系统就能够在既有的面貌下(目录架构不变)发展出开发者想要的独特风 格。
事实上,FHS是根据过去的经验一直再持续的改版的,FHS依据文件系统使用的频繁与否与是否允许使用者随意更动, 而将目录定义成为四种交互作用的形态,用表格来说有点像底下这样:
可分享的(shareable) |
不可分享的(unshareable) |
|
不变的(static) |
/usr |
/etc |
/opt |
/boot |
|
可变动的(variable) |
/var/mail |
/var/run |
/var/spool/news |
/var/lock |
四中类型:
1.
可分享的:
可以分享给其他系统挂载使用的目录,所以包括执行文件与用户的邮件等数据,
是能够分享给网络上其他主机挂载用的目录;
2.
不可分享的:
自己机器上面运作的装置文件或者是与程序有关的socket文件等,
由于仅与自身机器有关,所以当然就不适合分享给其他主机了。
3.
不变的:
有些数据是不会经常变动的,跟随着而不变动。
例如函式库、文件说明文件、系统管理员所管理的主机服务配置文件等等;
4.
可变动的:
经常改变的数据,例如登录文件、一般用户可自行收受的新闻组等。
事实上,FHS针对目录树架构仅定义出三层目录底下应该放置什么数据而已,分别是底下这三个目录的定义:
/
(root, 根目录):与开机系统有关;
/usr
(unix software resource):与软件安装/执行有关;
/var
(variable):与系统运作过程有关。
一.
根目录
(/)
的意义与内容:
根
目录是整个系统最重要的一个目录,因为不但所有的目录都是由根目录衍生出来的,
同时根目录也与开机/还原/系统修复等动作有关。
由于系统开机时需要特 定的开机软件、核心文件、开机所需程序、
函式库等等文件数据,若系统出现错误时,根目录也必须要包含有能够修复文件系统的程序才行。
因为根目录是这么 的重要,所以在FHS的要求方面,他希望根目录不要放在非常大的分区,
因为越大的分区内你会放入越多的数据,如此一来根目录所在分区就可能会有较多发生
错误的机会。
因此FHS标准建议:根目录(/)所在分区应该越小越好,
且应用程序所安装的软件最好不要与根目录放在同一个分区内,保持根目录越小越好。
如此不但效能较佳,根目录所在的文件系统也较不容易发生问题。说白了,就是根目录和Windows的C盘一个样。
根据以上原因,FHS认为根目录(/)下应该包含如下子目录:
目录 |
应放置档案内容 |
/bin |
系统有很多放置执行档的目录,但/bin比较特殊。因为/bin放置的是在单人维护模式下还能够被操作的指令。在/bin底下的指令可以被root与一般帐号所使用,主要有:cat,chmod(修改权限), chown, date, mv, mkdir, cp, bash等等常用的指令。 |
/boot |
主要放置开机会使用到的档案,包括Linux核心档案以及开机选单与开机所需设定档等等。Linux |
/dev |
在 |
/etc |
系 /etc/xinetd.d/ /etc/X11/ |
/home |
这是系统预设的使用者家目录(home |
/lib |
系 |
/media |
media是媒体的英文,顾名思义,这个/media底下放置的就是可移除的装置。 |
/mnt |
如果妳想要暂时挂载某些额外的装置,一般建议妳可以放置到这个目录中。在古早时候,这个目录的用途与/media相同啦。 |
/opt |
这 |
/root |
系统管理员(root)的家目录。 |
/sbin |
Linux |
/srv |
srv可以视为service的缩写,是一些网路服务启动之后,这些服务所需要取用的资料目录。 |
/tmp |
这是让一般使用者或者是正在执行的程序暂时放置档案的地方。这个目录是任何人都能够存取的,所以你需要定期的清理一下。当然,重要资料不可放置在此目录啊。 |
事实上FHS针对根目录所定义的标准就仅限于上表,不过仍旧有些目录也需要我们了解一下,具体如下:
目录 |
应放置文件内容 |
/lost+found |
这 |
/proc |
这个目录本身是一个虚拟文件系统(virtual |
/sys |
这个目录其实跟/proc非常类似,也是一个虚拟的档案系统,主要也是记录与核心相关的资讯。 |
除了这些目录的内容之外,另外要注意的是,因为根目录与开机有关,开机过程中仅有根目录会被挂载,
其他分区则是在开机完成之后才会持续的进行挂载的行为。就是因为如此,因此根目录下与开机过程有关的目录,
就不能够与根目录放到不同的分区去。那哪些目录不可与根目录分开呢?有底下这些:
/etc:配置文件
/bin:重要执行档
/dev:所需要的装置文件
/lib:执行档所需的函式库与核心所需的模块
/sbin:重要的系统执行文件
这五个目录千万不可与根目录分开在不同的分区。请背下来啊。
二.
/usr 的意义与内容:
依据FHS的基本定义,/usr里面放置的数据属于可分享的与不可变动的(shareable,
static),
如果你知道如何透过网络进行分区的挂载(例如在服务器篇会谈到的NFS服务器),那么/usr确实可以分享给局域网络内的其他主机来使用喔。
/usr
不是user的缩写,其实usr是Unix
Software Resource的缩写,
也就是Unix操作系统软件资源所放置的目录,而不是用户的数据啦。这点要注意。
FHS建议所有软件开发者,应该将他们的数据合理的分别放置到这个目录下的次目录,而不要自行建立该软件自己独立的目录。
因
为是所有系统默认的软件(distribution发布者提供的软件)都会放置到/usr底下,因此这个目录有点类似Windows
系统的
C:\Windows\
+ C:\Program files\这两个目录的综合体,系统刚安装完毕时,这个目录会占用最多的硬盘容量。
一般来 说,/usr的次目录建议有底下这些:
目录 |
应放置文件内容 |
/usr/X11R6/ |
为X |
/usr/bin/ |
绝大部分的用户可使用指令都放在这里。请注意到他与/bin的不同之处。(是否与开机过程有关) |
/usr/include/ |
c/c++等程序语言的档头(header)与包含档(include)放置处,当我们以tarball方式 |
/usr/lib/ |
包 |
/usr/local/ |
统 |
/usr/sbin/ |
非系统正常运作所需要的系统指令。最常见的就是某些网络服务器软件的服务指令(daemon) |
/usr/share/ |
放置共享文件的地方,在这个目录下放置的数据几乎是不分硬件架构均可读取的数据, /usr/share/doc:软件杂项的文件说明 /usr/share/zoneinfo:与时区有关的时区文件 |
/usr/src/ |
一般原始码建议放置到这里,src有source的意思。至于核心原始码则建议放置到/usr/src/linux/目录下。 |
三.
/var 的意义与内容:
如
果/usr是安装时会占用较大硬盘容量的目录,那么/var就是在系统运作后才会渐渐占用硬盘容量的目录。
因为/var目录主要针对常态性变动的文件,
包括缓存(cache)、登录档(log
file)以及某些软件运作所产生的文件,
包括程序文件(lock
file, run file),或者例
如MySQL数据库的文件等等。常见的次目录有:
目录 |
应放置文件内容 |
/var/cache/ |
应用程序本身运作过程中会产生的一些暂存档 |
/var/lib/ |
程序本身执行的过程中,需要使用到的数据文件放置的目录。在此目录下各自的软件应该要有各自的目录。 |
/var/lock/ |
某 |
/var/log/ |
非常重要。这是登录文件放置的目录。里面比较重要的文件如/var/log/messages, |
/var/mail/ |
放置个人电子邮件信箱的目录,不过这个目录也被放置到/var/spool/mail/目录中,通常这两个目录是互为链接文件。 |
/var/run/ |
某些程序或者是服务启动后,会将他们的PID放置在这个目录下 |
/var/spool/ |
这个目录通常放置一些队列数据,所谓的“队列”就是排队等待其他程序使用的数据。 |
由于FHS仅是定义出最上层(/)及次层(/usr,
/var)的目录内容应该要放置的文件或目录数据,
因此,在其他次目录层级内,就可以随开发者自行来配置了。
四.
目录树(directory
tree) :
在Linux底下,所有的文件与目录都是由根目录开始的。那是所有目录与文件的源头,
然后再一个一个的分支下来,因此,我们也称这种目录配置方式为:目录树(directory
tree), 这个目录树的主要特性有:
目录树的启始点为根目录
(/,
root);
每一个目录不止能使用本地端的
partition
的文件系统,也可以使用网络上的
filesystem
。举例来说,
可以利用 Network
File System (NFS) 服务器挂载某特定目录等。
每一个文件在此目录树中的文件名(包含完整路径)都是独一无二的。
如果我们将整个目录树以图的方法来显示,并且将较为重要的文件数据列出来的话,那么目录树架构就如下图所示:
五.
绝对路径与相对路径
除了需要特别注意的FHS目录配置外,在文件名部分我们也要特别注意。因为根据档名写法的不同,也可将所谓的路径(path)定义为绝对路径(absolute)与相对路径(relative)。
这两种文件名/路径的写法依据是这样的:
绝对路径:
由根目录(/)开始写起的文件名或目录名称,
例如 /home/dmtsai/.bashrc;
相对路径:
相对于目前路径的文件名写法。
例如 ./home/dmtsai
或
http://www.cnblogs.com/home/dmtsai/
等等。反正开头不是
/
就属于相对路径的写法cd
而你必须要了解,相对路径是以你当前所在路径的相对位置来表示的。举例来说,你目前在
/home
这个目录下,
如果想要进入 /var/log
这个目录时,可以怎么写呢?
cd
/var/log (absolute)
cd
../var/log (relative)
因为你在
/home
底下,所以要回到上一层
(../)
之后,才能继续往
/var
来移动的,特别注意这两个特殊的目录:
.
:代表当前的目录,也可以使用
./
来表示;
..
:代表上一层目录,也可以
../
来代表。
这个
.
与
..
目录概念是很重要的,你常常会看到
cd
.. 或
./command
之类的指令下达方式,
就是代表上一层与目前所在目录的工作状态。
实例1:如何先进入/var/spool/mail/目录,再进入到/var/spool/cron/目录内?
命令:
cd
/var/spool/mail
cd
../cron
说明:
由
于/var/spool/mail与/var/spool/cron是同样在/var/spool/目录中。如此就不需要在由根目录开始写起了。这个相对
路径是非常有帮助的,尤其对于某些软件开发商来说。
一般来说,软件开发商会将数据放置到/usr/local/里面的各相对目录。
但如果用户想要安装 到不同目录呢?就得要使用相对路径。
实例2:网络文件常常提到类似./run.sh之类的数据,这个指令的意义为何?
说明:
由于指令的执行需要变量的支持,若你的执行文件放置在本目录,并且本目录并非正规的执行文件目录(/bin,
/usr/bin等为正规),此时要执行指令就得要严格指定该执行档。./代表本目录的意思,所以./run.sh代表执行本目录下,
名为run.sh的文件。
Linux文件类型和Linux文件的文件名所代表的意义是两个不同的概念。我们通过一般应用程序而创建的比如file.txt、file.tar.gz
,这些文件虽然要用不同的程序来打开,但放在Linux文件类型中衡量的话,大多是常规文件(也被称为普通文件)。
一.
文件类型
Linux文件类型常见的有:普通文件、目录文件、字符设备文件和块设备文件、符号链接文件等,现在我们进行一个简要的说明。
1.
普通文件
我
们用 ls
-lh 来查看某个文件的属性,可以看到有类似-rwxrwxrwx,值得注意的是第一个符号是
-
,这样的文件在Linux中就是普通文
件。这些文件一般是用一些相关的应用程序创建,比如图像工具、文档工具、归档工具...
.... 或
cp工具等。这类文件的删除方式是用rm
命
令。 另外,依照文件的内容,又大略可以分为:
1>.
纯文本档(ASCII):
这是Linux系统中最多的一种文件类型,称为纯文本档是因为内容为我们人类可以直接读到的数据,例如数字、字母等等。
几乎只要我们可以用来做为设定的文件都属于这一种文件类型。
举例来说,你可以用命令:cat
~/.bashrc来看到该文件的内容。
(cat
是将一个文件内容读出来的指令).
2>.
二进制文件(binary):
Linux系统其实仅认识且可以执行二进制文件(binary
file)。Linux当中的可执行文件(scripts,
文字型批处理文件不算)就是这种格式的文件。
刚刚使用的命令cat就是一个binary
file。
3>.
数据格式文件(data):
有些程序在运作的过程当中会读取某些特定格式的文件,那些特定格式的文件可以被称为数据文件
(data
file)。举例来说,我们的Linux在使用者登录时,都会将登录的数据记录在
/var/log/wtmp那个文件内,该文件是一个data
file,他能够透过last这个指令读出来!
但是使用cat时,会读出乱码~因为他是属于一种特殊格式的文件?
2.
目录文件
当
我们在某个目录下执行,看到有类似 drwxr-xr-x
,这样的文件就是目录,目录在Linux是一个比较特殊的文件。注意它的第一个字符是d。创建
目录的命令可以用 mkdir
命令,或cp命令,cp可以把一个目录复制为另一个目录。删除用rm
或rmdir命令。
3.
字符设备或块设备文件
如时您进入/dev目录,列一下文件,会看到类似如下的:
[root@localhost ~]# ls -al /dev/tty
crw-rw-rw- 1 root tty 5, 0 11-03 15:11 /dev/tty
[root@localhost ~]# ls -la /dev/sda1
brw-r----- 1 root disk 8, 1 11-03 07:11 /dev/sda1
我们看到/dev/tty的属性是
crw-rw-rw-
,注意前面第一个字符是
c
,这表示字符设备文件。比如猫等串口设备。我们看到
/dev/sda1
的属性是
brw-r-----
,注意前面的第一个字符是b,这表示块设备,比如硬盘,光驱等设备。
这个种类的文件,是用mknode来创建,用rm来删除。目前在最新的Linux发行版本中,我们一般不用自己来创建设备文件。因为这些文件是和内核相关联的。
与系统周边及储存等相关的一些文件,
通常都集中在/dev这个目录之下!通常又分为两种:
区块(block)设备档
:
就是一些储存数据,
以提供系统随机存取的接口设备,举例来说,硬盘与软盘等就是啦!
你可以随机的在硬盘的不同区块读写,这种装置就是成组设备!你可以自行查一下/dev/sda看看,
会发现第一个属性为[
b ]!
字符(character)设备文件:
亦即是一些串行端口的接口设备,
例如键盘、鼠标等等!这些设备的特色就是一次性读取的,不能够截断输出。
举例来说,你不可能让鼠标跳到另一个画面,而是滑动到另一个地方!第一个属性为
[
c ]。
4.
数据接口文件(sockets):
数据接口文件(或者:套接口文件),这种类型的文件通常被用在网络上的数据承接了。我们可以启动一个程序来监听客户端的要求,
而客户端就可以透过这个socket来进行数据的沟通了。第一个属性为
[
s ],
最常在/var/run这个目录中看到这种文件类型了。
例如:当我们启动MySQL服务器时,会产生一个mysql.sock的文件。
[root@localhost ~]# ls -lh /var/lib/mysql/mysql.sock
srwxrwxrwx 1 mysql mysql 0 04-19 11:12 /var/lib/mysql/mysql.sock
注意这个文件的属性的第一个字符是
s。
5.
符号链接文件:
当
我们查看文件属性时,会看到有类似
lrwxrwxrwx,注意第一个字符是l,这类文件是链接文件。是通过ln
-s 源文件名
新文件名 。上面是一
个例子,表示setup.log是install.log的软链接文件。怎么理解呢?这和Windows操作系统中的快捷方式有点相似。
符号链接文件的创建方法举例:
[root@localhost test]# ls -lh log2012.log
-rw-r--r-- 1 root root 296K 11-13 06:03 log2012.log
[root@localhost test]# ln -s log2012.log linklog.log
[root@localhost test]# ls -lh *.log
lrwxrwxrwx 1 root root 11 11-22 06:58 linklog.log -> log2012.log
-rw-r--r-- 1 root root 296K 11-13 06:03 log2012.log
6.
数据输送文件(FIFO,pipe):
FIFO也是一种特殊的文件类型,他主要的目的在解决多个程序同时存取一个文件所造成的错误问题。
FIFO是first-in-first-out的缩写。第一个属性为[p]
。
二.
Linux文件扩展名
1.
扩展名类型
基
本上,Linux的文件是没有所谓的扩展名的,一个Linux文件能不能被执行,与他的第一栏的十个属性有关,
与档名根本一点关系也没有。这个观念跟
Windows的情况不相同喔!在Windows底下,
能被执行的文件扩展名通常是 .com
.exe .bat等等,而在Linux底下,只要你的
权限当中具有x的话,例如[
-rwx-r-xr-x ] 即代表这个文件可以被执行。
过,可以被执行跟可以执行成功是不一样的~举例来说,在root家目录下的install.log
是一个纯文本档,如果经由修改权限成
为 -rwxrwxrwx
后,这个文件能够真的执行成功吗?
当然不行~因为他的内容根本就没有可以执行的数据。所以说,这个x代表这个文件具有可执行
的能力, 但是能不能执行成功,当然就得要看该文件的内容.
虽然如此,不过我们仍然希望可以藉由扩展名来了解该文件是什么东西,所以,通常我们还是会以适当的扩展名来表示该文件是什么种类的。底下有数种常用的扩展名:
*.sh
:
脚本或批处理文件 (scripts),因为批处理文件为使用shell写成的,所以扩展名就编成
.sh
*Z,
*.tar, *.tar.gz, *.zip, *.tgz:
经过打包的压缩文件。这是因为压缩软件分别为
gunzip,
tar 等等的,由于不同的压缩软件,而取其相关的扩展名!
*.html,
*.php:网页相关文件,分别代表
HTML
语法与
PHP
语法的网页文件。.html
的文件可使用网页浏览器来直接开启,至于
.php
的文件,
则可以透过 client
端的浏览器来
server
端浏览,以得到运算后的网页结果。
基本上,Linux系统上的文件名真的只是让你了解该文件可能的用途而已,真正的执行与否仍然需要权限的规范才行。例如虽然有一个文件为可执行文件,如常见的/bin/ls这个显示文件属性的指令,不过,如果这个文件的权限被修改成无法执行时,那么ls就变成不能执行。
上述的这种问题最常发生在文件传送的过程中。例如你在网络上下载一个可执行文件,但是偏偏在你的
Linux系统中就是无法执行!呵呵!那么就是可能文件的属性被改变了。不要怀疑,从网络上传送到你的
Linux系统中,文件的属性与权限确实是会被改变的。
2.
Linux文件
长度限制:
在Linux底下,使用预设的Ext2/Ext3文件系统时,针对文件名长度限制为:
单一文件或目录的最大容许文件名为
255
个字符
包含完整路径名称及目录
(/)
之完整档名为
4096
个字符
是相当长的档名!我们希望Linux的文件名可以一看就知道该文件在干嘛的,
所以档名通常是很长很长。
3.
Linux文件名的字符的限制:
由于Linux在文字接口下的一些指令操作关系,一般来说,你在设定Linux底下的文件名时,
最好可以避免一些特殊字符比较好!例如底下这些:
*
? > < ; & ! [ ] | \ ' " ` ( ) { }
因为这些符号在文字接口下,是有特殊意义的。另外,文件名的开头为小数点“.”时,
代表这个文件为隐藏文件!同时,由于指令下达当中,常常会使用到
-option
之类的选项,
所以你最好也避免将文件档名的开头以 -
或
+
来命名。
Linux中的目录
路径:也就是linux中的目录(文件夹)有绝对路径和相对路径
根目录:/
用户主目录(home directory):位于/home目录下,用户登录时
工作目录(working directory):当前目录
当前目录查看命令:pwd (print working directory)
当前目录:./
当前目录的上一级目录:../或..
返回到上一级目录:cd ..
进入当前目录下的dirfile目录:cd dirfile
cd ~ :进入用户主目录(账号所在目录) 或者直接cd回车
cd - :(回到先前的目录
3.查看当前目录
格式:pwd
功能:pwd (print working directory),查看当前目录.
常用选项说明:
【例】:查看当前目录
[root@localhost
rootfile]# pwd
/home/rootfile
5.显示目录内容
格式:ls [选项] [文件目录]
功能:显示指定目录中的文件和了目录信息,当不指定目录时,显示当前目录下的文件和子目录信息
常用选项说明:
-a 显示所有文件和子目录,包括隐藏文件和主目录
-l 显示文件和子目录的详细信息,包括文件类型、权限、所有者和所属群组、文件大小、最后修改时间、文件名
-d 如果参数是目录,则只显示目录信息,而不显示其中所包含的文件信息
-t 按时间顺序显示
-R 不仅显示指定目录下的文件和子目录信息,而且还递归地显示子目录下的文件和子目录信息
【例】:
范例一:将目录下面的文件都列出来(含属性与隐藏文件)
[root@dsetl
tmp]# ls -al
drwx------
2 fex 602 4096 Jan 9 11:41 keyring-XoSvfl
范例二:完整的显示文件的修改时间
[root@dsetl
tmp]# ls -al --full-time
rwx------
2 fex 602 4096 2014-01-09 11:41:48.000000000 +0800
.esd-602
创建和查看文件内容
cat命令
cat命令的用途是连接文件或标准输入并打印。这个命令常用来显示文件内容,或者将几个文件连接起来显示,或者从标准输入读取内容并显示,它常与重定向符号配合使用。
1.命令格式:
cat [选项] [文件]...
2.命令功能:
cat主要有三大功能:
1.一次显示整个文件:cat
filename
2.从键盘创建一个文件:cat
> filename 只能创建新文件,不能编辑已有文件.
3.将几个文件合并为一个文件:cat
file1 file2 > file
3.命令参数:
-A,
--show-all 等价于 -vET
-b,
--number-nonblank 对非空输出行编号
-e
等价于 -vE
-E,
--show-ends 在每行结束处显示
$
-n,
--number 开始对所有输出的行数编号
-s,
--squeeze-blank 有连续两行以上的空白行,就代换为一行的空白行
-t
与 -vT
等价
-T,
--show-tabs 将跳格字符显示为
^I
-u
(被忽略)
-v,
--show-nonprinting 使用 ^
和 M-
引用,除了 LFD
和 TAB
之外
常用选项说明:
【例】:读取rootfile下Test.java和file中的文件内容
Cd
etc
查看/etc/
issue目录下的内容。
[dsuser@dsetl
etc]$ find issue
issue
[dsuser@dsetl
etc]$ find *issue*
issue
issue.net
[dsuser@dsetl
etc]$ cat issue --查看/etc/
issue目录下的内容
Red
Hat Enterprise Linux Server release 6.4 (Santiago)
Kernel
\r on an \m
[dsuser@dsetl
etc]$ cat -n issue –显示行号
1 Red
Hat Enterprise Linux Server release 6.4 (Santiago)
2 Kernel
\r on an \m
3
[dsuser@dsetl
etc]$
cat:
invalid option -- 'a'
Try
`cat --help' for more information.
[dsuser@dsetl
etc]$ cat -A issue
Red
Hat Enterprise Linux Server release 6.4 (Santiago)$
Kernel
\r on an \m$
【例】:查看内核:
1.[root@dsetl
/]# cat /etc/issue
Red
Hat Enterprise Linux Server release 6.4 (Santiago)
2.cat
/etc/lsb-release
LSB_VERSION=base-4.0-amd64:base-4.0-noarch:core-4.0-amd64:core-4.0-noarch:graphics-4.0-amd64:graphics-4.0-noarch:printing-4.0-amd64:printing-4.0-noarch
3.[root@dsetl
/]# cat /proc/version
Linux
version 2.6.32-358.el6.x86_64
(mockbuild@x86-022.build.eng.bos.redhat.com) (gcc version 4.4.7
20120313 (Red Hat 4.4.7-3) (GCC) ) #1 SMP Tue Jan 29 11:47:41 EST
2013
实例一:把issue1的文件内容加上行号后输入
issue2这个文件里
命令:
[root@dsetl
lp]# cp /etc/issue .
[root@dsetl
lp]# vi issue
[root@dsetl
lp]# mv issue issue1
[root@dsetl
lp]# vi issue2
[root@dsetl
lp]# cat issue1
a
b
c
d
e
f
g
h
i
j
k
l
[root@dsetl
lp]# cat issue2
p
q
z
x
v
b
n
n
输出:
[root@dsetl
lp]# cat -n issue1 issue2
1 a
2 b
3 c
4 d
5 e
6 f
7 g
8 h
9 i
10 j
11 k
12 l
13 p
14 q
15 z
16 x
17 v
18 b
19 n
20 n
说明:
实例二:把 issue1和 issue2的文件内容加上行号(空白行不加)之后将内容合并到
issue3
里。
命令:
[root@dsetl
lp]# vi issue1
a
b
c
d
e
f
g
h
i
j
k
[root@dsetl
lp]# cat -b issue1 issue2 > issue3
[root@dsetl
lp]# cat issue3
1 a
2 b
3 c
4 d
5 e
6 f
7 g
8 h
9 i
10 j
11 k
12 l
13 p
14 q
15 z
16 x
17 v
18 b
19 n
20 n实例三:把
issue1的文件内容加上行号后输入
issue2这个文件里
命令:
输出:
[root@localhost test]# cat issue1
[root@dsetl
lp]# cat -n issue1 > issue2
[root@dsetl
lp]# cat issue2
a
b
c
d
e
f
g
h
i
j
k
l
[root@localhost test]#
Uname:
Uname –a 用来获取电脑和操作系统的相关信息。
内核名称,主机名,内核版本号,内核版本,硬件名,处理器类型,硬件平台类型,操作系统名称
3.命令参数:
-m或–machine
显示主机的硬件(CPU)
-n或-nodename
显示主机在网络节点上的名称或主机名称
-r或–release
显示linux操作系统内核版本号
-s或–sysname
显示linux内核名称
-v 显示显示操作系统是第几个
version 版本
-p
显示处理器类型或unknown
-i 显示硬件平台类型或unknown
-o 显示操作系统名
–help
获得帮助信息
–version
显示uname版本信息
实例1:
--依次为内核名称,主机名,内核版本号,内核版本,硬件名,处理器类型,硬件平台类型,操作系统名称
[root@dsetl
/]# uname –a
Linux
--显示内核名称(Linux)
dsetl
--显示主机在网络节点上的名称或主机名称
(dsetl)
2.6.32-358.el6.x86_64
-显示主机的硬件(CPU)
(x86_64)
#1
SMP Tue Jan 29 11:47:41 EST 2013 --显示操作系统是第几个
version 版本
x86_64
x86_64 x86_64
GNU/Linux
--显示操作系统名 (GNU/Linux)
[root@dsetl
/]# uname –r --linux操作系统的内核版本号(2.6.32-358.el6.x86_64)
[root@dsetl
/]# uname –o --显示操作系统名
(GNU/Linux)
[root@dsetl
/]# uname –s --显示内核名称(Linux)
[root@dsetl
/]# uname –m --显示主机的硬件(CPU)
(x86_64)
[root@dsetl
/]# uname –n --显示主机在网络节点上的名称或主机名称
(dsetl)
[root@dsetl
/]# uname –v --显示操作系统是第几个
version 版本( #1
SMP Tue Jan 29 11:47:41 EST 2013)
Tac命令:
反向显示
more命令
翻页查看
more命令,功能类似
cat
,cat命令是整个文件的内容从上到下显示在屏幕上。
more会以一页一页的显示方便使用者逐页阅读,而最基本的指令就是按空白键(space)就往下一页显示,按
b
键就会往回(back)一页显示,而且还有搜寻字串的功能 。more命令从前向后读取文件,因此在启动时就加载整个文件。
格式:more [选项] filename
功能:依次读取filename中的内容,该命令与cat的不同是可以逐屏往下翻页显示,按q退出。
常用选项说明:
+n
从笫n行开始显示
-n
定义屏幕大小为n行
-p 显示下一屏之前先清屏
-s 文件中连续的空白行压缩成一个空白行显示
-l
忽略Ctrl+l(换页)字符
查看man.config:
命令:More
/etc/ man.config
#
If no catdir is given, it is assumed to be equal to the mandir
#
(so that this dir has both man1 etc. and cat1 etc. subdirs).
#
This is the traditional Unix setup.
#
Certain versions of the FSSTND recommend putting formatted versions
#
of /usr/.../man/manx/page.x into /var/catman/.../catx/page.x.
#
The keyword FSSTND will cause this behaviour.
#
Certain versions of the FHS recommend putting formatted versions of
#
/usr/.../share/man/[locale/]manx/page.x into
#
/var/cache/man/.../[locale/]catx/page.x.
#
The keyword FHS will cause this behaviour (and overrides FSSTND).
#
Explicitly given catdirs override.
#
#
FSSTND
FHS
#
#
This file is also read by man in order to find how to call nroff,
less, etc.
--More--(27%)
(1)空格键:表示向下翻一页
(2)enter键表示向下翻一行。
实例1:显示文件中从第3行起的内容
命令:
more
+3 log2012.log
输出:
[root@localhost test]# cat log2012.log
2012-01
2012-02
2012-03
2012-04-day1
2012-04-day2
2012-04-day3
======[root@localhost test]# more +3 log2012.log
2012-03
2012-04-day1
2012-04-day2
2012-04-day3
======[root@localhost test]#
实例2:从文件中查找第一个出现"day3"字符串的行,并从该处前两行开始显示输出
命令:
more
+/day3 log2012.log
输出:
[root@localhost test]# more +/day3 log2012.log
...skipping
2012-04-day1
2012-04-day2
2012-04-day3
2012-05
2012-05-day1
======[root@localhost test]#
实例3:设定每屏显示行数
命令:
more
-5 log2012.log
输出:
[root@localhost test]# more -5 log2012.log
2012-01
2012-02
2012-03
2012-04-day1
2012-04-day2
说明:
如下图所示,最下面显示了该屏展示的内容占文件总行数的比例,按
Ctrl+F
或者 空格键
将会显示下一屏5条内容,百分比也会跟着变化。
实例4:列一个目录下的文件,由于内容太多,我们应该学会用more来分页显示。这得和管道
|
结合起来
命令:
ls
-l | more
-5
输出:
[root@localhost test]# ls -l | more -5
总计 36
-rw-r--r-- 1 root root 308 11-01 16:49 log2012.log
-rw-r--r-- 1 root root 33 10-28 16:54 log2013.log
-rw-r--r-- 1 root root 127 10-28 16:51 log2014.log
lrwxrwxrwx 1 root root 7 10-28 15:18 log_link.log -> log.log
说明:
每页显示5个文件信息,按
Ctrl+F
或者 空格键 将会显示下5条文件信息。
less命令
翻页查看
格式:less [选项] filename
功能:依次读取filename中的内容,该命令与more的不同是不仅可以向下翻页,还可以向上翻页,使用上下键、Enter、空格、pageDown、pageUp可以实现前后翻页,按q退出。
常用选项说明:
命令:less /etc/ man.config
实例2:ps查看进程信息并通过less分页显示
命令:
ps
-ef |less
输出:
实例3:查看命令历史使用记录并通过less分页显示
命令:
history
| less
输出:
[root@localhost test]# history | less
22 scp -r tomcat6.0.32 root@192.168.120.203:/opt/soft
23 cd ..
24 scp -r web root@192.168.120.203:/opt/
25 cd soft
26 ls
27 scp -r jdk1.6.0_16/ root@192.168.120.203:/opt/soft
28 clear
29 vim /etc/profile
30 vim /etc/profile
31 cd tomcat6.0.32/bin/
32 ls
33 ./shutdown.sh
34 ./startup.sh
35 vim startup.sh
36 ls
37 echo $JAVA_HOME
38 java
39 ls
40 ls
41 clear
42 cd /opt
43 ls
44 cp apache-tomcat-6.0.32.tar.gz soft/
45 ls
46 rm -f apache-tomcat-6.0.32.tar.gz
47 ls
48 cd soft
49 ls
50 tar -vzf apache-tomcat-6.0.32.tar.gz
51 tar -vzfx apache-tomcat-6.0.32.tar.gz
52 tar -zxvf apache-tomcat-6.0.32.tar.gz
53 ls
54 cd apache-tomcat-6.0.32
55 ls
56 cd ..
57 mv apache-tomcat-6.0.32 tomcat6.0.32
58 ls
59 cd tomcat6.0.32/
60 ls
实例5:浏览多个文件
命令:
Less
log2013.log log2014.log
输出:
说明:
输入 :n后,切换到
log2014.log
输入 :p
后,切换到log2013.log
5.附加备注
1.全屏导航
ctrl +
F - 向前移动一屏
ctrl +
B - 向后移动一屏
ctrl +
D - 向前移动半屏
ctrl +
U - 向后移动半屏
2.单行导航
j -
向前移动一行
k -
向后移动一行
3.其它导航
G -
移动到最后一行
g -
移动到第一行
q / ZZ
- 退出 less
命令zz
4.其它有用的命令
v -
使用配置的编辑器编辑当前文件
h - 显示
less
的帮助文档
&pattern
- 仅显示匹配模式的行,而不是整个文件
5.标记导航
当使用 less
查看大文件时,可以在任何一个位置作标记,可以通过命令导航到标有特定标记的文本位置:
ma -
使用 a
标记文本的当前位置
'a -
导航到标记 a
处
head命令
格式:head [选项] filename
功能:显示文件的头几行
常用选项说明:
-n 显示文件的前n行,如果没有n值,默认为10行
-c<字节>
显示字节数
命令:Head
-2 /etc/ man.config
–显示前两行
Head
–n 2 /etc/ man.config
–显示前两行
【例】
文件太大,取文件的部分数据:
head
-100000
/home/inputfile/data/inputfile/CORE/RUCCDTA/20131231/CORE_SCECA_20131231_INIT.DATA
> CORE_SCECA_20131231_INIT.DATA
实例2:显示文件前n个字节
命令:
head
-c 20 log2014.log
输出:
[root@localhost test]# head -c 20 log2014.log
2014-01
2014-02
2014
[root@localhost test]#
实例3:文件的除了最后n个字节以外的内容
命令:
head
-c -32 log2014.log
输出:
[root@localhost test]# head -c -32 log2014.log
2014-01
2014-02
2014-03
2014-04
2014-05
2014-06
2014-07
2014-08
2014-09
2014-10
2014-11
2014-12[root@localhost test]#
实例4:输出文件除了最后n行的全部内容
命令:
head
-n -6 log2014.log
输出:
[root@localhost test]# head -n -6 log2014.log
2014-01
2014-02
2014-03
2014-04
2014-05
2014-06
2014-07[root@localhost test]#
>>和>重定向命令:
重定向命令,可以结合head、ls等使用。
如head
-10 file1>file2 :把file1的前10条记录保存到file2文件。head
-10 file1>>file2 :把file1的前10条记录追加保存到file2文件。cat
file1 file2>file3 :将file1和file2合并成一个文件file3.
[root@dsetl
lp]# head -6 man.config>man.test.config
[root@dsetl
lp]# cat man.config > man.test.config
tail命令
tail
命令从指定点开始将文件写到标准输出.使用tail命令的-f选项可以方便的查阅正在改变的日志文件,tail
-f filename会把filename里最尾部的内容显示在屏幕上,并且不但刷新,使你看到最新的文件内容.
格式:tail [选项] filename
2.命令功能:
用于显示指定文件末尾内容,不指定文件时,作为输入信息进行处理。常用查看日志文件。
常用选项说明:
+n 从第n行开始显示
-n 显示文件的最后n行,如果没有n值,默认为最后10行
-f
循环读取
实例1:显示文件末尾内容
命令:
tail
-n 5 log2014.log
输出:
[root@localhost test]# tail -n 5 log2014.log
2014-09
2014-10
2014-11
2014-12
==============================[root@localhost test]#
说明:
显示文件最后5行内容
实例2:循环查看文件内容
命令:
tail
-f test.log
输出:
[root@localhost ~]# ping 192.168.120.204 > test.Log &
[1] 11891[root@localhost ~]# tail -f test.log
PING 192.168.120.204 (192.168.120.204) 56(84) bytes of data.
64 bytes from 192.168.120.204: icmp_seq=1 ttl=64 time=0.038 ms
64 bytes from 192.168.120.204: icmp_seq=2 ttl=64 time=0.036 ms
64 bytes from 192.168.120.204: icmp_seq=3 ttl=64 time=0.033 ms
64 bytes from 192.168.120.204: icmp_seq=4 ttl=64 time=0.027 ms
64 bytes from 192.168.120.204: icmp_seq=5 ttl=64 time=0.032 ms
64 bytes from 192.168.120.204: icmp_seq=6 ttl=64 time=0.026 ms
64 bytes from 192.168.120.204: icmp_seq=7 ttl=64 time=0.030 ms
64 bytes from 192.168.120.204: icmp_seq=8 ttl=64 time=0.029 ms
64 bytes from 192.168.120.204: icmp_seq=9 ttl=64 time=0.044 ms
64 bytes from 192.168.120.204: icmp_seq=10 ttl=64 time=0.033 ms
64 bytes from 192.168.120.204: icmp_seq=11 ttl=64 time=0.027 ms
[root@localhost ~]#
说明:
ping
192.168.120.204 > test.log &
//在后台ping远程主机。并输出文件到test.log;这种做法也使用于一个以上的档案监视。用Ctrl+c来终止。
实例3:从第5行开始显示文件
命令:
tail
-n +5 log2014.log
输出:
[root@localhost test]# cat log2014.log
2014-01
2014-02
2014-03
2014-04
2014-05
2014-06
2014-07
2014-08
2014-09
2014-10
2014-11
2014-12
==============================
[root@localhost test]# tail -n +5 log2014.log
2014-05
2014-06
2014-07
2014-08
2014-09
2014-10
2014-11
2014-12
==============================
nl命令
在linux系统中用来计算文件中行号。nl
可以将输出的文件内容自动的加上行号!其默认的结果与
cat
-n 有点不太一样,
nl
可以将行号做比较多的显示设计,包括位数与是否自动补齐
0
等等的功能。
1.命令格式:
nl
[选项]...
[文件]...
2.命令参数:
-b
:指定行号指定的方式,主要有两种:l
-b
a :表示不论是否为空行,也同样列出行号(类似
cat
-n);
-b
t :如果有空行,空的那一行不要列出行号(默认值);
-n
:列出行号表示的方法,主要有三种:
-n
ln :行号在萤幕的最左方显示;
-n
rn :行号在自己栏位的最右方显示,且不加
0
;
-n
rz :行号在自己栏位的最右方显示,且加
0
;
-w
:行号栏位的占用的位数。
-p
在逻辑定界符处不重新开始计算。
3.命令功能:
nl
命
令读取 File
参数(缺省情况下标准输入),计算输入中的行号,将计算过的行号写入标准输出。
在输出中,nl
命令根据您在命令行中指定的标志来计
算左边的行。 输入文本必须写在逻辑页中。每个逻辑页有头、主体和页脚节(可以有空节)。
除非使用 -p
标志,nl
命令在每个逻辑页开始的地方重新
设置行号。 可以单独为头、主体和页脚节设置行计算标志(例如,头和页脚行可以被计算然而文本行不能)。
4.使用实例:
实例一:用
nl
列出
issue3的内容
命令:
nl
log2012.log
输出:
peter@ubuntu:~/lp$
nl issue3
1
1 1
2
2 2
3
3 3
4
4 e
5
5 e
6
6 e
7
7 e
8
8 e:wq
说明:
文件中的空白行,nl
不会加上行号
实例二:用 nl 列出 issue3 的内容,空本行也加上行号
命令:
nl
-b a log2012.log
输出:
[root@localhost test]# nl -ba log2012.log
1 2012-01
2 2012-02
3
4
5 ======[root@localhost test]#
实例3:让行号前面自动补上0,统一输出格式
命令:
输出:
[root@localhost test]# nl -ba -n rz log2014.log
000001 2014-01
000002 2014-02
000003 2014-03
000004 2014-04
000005 2014-05
000006 2014-06
000007 2014-07
000008 2014-08
000009 2014-09
000010 2014-10
000011 2014-11
000012 2014-12
000013 =======
[root@localhost test]# nl -b a -n rz -w 3 log2014.log
001 2014-01
002 2014-02
003 2014-03
004 2014-04
005 2014-05
006 2014-06
007 2014-07
008 2014-08
009 2014-09
010 2014-10
011 2014-11
012 2014-12
013 =======
说明:
nl
-b a -n rz 命令行号默认为六位,要调整位数可以加上参数
-w
3 调整为3位。
find文件查找
Linux
下find命令在目录结构中搜索文件,并执行指定的操作。Linux下find命令提供了相当多的查找条件,功能很强大。由于find具有强大的功能,所
以它的选项也很多,其中大部分选项都值得我们花时间来了解一下。即使系统中含有网络文件系统(
NFS),find命令在该文件系统中同样有效,只你具有
相应的权限。
在运行一个非常消耗资源的find命令时,很多人都倾向于把它放在后台执行,因为遍历一个大的文件系统可能会花费很长的时间(这里是指
30G字节以上的文件系统)。
1.命令格式:
find
pathname -options [-print -exec -ok ...]
2.命令功能:
用于在文件树种查找文件,并作出相应的处理
3.命令参数:
pathname:
find命令所查找的目录路径。例如用.来表示当前目录,用/来表示系统根目录。
-print:
find命令将匹配的文件输出到标准输出。
-exec:
find命令对匹配的文件执行该参数所给出的shell命令。相应命令的形式为'command'
{ } \;,注意{
}和\;之间的空格。
-ok:
和-exec的作用相同,只不过以一种更为安全的模式来执行该参数所给出的shell命令,在执行每一个命令之前,都会给出提示,让用户来确定是否执行。
4.命令选项:
-name
按照文件名查找文件。
-perm
按照文件权限来查找文件。
-prune
使用这一选项可以使find命令不在当前指定的目录中查找,如果同时使用-depth选项,那么-prune将被find命令忽略。
-user
按照文件属主来查找文件。
-group
按照文件所属的组来查找文件。
-mtime
-n +n 按照文件的更改时间来查找文件,
-
n表示文件更改时间距现在n天以内,+
n表示文件更改时间距现在n天以前。find命令还有-atime和-ctime
选项,但它们都和-m
time选项。
-nogroup
查找无有效所属组的文件,即该文件所属的组在/etc/groups中不存在。
-nouser
查找无有效属主的文件,即该文件的属主在/etc/passwd中不存在。
-newer
file1 ! file2 查找更改时间比文件file1新但比文件file2旧的文件。
-type
查找某一类型的文件,诸如:
b
- 块设备文件。
d
- 目录。
c
- 字符设备文件。
p
- 管道文件。
l
- 符号链接文件。
f
- 普通文件。
-size
n:[c]
查找文件长度为n块的文件,带有c时表示文件长度以字节计。-depth:在查找文件时,首先查找当前目录中的文件,然后再在其子目录中查找。
-fstype:查找位于某一类型文件系统中的文件,这些文件系统类型通常可以在配置文件/etc/fstab中找到,该配置文件中包含了本系统中有关文件系统的信息。
-mount:在查找文件时不跨越文件系统mount点。
-follow:如果find命令遇到符号链接文件,就跟踪至链接所指向的文件。
-cpio:对匹配的文件使用cpio命令,将这些文件备份到磁带设备中。
另外,下面三个的区别:
-amin
n 查找系统中最后N分钟访问的文件
-atime
n 查找系统中最后n*24小时访问的文件
-cmin
n 查找系统中最后N分钟被改变文件状态的文件
-ctime
n 查找系统中最后n*24小时被改变文件状态的文件
-mmin
n 查找系统中最后N分钟被改变文件数据的文件
-mtime
n 查找系统中最后n*24小时被改变文件数据的文件
格式:find [选项] filename
功能:从指定的目录开始,递归地搜索其子目录,查找满足条件的文件并对之采取相关的操作
常用选项说明
-name ‘字串’ 要查找的文件名,可以用通配符*、?、[]
-group ‘字串’ 文件所属的用户组名
-user 文件所属的用户名
find命令提供的查询条件可以是一个用逻辑符and、or、not组成的复合条件
-a 逻辑与
-o 逻辑或
-! 逻辑非
【例】:将过去系统上24小时内更改过的(mtime)的文件列出
[root@dsetl
tmp]# find -mtime 0
解释:0是表示当前的时间,所以是从现在开始到24小时之前。
[root@dsetl
tmp]# find -mtime 1
解释:1是表示当前的时间,所以是从现在开始到1*24小时之前。
【例】:查找gdm用户下面的所有文件f
[root@dsetl
tmp]# find -user peter
【例】:搜索系统中不属于任何人的文件
[root@dsetl
~]# find / -nouser
【例】:查找当前目录下文件名含有font的文件
[root@dsetl
etc]# find -name 'font*'
【例】:在根目录下查找文件名为’temp’或是匹配’install*’的所有文件
[root@localhost
rootfile]# find / -name 'temp' -o -name 'instal*'
/etc/rhgb/temp
/etc/yum/pluginconf.d/installonlyn.conf
/etc/vmware-tools/installer.sh
/software/tomcat5/webapps/docs/appdev/installation.html
/software/tomcat5/temp
/sbin/install-info
/sbin/installkernel
/usr/share/aclocal-1.9/install-sh.m4
/usr/share/icons/Bluecurve/96x96/mimetypes/install.png
/usr/share/icons/Bluecurve/24x24/mimetypes/install.png
/usr/share/icons/Bluecurve/16x16/mimetypes/install.png
/usr/share/icons/Bluecurve/48x48/mimetypes/install.png
/usr/share/aclocal-1.7/install-sh.m4
/usr/share/doc/cyrus-sasl-lib-2.1.22/install.html
/usr/share/doc/sgml-common-0.6.3/html/install-catalog.html
/usr/share/doc/m2crypto-0.16/demo/Zope27/install_dir
/usr/share/doc/m2crypto-0.16/demo/ZopeX3/install_dir
/usr/share/doc/libstdc++-devel-4.1.1/html/install.html
……
【例】:在rootfile下查找不含Test*的文件
[root@localhost
rootfile]# find ! -name 'Test*'
.
./.Test2.swp
./1q
./.Test.java.swp
./test2
./test2/file2.txt
./combine.txt
./file.txt
实例1:查找指定时间内访问过的文件
命令:
find
-atime -2
输出:
[root@peidachang ~]# find -atime -2
.
./logs/monitor
./.bashrc
./.bash_profile
./.bash_history
说明:
超找48小时内访问过的文件
实例2:根据关键字查找
命令:
peter@ubuntu:~/lp$
find -name '*.log'
输出:
[root@localhost test]# find . -name "*.log"
./log_link.log
./log2014.log
./test4/log3-2.log
./test4/log3-3.log
./test4/log3-1.log
./log2013.log
./log2012.log
./log.log
./test5/log5-2.log
./test5/log5-3.log
./test5/log.log
./test5/log5-1.log
./test5/test3/log3-2.log
./test5/test3/log3-3.log
./test5/test3/log3-1.log
./test3/log3-2.log
./test3/log3-3.log
./test3/log3-1.log
说明:
在当前目录查找
以.log结尾的文件。
".
"代表当前目录
实例3:按照目录或文件的权限来查找文件
命令:
find
/opt/soft/test/ -perm 777
输出:
[root@localhost test]# find /opt/soft/test/ -perm 777
/opt/soft/test/log_link.log
/opt/soft/test/test4
/opt/soft/test/test5/test3
/opt/soft/test/test3
说明:
查找/opt/soft/test/目录下
权限为 777的文件
实例4:按类型查找
命令:
find
. -type f -name "*.log"
输出:
[root@localhost test]# find . -type f -name "*.log"
./log2014.log
./test4/log3-2.log
./test4/log3-3.log
./test4/log3-1.log
./log2013.log
./log2012.log
./log.log
./test5/log5-2.log
./test5/log5-3.log
./test5/log.log
./test5/log5-1.log
./test5/test3/log3-2.log
./test5/test3/log3-3.log
./test5/test3/log3-1.log
./test3/log3-2.log
./test3/log3-3.log
./test3/log3-1.log
[root@localhost test]#
说明:
查找当目录,以.log结尾的普通文件
实例5:查找当前所有目录并排序
命令:
find
. -type d | sort
输出:
[root@localhost test]# find . -type d | sort
.
./scf
./scf/bin
./scf/doc
./scf/lib
./scf/service
./scf/service/deploy
./scf/service/deploy/info
./scf/service/deploy/product
./test3
./test4
./test5
./test5/test3
[root@localhost test]#
d表示目录,sort进行排序
实例6:按大小查找文件
命令:
find
. -size +1000c -print
输出:
[root@localhost test]# find . -size +1000c -print
.
./test4
./scf
./scf/lib
./scf/service
./scf/service/deploy
./scf/service/deploy/product
./scf/service/deploy/info
./scf/doc
./scf/bin
./log2012.log
./test5
./test5/test3
./test3
[root@localhost test]#
说明:
查找当前目录大于1K的文件
find是我们很常用的一个Linux命令,但是我们一般查找出来的并不仅仅是看看而已,还会有进一步的操作,这个时候exec的作用就显现出来了。
exec解释:
-exec
参数后面跟的是command命令,它的终止是以;为结束标志的,所以这句命令后面的分号是不可缺少的,考虑到各个系统中分号会有不同的意义,所以前面加反斜杠。
{}
花括号代表前面find查找出来的文件名。
使用find时,只要把想要的操作写在一个文件里,就可以用exec来配合find查找,很方便的。在
有些操作系统中只允许-exec选项执行诸如l
s或ls
-l这样的命令。大多数用户使用这一选项是为了查找旧文件并删除它们。建议在真正执行rm命令
删除文件之前,最好先用ls命令看一下,确认它们是所要删除的文件。
exec选项后面跟随着所要执行的命令或脚本,然后是一对儿{
},一个空格和一
个\,最后是一个分号。为了使用exec选项,必须要同时使用print选项。如果验证一下find命令,会发现该命令只输出从当前路径起的相对路径及文
件名。
实例1:ls
-l命令放在find命令的-exec选项中
命令:
find
. -type f -exec ls -l {} \;
输出:
[root@localhost test]# find . -type f -exec ls -l {} \;
-rw-r--r-- 1 root root 127 10-28 16:51 ./log2014.log
-rw-r--r-- 1 root root 0 10-28 14:47 ./test4/log3-2.log
-rw-r--r-- 1 root root 0 10-28 14:47 ./test4/log3-3.log
-rw-r--r-- 1 root root 0 10-28 14:47 ./test4/log3-1.log
-rw-r--r-- 1 root root 33 10-28 16:54 ./log2013.log
-rw-r--r-- 1 root root 302108 11-03 06:19 ./log2012.log
-rw-r--r-- 1 root root 25 10-28 17:02 ./log.log
-rw-r--r-- 1 root root 37 10-28 17:07 ./log.txt
-rw-r--r-- 1 root root 0 10-28 14:47 ./test3/log3-2.log
-rw-r--r-- 1 root root 0 10-28 14:47 ./test3/log3-3.log
-rw-r--r-- 1 root root 0 10-28 14:47 ./test3/log3-1.log
[root@localhost test]#
说明:
上面的例子中,find命令匹配到了当前目录下的所有普通文件,并在-exec选项中使用ls
-l命令将它们列出。
find
. -name '*.log' -exec ls -l {} \;
实例2:在目录中查找更改时间在n日以前的文件并删除它们
命令:
find
. -type f -mtime +14 -exec rm {} \;
输出:
[root@localhost test]# ll
总计 328
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 33 10-28 16:54 log2013.log
-rw-r--r-- 1 root root 127 10-28 16:51 log2014.log
lrwxrwxrwx 1 root root 7 10-28 15:18 log_link.log -> log.log
-rw-r--r-- 1 root root 25 10-28 17:02 log.log
-rw-r--r-- 1 root root 37 10-28 17:07 log.txt
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 2 root root 4096 10-28 14:47 test3
drwxrwxrwx 2 root root 4096 10-28 14:47 test4
[root@localhost test]# find . -type f -mtime +14 -exec rm {} \;
[root@localhost test]# ll
总计 312
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
lrwxrwxrwx 1 root root 7 10-28 15:18 log_link.log -> log.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 2 root root 4096 11-12 19:32 test3
drwxrwxrwx 2 root root 4096 11-12 19:32 test4
[root@localhost test]#
说明:
在shell中用任何方式删除文件之前,应当先查看相应的文件,一定要小心!当使用诸如mv或rm命令时,可以使用-exec选项的安全模式。它将在对每个匹配到的文件进行操作之前提示你。
实例3:在目录中查找更改时间在n日以前的文件并删除它们,在删除之前先给出提示
命令:
find
. -name "*.log" -mtime +5 -ok rm {} \;
输出:
[root@localhost test]# ll
总计 312
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
lrwxrwxrwx 1 root root 7 10-28 15:18 log_link.log -> log.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 2 root root 4096 11-12 19:32 test3
drwxrwxrwx 2 root root 4096 11-12 19:32 test4
[root@localhost test]# find . -name "*.log" -mtime +5 -ok rm {} \;
< rm ... ./log_link.log > ? y
< rm ... ./log2012.log > ? n
[root@localhost test]# ll
总计 312
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 2 root root 4096 11-12 19:32 test3
drwxrwxrwx 2 root root 4096 11-12 19:32 test4
[root@localhost test]#
说明:
在上面的例子中,
find命令在当前目录中查找所有文件名以.log结尾、更改时间在5日以上的文件,并删除它们,只不过在删除之前先给出提示。
按y键删除文件,按n键不删除。
实例4:-exec中使用grep命令
命令:
find
/etc -name "passwd*" -exec grep "root" {} \;
输出:
[root@localhost test]# find /etc -name "passwd*" -exec grep "root" {} \;
root:x:0:0:root:/root:/bin/bash
root:x:0:0:root:/root:/bin/bash
[root@localhost test]#
说明:
任何形式的命令都可以在-exec选项中使用。
在上面的例子中我们使用grep命令。find命令首先匹配所有文件名为“
passwd*”的文件,例如passwd、passwd.old、passwd.bak,然后执行grep命令看看在这些文件中是否存在一个root用户。
实例5:查找文件移动到指定目录
命令:
find
. -name '*.log' -exec mv {} .. \;
find
. -name '*.log' -exec mv {} /home/peter/lp \;
输出:
[root@localhost test]# ll
总计 12drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-12 22:49 test3
drwxrwxr-x 2 root root 4096 11-12 19:32 test4
[root@localhost test]# cd test3/
[root@localhost test3]# ll
总计 304
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:44 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
[root@localhost test3]# find
. -name '*.log' -exec mv {} .. \;
[root@localhost test3]# ll
总计 0[root@localhost test3]# cd ..
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:44 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-12 22:50 test3
drwxrwxr-x 2 root root 4096 11-12 19:32 test4
[root@localhost test]#
实例6:用exec选项执行cp命令
命令:
find
. -name "*.log" -exec cp {} test3 \;
find
. -name '*.og' -exec cp {} /home/peter/lp \;
输出:
[root@localhost test3]# ll
总计 0[root@localhost test3]# cd ..
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:44 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-12 22:50 test3
drwxrwxr-x 2 root root 4096 11-12 19:32 test4
[root@localhost test]# find . -name "*.log" -exec cp {} test3 \;
cp: “./test3/log2014.log” 及 “test3/log2014.log” 为同一文件
cp: “./test3/log2013.log” 及 “test3/log2013.log” 为同一文件
cp: “./test3/log2012.log” 及 “test3/log2012.log” 为同一文件
[root@localhost test]# cd test3
[root@localhost test3]# ll
总计 304
-rw-r--r-- 1 root root 302108 11-12 22:54 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:54 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:54 log2014.log
[root@localhost test3]#
在
使用 find命令的-exec选项处理匹配到的文件时,
find命令将所有匹配到的文件一起传递给exec执行。但有些系统对能够传递给exec的命
令长度有限制,这样在find命令运行几分钟之后,就会出现溢出错误。错误信息通常是“参数列太长”或“参数列溢出”。这就是xargs命令的用处所在,
特别是与find命令一起使用。
find命令把匹配到的文件传递给xargs命令,而xargs命令每次只获取一部分文件而不是全部,不像-exec选项那样。这样它可以先处理最先获取的一部分文件,然后是下一批,并如此继续下去。
在
有些系统中,使用-exec选项会为处理每一个匹配到的文件而发起一个相应的进程,并非将匹配到的文件全部作为参数一次执行;这样在有些情况下就会出现进
程过多,系统性能下降的问题,因而效率不高;
而使用xargs命令则只有一个进程。另外,在使用xargs命令时,究竟是一次获取所有的参数,还是分批
取得参数,以及每一次获取参数的数目都会根据该命令的选项及系统内核中相应的可调参数来确定。
使用实例:
实例1:
查找系统中的每一个普通文件,然后使用xargs命令来测试它们分别属于哪类文件
命令:
find
. -type f -print | xargs file
输出:
[root@localhost test]# ll
总计 312
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 2 root root 4096 11-12 19:32 test3
drwxrwxrwx 2 root root 4096 11-12 19:32 test4
[root@localhost test]# find . -type f -print | xargs file
./log2014.log: empty
./log2013.log: empty
./log2012.log: ASCII text
[root@localhost test]#
实例2:在整个系统中查找内存信息转储文件(core
dump) ,然后把结果保存到/tmp/core.log
文件中
命令:
find
/ -name "core" -print | xargs echo ""
>/tmp/core.log[root@localhost test]# find . -type f -print | xargs file
输出:
[root@localhost test]# find / -name "core" -print | xargs echo "" >/tmp/core.log
[root@localhost test]# cd /tmp
[root@localhost tmp]# ll
总计 16
-rw-r--r-- 1 root root 1524 11-12 22:29 core.log
drwx------ 2 root root 4096 11-12 22:24 ssh-TzcZDx1766
drwx------ 2 root root 4096 11-12 22:28 ssh-ykiRPk1815
drwx------ 2 root root 4096 11-03 07:11 vmware-root
实例3:在当前目录下查找所有用户具有读、写和执行权限的文件,并收回相应的写权限
命令:
find
. -perm -7 -print | xargs chmod o-w
输出:
[root@localhost test]# ll
总计 312
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 2 root root 4096 11-12 19:32 test3
drwxrwxrwx 2 root root 4096 11-12 19:32 test4
[root@localhost test]# find . -perm -7 -print | xargs chmod o-w
[root@localhost test]# ll
总计 312
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-12 19:32 test3
drwxrwxr-x 2 root root 4096 11-12 19:32 test4
[root@localhost test]#
说明:
执行命令后,文件夹scf、test3和test4的权限都发生改变
实例4:用grep命令在所有的普通文件中搜索hostname这个词
命令:
find
. -type f -print | xargs grep "hostname"
输出:
[root@localhost test]#find
. -type f -print | xargs grep 'hostname'
./log2013.log:hostnamebaidu=baidu.com
./log2013.log:hostnamesina=sina.com
./log2013.log:hostnames=true[root@localhost test]#
实例5:用grep命令在当前目录下的所有普通文件中搜索hostnames这个词
命令:
find
. -name \* -type f -print | xargs grep "hostnames"
输出:
[root@peida test]# find
. -type f -print | xargs grep 'hostnames'
./log2013.log:hostnamesina=sina.com
./log2013.log:hostnames=true[root@localhost test]#
说明:
注意,在上面的例子中,
\用来取消find命令中的*在shell中的特殊含义。
实例6:使用xargs执行mv
命令:
find
. -name "*.log" | xargs -i mv {} test4
输出:
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-03 06:19 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:44 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:25 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-12 22:54 test3
drwxrwxr-x 2 root root 4096 11-12 19:32 test4
[root@localhost test]# cd test4/
[root@localhost test4]# ll
总计 0[root@localhost test4]# cd ..
[root@localhost test]# find
. -name '*.og' | xargs -i mv {} /home/peter/lp
[root@localhost test]# ll
总计 12drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 05:50 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]# cd test4/
[root@localhost test4]# ll
总计 304
-rw-r--r-- 1 root root 302108 11-12 22:54 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:54 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:54 log2014.log
[root@localhost test4]#
实例7:find后执行xargs提示xargs:
argument line too long解决方法:
命令:
find
. -type f -atime +0 -print0 | xargs -0 -l1 -t rm -f
输出:
[root@pd test4]# find . -type f -atime +0 -print0 | xargs -0 -l1 -t rm -f
rm -f
[root@pdtest4]#
说明:
-l1是一次处理一个;-t是处理之前打印出命令
实例8:使用-i参数默认的前面输出用{}代替,-I参数可以指定其他代替字符,如例子中的[]
命令:
输出:
[root@localhost test]# ll
总计 12drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 05:50 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]# cd test4
[root@localhost test4]# find . -name "file" | xargs -I [] cp [] ..
[root@localhost test4]# ll
总计 304
-rw-r--r-- 1 root root 302108 11-12 22:54 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:54 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:54 log2014.log
[root@localhost test4]# cd ..
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 05:50 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]#
说明:
使用-i参数默认的前面输出用{}代替,-I参数可以指定其他代替字符,如例子中的[]
实例9:xargs的-p参数的使用
命令:
find
. -name "*.log" | xargs -p -i mv {} ..
输出:
[root@localhost test3]# ll
总计 0
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
[root@localhost test3]# cd ..
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 06:06 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]# cd test3
[root@localhost test3]# find . -name "*.log" | xargs -p -i mv {} ..
mv ./log2015.log .. ?...y
[root@localhost test3]# ll
总计 0[root@localhost test3]# cd ..
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 06:08 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]#
说明:
-p参数会提示让你确认是否执行后面的命令,y执行,n不执行。
find一些常用参数的一些常用实例和一些具体用法和注意事项。
1.使用name选项:
文
件名选项是find命令最常用的选项,要么单独使用该选项,要么和其他选项一起使用。
可以使用某种文件名模式来匹配文件,记住要用引号将文件名模式引
起来。 不管当前路径是什么,如果想要在自己的根目录$HOME中查找文件名符合*.log的文件,使用~作为
'pathname'参数,波浪号~代
表了你的$HOME目录。
find
~ -name "*.log" -print
想要在当前目录及子目录中查找所有的‘
*.log‘文件,可以用:
find
. -name "*.log" -print
想要的当前目录及子目录中查找文件名以一个大写字母开头的文件,可以用:
find
. -name "[A-Z]*" -print
想要在/etc目录中查找文件名以host开头的文件,可以用:
find
/etc -name "host*" -print
想要查找$HOME目录中的文件,可以用:
find
~ -name "*" -print 或find
. -print
要想让系统高负荷运行,就从根目录开始查找所有的文件。
find
/ -name "*" -print
如果想在当前目录查找文件名以一个个小写字母开头,最后是4到9加上.log结束的文件:
命令:
find
. -name "[a-z]*[4-9].log" -print
输出:
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 06:08 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]# find . -name "[a-z]*[4-9].log" -print
./log2014.log
./log2015.log
./test4/log2014.log
[root@localhost test]#
2.用perm选项:
按照文件权限模式用-perm选项,按文件权限模式来查找文件的话。最好使用八进制的权限表示法。
如在当前目录下查找文件权限位为755的文件,即文件属主可以读、写、执行,其他用户可以读、执行的文件,可以用:
[root@localhost test]# find . -perm 755 -print
.
./scf
./scf/lib
./scf/service
./scf/service/deploy
./scf/service/deploy/product
./scf/service/deploy/info
./scf/doc
./scf/bin
[root@localhost test]#
还有一种表达方法:在八进制数字前面要加一个横杠-,表示都匹配,如-007就相当于777,-005相当于555,
命令:
find
. -perm -005
输出:
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 06:08 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]# find . -perm -005
.
./test4
./scf
./scf/lib
./scf/service
./scf/service/deploy
./scf/service/deploy/product
./scf/service/deploy/info
./scf/doc
./scf/bin
./test3
[root@localhost test]#
3.忽略某个目录:
如
果在查找文件时希望忽略某个目录,因为你知道那个目录中没有你所要查找的文件,那么可以使用-prune选项来指出需要忽略的目录。在使用-prune选
项时要当心,因为如果你同时使用了-depth选项,那么-prune选项就会被find命令忽略。如果希望在test目录下查找文件,但不希望在
test/test3目录下查找,可以用:
命令:
find
test -path "test/test3" -prune -o -print
输出:
[root@localhost soft]# find test -path "test/test3" -prune -o -print
test
test/log2014.log
test/log2015.log
test/test4
test/test4/log2014.log
test/test4/log2013.log
test/test4/log2012.log
test/scf
test/scf/lib
test/scf/service
test/scf/service/deploy
test/scf/service/deploy/product
test/scf/service/deploy/info
test/scf/doc
test/scf/bin
test/log2013.log
test/log2012.log
[root@localhost soft]#
4.使用find查找文件的时候怎么避开某个文件目录:
实例1:在
lp
目录下查找不在lp1
子目录之内的所有文件
命令:
find
lp -path 'lp/lp1' -o -print
输出:
[root@localhost soft]# find lp
lp
lp/ test.Log
lp/issue2
lp/test2.log
lp/lp1
lp/lp1/lp
lp/log2013.log
lp/manpath.config
lp/log2123.log
lp/!
lp/lp2312.log
lp/issue3
lp/lp23323.log
lp/test.log
lp/issue1
lp/lp2012.log
lp/lp123.log
lp/lp
lp/lp201233.og
lp/ test.Log
lp/issue4
[root@localhost soft]# find
lp -path 'lp/lp1' -prune -o -print
lp
lp/ test.Log
lp/issue2
lp/test2.log
lp/log2013.log
lp/manpath.config
lp/log2123.log
lp/!
lp/lp2312.log
lp/issue3
lp/lp23323.log
lp/test.log
lp/issue1
lp/lp2012.log
lp/lp123.log
lp/lp
lp/lp201233.og
lp/ test.Log
lp/issue4
说明:
find
[-path ..] [expression]
在路径列表的后面的是表达式
-path
"test" -prune -o -print 是
-path
"test" -a -prune -o -print 的简写表达式按顺序求值,
-a 和
-o
都是短路求值,与
shell
的
&&
和
||
类似如果
-path
"test" 为
真,则求值 -prune
, -prune 返回真,与逻辑表达式为真;否则不求值
-prune,与逻辑表达式为假。如
果 -path
"test" -a -prune 为假,则求值
-print
,-print返回真,或逻辑表达式为真;否则不求值
-print,
或逻辑表达式为真。
这个表达式组合特例可以用伪码写为:
if
-path "test" then
-prune
else
实例2:避开多个文件夹:
命令:
find
test \( -path test/test4 -o -path test/test3 \) -prune -o -print
输出:
[root@localhost soft]# find test \( -path test/test4 -o -path test/test3 \) -prune -o -print
test
test/log2014.log
test/log2015.log
test/scf
test/scf/lib
test/scf/service
test/scf/service/deploy
test/scf/service/deploy/product
test/scf/service/deploy/info
test/scf/doc
test/scf/bin
test/log2013.log
test/log2012.log
[root@localhost soft]#
说明:
圆括号表示表达式的结合。
\
表示引用,即指示
shell
不对后面的字符作特殊解释,而留给
find
命令去解释其意义。
实例3:查找某一确定文件,-name等选项加在-o 之后
命令:
find
test \(-path test/test4 -o -path test/test3 \) -prune -o -name
"*.log" -print
输出:
[root@localhost soft]# find test \( -path test/test4 -o -path test/test3 \) -prune -o -name "*.log" -print
test/log2014.log
test/log2015.log
test/log2013.log
test/log2012.log
[root@localhost soft]#
5.使用user和nouser选项:
按文件属主查找文件:
实例1:在$HOME目录中查找文件属主为peida的文件
命令:
find
~ -user peida -print
实例2:在/etc目录下查找文件属主为peida的文件:
命令:
find
/home/peter/lp -user peter -print
说明:
实例3:为了查找属主帐户已经被删除的文件,可以使用-nouser选项。在/home目录下查找所有的这类文件
命令:
find
/home -nouser -print
说明:
这样就能够找到那些属主在/etc/passwd文件中没有有效帐户的文件。在使用-nouser选项时,不必给出用户名;
find命令能够为你完成相应的工作。
6.使用group和nogroup选项:
就像user和nouser选项一样,针对文件所属于的用户组,
find命令也具有同样的选项,为了在/apps目录下查找属于gem用户组的文件,可以用:
find
/home/peter/lp -group peter -print
要查找没有有效所属用户组的所有文件,可以使用nogroup选项。下面的find命令从文件系统的根目录处查找这样的文件:
find
/ -nogroup-print
7.按照更改时间或访问时间等查找文件:
如果希望按照更改时间来查找文件,可以使用mtime,atime或ctime选项。如果系统突然没有可用空间了,很有可能某一个文件的长度在此期间增长迅速,这时就可以用mtime选项来查找这样的文件。
用减号-来限定更改时间在距今n日以内的文件,而用加号+来限定更改时间在距今n日以前的文件。
希望在系统根目录下查找更改时间在5日以内的文件,可以用:
find
/ -mtime -5 -print
为了在/var/adm目录下查找更改时间在3日以前的文件,可以用:
find
/var/adm -mtime +3 -print
8.查找比某个文件新或旧的文件:
如果希望查找更改时间比某个文件新但比另一个文件旧的所有文件,可以使用-newer选项。
它的一般形式为:
newest_file_name
! oldest_file_name
其中,!是逻辑非符号。
实例1:查找更改时间比文件log2012.log新但比文件log2017.log旧的文件
命令:
find
-newer log2012.log ! -newer log2017.log
输出:
[root@localhost test]# ll
总计 316
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
-rw-r--r-- 1 root root 0 11-16 14:41 log2016.log
-rw-r--r-- 1 root root 0 11-16 14:43 log2017.log
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxr-x 2 root root 4096 11-13 06:08 test3
drwxrwxr-x 2 root root 4096 11-13 05:50 test4
[root@localhost test]# find -newer log2012.log ! -newer log2017.log
.
./log2015.log
./log2017.log
./log2016.log
./test3
[root@localhost test]#
实例2:查找更改时间在比log2012.log文件新的文件(更改时间更靠后)
命令:
find
. -newer log2012.log -print
输出:
[root@localhost test]# find -newer log2012.log
.
./log2015.log
./log2017.log
./log2016.log
./test3
[root@localhost test]#
9.使用type选项:
实例1:在/etc目录下查找所有的目录
命令:
find
/etc -type d -print
实例2:在当前目录下查找除目录以外的所有类型的文件
命令:
find
. ! -type d -print
实例3:在/etc目录下查找所有的符号链接文件
命令:
find
/etc -type l -print
10.使用size选项:
可以按照文件长度来查找文件,这里所指的文件长度既可以用块(block)来计量,也可以用字节来计量。以字节计量文件长度的表达形式为N
c;以块计量文件长度只用数字表示即可。
在按照文件长度查找文件时,一般使用这种以字节表示的文件长度,在查看文件系统的大小,因为这时使用块来计量更容易转换。
实例1:在当前目录下查找文件长度大于1
M字节的文件
命令:
find
. -size +1000000c -print
实例2:在/home/apache目录下查找文件长度恰好为100字节的文件:
命令:
find
/home/apache -size 100c -print
实例3:在当前目录下查找长度超过10块的文件(一块等于512字节)
命令:
find
. -size +10 -print
11.使用depth选项:
在使用find命令时,可能希望先匹配所有的文件,再在子目录中查找。使用depth选项就可以使find命令这样做。这样做的一个原因就是,当在使用find命令向磁带上备份文件系统时,希望首先备份所有的文件,其次再备份子目录中的文件。
实例1:find命令从文件系统的根目录开始,查找一个名为CON.FILE的文件。
命令:
find
/ -name "CON.FILE" -depth -print
说明:
它将首先匹配所有的文件然后再进入子目录中查找
12.使用mount选项:
在当前的文件系统中查找文件(不进入其他文件系统),可以使用find命令的mount选项。
实例1:从当前目录开始查找位于本文件系统中文件名以XC结尾的文件
命令:
find
. -name "*.XC" -mount -print
wc 文字统计命令
格式:wc [选项] filename
功能:统计文件的字节数、字数、行数
常用选项说明:
-c 统计字节数
-l 统计行数
-w 统计字数
4.使用实例:
实例1:查看文件的字节数、字数、行数
命令:
wc
test.txt
输出:
[root@localhost test]# cat test.txt
hnlinux
peida.cnblogs.com
ubuntu
ubuntu linux
redhat
Redhat
linuxmint
[root@localhost test]# wc test.txt
7 8 70 test.txt
[root@localhost test]# wc -l test.txt --统计行数
7 test.txt
[root@localhost test]# wc -c test.txt --统计字节数
70 test.txt
[root@localhost test]# wc -w test.txt --统计字数
8 test.txt
[root@localhost test]# wc -m test.txt
70 test.txt
[root@localhost test]# wc -L test.txt
17 test.txt
说明:
7
8 70 test.txt
行数
单词数 字节数 文件名
实例2:用wc命令怎么做到只打印统计数字不打印文件名
命令:
输出:
peter@ubuntu:~/lp$
wc -l issue2
6
issue2
[root@localhost test]#cat
issue2 | wc -l
7[root@localhost test]#
6
说明:
使用管道线,这在编写shell脚本时特别有用。
实例3:用来统计当前目录下的文件数
命令:
ls
-l | wc -l
输出:
[root@localhost test]# cd test6
[root@localhost test6]# ll
总计 604
---xr--r-- 1 root mail 302108 11-30 08:39 linklog.log
---xr--r-- 1 mail users 302108 11-30 08:39 log2012.log
-rw-r--r-- 1 mail users 61 11-30 08:39 log2013.log
-rw-r--r-- 1 root mail 0 11-30 08:39 log2014.log
-rw-r--r-- 1 root mail 0 11-30 08:39 log2015.log
-rw-r--r-- 1 root mail 0 11-30 08:39 log2016.log
-rw-r--r-- 1 root mail 0 11-30 08:39 log2017.log
[root@localhost test6]# ls -l | wc -l
8
[root@localhost test6]#
说明:
数量中包含当前目录
们经常在linux要查找某个文件,但不知道放在哪里了,可以使用下面的一些命令来搜索:
which 查看可执行文件的位置。
whereis 查看文件的位置。
locate 配合数据库查看文件位置。
find 实际搜寻硬盘查询文件名称。
which命令的作用是,在PATH变量指定的路径中,搜索某个系统命令的位置,并且返回第一个搜索结果。也就是说,使用which命令,就可以看到某个系统命令是否存在,以及执行的到底是哪一个位置的命令。
1.命令格式:
which
可执行文件名称
2.命令功能:
which指令会在PATH变量指定的路径中,搜索某个系统命令的位置,并且返回第一个搜索结果。
3.命令参数:
-n
指定文件名长度,指定的长度必须大于或等于所有文件中最长的文件名。
-p
与-n参数相同,但此处的包括了文件的路径。
-w
指定输出时栏位的宽度。
-V
显示版本信息
4.使用实例:
实例1:查找文件、显示命令路径
命令:
which
lsmod
输出:
[root@localhost ~]# which pwd
/bin/pwd
[root@localhost ~]# which adduser
/usr/sbin/adduser
[root@localhost ~]#
说明:
which
是根据使用者所配置的 PATH
变量内的目录去搜寻可运行档的!所以,不同的
PATH
配置内容所找到的命令当然不一样的!
实例2:用
which
去找出 which
命令:
输出:
[root@localhost ~]# which which
alias which='alias | /usr/bin/which --tty-only --read-alias --show-dot --show-tilde'
/usr/bin/which
[root@localhost ~]#
说明:
竟然会有两个 which
,其中一个是 alias
这就是所谓的『命令别名』,意思是输入
which
会等於后面接的那串命令!
实例3:找出
cd
这个命令
命令:
which
cd
输出:
说明:
cd
这个常用的命令竟然找不到啊!为什么呢?这是因为
cd
是bash
内建的命令! 但是 which
默认是找 PATH
内所规范的目录,所以当然一定找不到的!
whereis命令只能用于程序名的搜索,而且只搜索二进制文件(参数-b)、man说明文件(参数-m)和源代码文件(参数-s)。如果省略参数,则返回所有信息。
和 find相比,whereis查找的速度非常快,这是因为linux系统会将
系统内的所有文件都记录在一个数据库文件中,当使用whereis和下面即
将介绍的locate时,会从数据库中查找数据,而不是像find命令那样,通
过遍历硬盘来查找,效率自然会很高。
但是该数据库文件并不是实时更新,默认情况下时一星期更新一次,因此,我们在用whereis和locate
查找文件时,有时会找到已经被删除的数据,或者刚刚建立文件,却无法查找到,原因就是因为数据库文件没有被更新。
1.命令格式:
whereis
[-bmsu] [BMS 目录名 -f
] 文件名
2.命令功能:
whereis命令是定位可执行文件、源代码文件、帮助文件在文件系统中的位置。这些文件的属性应属于原始代码,二进制文件,或是帮助文件。whereis
程序还具有搜索源代码、指定备用搜索路径和搜索不寻常项的能力。
3.命令参数:
-b
定位可执行文件。
-m
定位帮助文件。
-s
定位源代码文件。
-u
搜索默认路径下除可执行文件、源代码文件、帮助文件以外的其它文件。
-B
指定搜索可执行文件的路径。
-M
指定搜索帮助文件的路径。
-S
指定搜索源代码文件的路径。
4.使用实例:
实例1:将和**文件相关的文件都查找出来
命令:
whereis
svn
输出:
[root@localhost ~]# whereis tomcat
tomcat:
[root@localhost ~]# whereis svn
svn: /usr/bin/svn /usr/local/svn /usr/share/man/man1/svn.1.gz
说明:
tomcat没安装,找不出来,svn安装找出了很多相关文件
实例2:只将二进制文件
查找出来
命令:
whereis
-b svn
输出:
[root@localhost ~]# whereis -b svn
svn: /usr/bin/svn /usr/local/svn
[root@localhost ~]# whereis -m svn
svn: /usr/share/man/man1/svn.1.gz
[root@localhost ~]# whereis -s svn
svn:
[root@localhost ~]#
说明:
whereis
-m svn查出说明文档路径,whereis
-s svn 找source源文件。
locate
让使用者可以很快速的搜寻档案系统内是否有指定的档案。其方法是先建立一个包括系统内所有档案名称及路径的数据库,之后当寻找时就只需查询这个数据库,而不必实际深入档案系统之中了。在一般的
distribution
之中,数据库的建立都被放在
crontab
中自动执行。
1.命令格式:
Locate [选择参数] [样式]
2.命令功能:
locate
命令可以在搜寻数据库时快速找到档案,数据库由updatedb程序来更新,updatedb是由cron
daemon周期性建立的,locate命令
在搜寻数据库时比由整个由硬盘资料来搜寻资料来得快,但较差劲的是locate所找到的档案若是最近才建立或
刚更名的,可能会找不到,在内定值
中,updatedb每天会跑一次,可以由修改crontab来更新设定值。(etc/crontab)
locate
指定用在搜寻符合条件的档案,它会去储存档案与目录名称的数据库内,寻找合乎范本样式条件的档案或目录录,可以使用特殊字元(如”*”
或”?”等)来指
定范本样式,如指定范本为kcpa*ner,
locate会找出所有起始字串为kcpa且结尾为ner的档案或目录,如名称为kcpartner若目录
录名称为kcpa_ner则会列出该目录下包括
子目录在内的所有档案。
locate
指令和find找寻档案的功能类似,但locate是透过update程序将硬盘中的所有档案和目录资料先建立一个索引数据库,在
执行loacte时直
接找该索引,查询速度会较快,索引数据库一般是由操作系统管理,但也可以直接下达update强迫系统立即修改索引数据库。
3.命令参数:
-e
将排除在寻找的范围之外。
-1 如果
是 1.则启动安全模式。在安全模式下,使用者不会看到权限无法看到
的档案。这会始速度减慢,因为 locate
必须至实际的档案系统中取得档案的
权限资料。
-f
将特定的档案系统排除在外,例如我们没有到理要把
proc
档案系统中的档案 放在资料库中。
-q
安静模式,不会显示任何错误讯息。
-n
至多显示 n个输出。
-r
使用正规运算式 做寻找的条件。
-o
指定资料库存的名称。
-d
指定资料库的路径
-h
显示辅助讯息
-V
显示程式的版本讯息
4.使用实例:
实例1:查找和pwd相关的所有文件
命令:
locate
pwd
输出:
peida-VirtualBox ~ # locate pwd
/bin/pwd
/etc/.pwd.lock
/sbin/unix_chkpwd
/usr/bin/pwdx
/usr/include/pwd.h
/usr/lib/python2.7/dist-packages/twisted/python/fakepwd.py
/usr/lib/python2.7/dist-packages/twisted/python/fakepwd.pyc
/usr/lib/python2.7/dist-packages/twisted/python/test/test_fakepwd.py
/usr/lib/python2.7/dist-packages/twisted/python/test/test_fakepwd.pyc
/usr/lib/syslinux/pwd.c32
/usr/share/help/C/empathy/irc-join-pwd.page
/usr/share/help/ca/empathy/irc-join-pwd.page
/usr/share/help/cs/empathy/irc-join-pwd.page
/usr/share/help/de/empathy/irc-join-pwd.page
/usr/share/help/el/empathy/irc-join-pwd.page
实例2:
搜索etc目录下所有以sh开头的文件
命令:
locate
/etc/sh
输出:
peida-VirtualBox ~ # locate /etc/sh
/etc/shadowl
/etc/shadow-
/etc/shells
peida-VirtualBox ~ #
实例3:搜索etc目录下,所有以m开头的文件
命令:
locate
/etc/m
输出:
peida-VirtualBox ~ # locate /etc/m
/etc/magic
/etc/magic.mime
/etc/mailcap
/etc/mailcap.order
/etc/manpath.config
/etc/mate-settings-daemon
grep命令
Linux系统中grep命令是一种强大的文本搜索工具,它能使用正则表达式搜索文本,并把匹
配的行打印出来。grep全称是Global
Regular Expression Print,表示全局正则表达式版本,它的使用权限是所有用户。
grep的工作方式是这样的,它在一个或多个文件中搜索字符串模板。如果模板包括空格,则必须被引用,模板后的所有字符串被看作文件名。搜索的结果被送到标准输出,不影响原文件内容。
grep可用于shell脚本,因为grep通过返回一个状态值来说明搜索的状态,如果模板搜索成功,则返回0,如果搜索不成功,则返回1,如果搜索的文件不存在,则返回2。我们利用这些返回值就可进行一些自动化的文本处理工作。
1.命令格式:
grep
[option] pattern file
2.命令功能:
用于过滤/搜索的特定字符。可使用正则表达式能多种命令配合使用,使用上十分灵活。
3.命令参数:
-a
--text #不要忽略二进制的数据。
-A<显示行数>
--after-context=<显示行数>
#除了显示符合范本样式的那一列之外,并显示该行之后的内容。
-b
--byte-offset #在显示符合样式的那一行之前,标示出该行第一个字符的编号。
-B<显示行数> --before-context=<显示行数> #除了显示符合样式的那一行之外,并显示该行之前的内容。
-c
--count #计算符合样式的列数。
-C<显示行数>
--context=<显示行数>或-<显示行数>
#除了显示符合样式的那一行之外,并显示该行之前后的内容。
-d
<动作>
--directories=<动作>
#当指定要查找的是目录而非文件时,必须使用这项参数,否则grep指令将回报信息并停止动作。
-e<范本样式>
--regexp=<范本样式>
#指定字符串做为查找文件内容的样式。
-E
--extended-regexp #将样式为延伸的普通表示法来使用。
-f<规则文件>
--file=<规则文件>
#指定规则文件,其内容含有一个或多个规则样式,让grep查找符合规则条件的文件内容,格式为每行一个规则样式。
-F
--fixed-regexp #将样式视为固定字符串的列表。
-G
--basic-regexp #将样式视为普通的表示法来使用。
-h
--no-filename #在显示符合样式的那一行之前,不标示该行所属的文件名称。
-H
--with-filename #在显示符合样式的那一行之前,表示该行所属的文件名称。
-i
--ignore-case #忽略字符大小写的差别。
-l
--file-with-matches #列出文件内容符合指定的样式的文件名称。
-L
--files-without-match #列出文件内容不符合指定的样式的文件名称。
-n
--line-number #在显示符合样式的那一行之前,标示出该行的列数编号。
-q
--quiet或--silent
#不显示任何信息。
-r
--recursive #此参数的效果和指定“-d
recurse”参数相同。
-s
--no-messages #不显示错误信息。
-v
--revert-match #显示不包含匹配文本的所有行。
-V
--version #显示版本信息。
-x
--line-regexp #只显示全列符合的列。
-y
#此参数的效果和指定“-i”参数相同。
4.规则表达式:
grep的规则表达式:
^
#锚定行的开始
如:'^grep'匹配所有以grep开头的行。
$
#锚定行的结束
如:'grep$'匹配所有以grep结尾的行。
.
#匹配一个非换行符的字符
如:'gr.p'匹配gr后接一个任意字符,然后是p。
*
#匹配零个或多个先前字符
如:'*grep'匹配所有一个或多个空格后紧跟grep的行。
.*
#一起用代表任意字符。
[]
#匹配一个指定范围内的字符,如'[Gg]rep'匹配Grep和grep。
[^]
#匹配一个不在指定范围内的字符,如:'[^A-FH-Z]rep'匹配不包含A-R和T-Z的一个字母开头,紧跟rep的行。
\(..\)
#标记匹配字符,如'\(love\)',love被标记为1。
\<
#锚定单词的开始,如:'\<grep'匹配包含以grep开头的单词的行。
\>
#锚定单词的结束,如'grep\>'匹配包含以grep结尾的单词的行。
x\{m\}
#重复字符x,m次,如:'0\{5\}'匹配包含5个o的行。
x\{m,\}
#重复字符x,至少m次,如:'o\{5,\}'匹配至少有5个o的行。
x\{m,n\}
#重复字符x,至少m次,不多于n次,如:'o\{5,10\}'匹配5--10个o的行。
\w
#匹配文字和数字字符,也就是[A-Za-z0-9],如:'G\w*p'匹配以G后跟零个或多个文字或数字字符,然后是p。
\W
#\w的反置形式,匹配一个或多个非单词字符,如点号句号等。
\b
#单词锁定符,如:
'\bgrep\b'只匹配grep。
POSIX字符:
为
了在不同国家的字符编码中保持一至,POSIX(The
Portable Operating System Interface)增加了特殊的字符
类,如[:alnum:]是[A-Za-z0-9]的另一个写法。要把它们放到[]号内才能成为正则表达式,如[A-
Za-z0-9]或
[[:alnum:]]。在linux下的grep除fgrep外,都支持POSIX的字符类。
[:alnum:]
#文字数字字符
[:alpha:]
#文字字符
[:digit:]
#数字字符
[:graph:]
#非空字符(非空格、控制字符)
[:lower:]
#小写字符
[:cntrl:]
#控制字符
[:print:]
#非空字符(包括空格)
[:punct:]
#标点符号
[:space:]
#所有空白字符(新行,空格,制表符)
[:upper:]
#大写字符
[:xdigit:]
#十六进制数字(0-9,a-f,A-F)
5.使用实例:
实例1:查找指定进程
命令:
ps
-ef|grep svn
输出:
[root@localhost ~]# ps -ef|grep svn
root 4943 1 0 Dec05 ? 00:00:00 svnserve -d -r /opt/svndata/grape/
root 16867 16838 0 19:53 pts/0 00:00:00 grep svn
[root@localhost ~]#
说明:
第一条记录是查找出的进程;第二条结果是grep进程本身,并非真正要找的进程。
实例2:查找指定进程个数
命令:
ps
-ef|grep svn -c
ps
-ef|grep -c svn
输出:
[root@localhost ~]# ps -ef|grep svn -c
2
[root@localhost ~]# ps -ef|grep -c svn
2
[root@localhost ~]#
说明:
实例3:从文件中读取关键词进行搜索
命令:
cat
test.txt | grep -f test2.txt
输出:
[root@localhost test]# cat test.txt
hnlinux
peida.cnblogs.com
ubuntu
ubuntu linux
redhat
Redhat
linuxmint
[root@localhost test]# cat test2.txt
linux
Redhat
[root@localhost test]# cat test.txt | grep -f test2.txt
hnlinux
ubuntu linux
Redhat
linuxmint
[root@localhost test]#
说明:
输出test.txt文件中含有从test2.txt文件中读取出的关键词的内容行
实例3:从文件中读取关键词进行搜索
且显示行号
命令:
cat
test.txt | grep -nf test2.txt
输出:
[root@localhost test]# cat test.txt
hnlinux
peida.cnblogs.com
ubuntu
ubuntu linux
redhat
Redhat
linuxmint
[root@localhost test]# cat test2.txt
linux
Redhat
[root@localhost test]# cat test.txt | grep -nf test2.txt
1:hnlinux
4:ubuntu linux
6:Redhat
7:linuxmint
[root@localhost test]#
说明:
输出test.txt文件中含有从test2.txt文件中读取出的关键词的内容行,并显示每一行的行号
实例5:从文件中查找关键词
命令:
grep
'linux' test.txt
输出:
[root@localhost test]# grep 'linux' test.txt
hnlinux
ubuntu linux
linuxmintlp.
[root@localhost test]# grep -n 'linux' test.txt
1:hnlinux
4:ubuntu linux
7:linuxmint
[root@localhost test]#
说明:
实例6:从多个文件中查找关键词
命令:
grep
'linux' test.txt test2.txt
输出:
[root@localhost test]# grep -n 'linux' test.txt test2.txt
test.txt:1:hnlinux
test.txt:4:ubuntu linux
test.txt:7:linuxmint
test2.txt:1:linux
[root@localhost test]# grep 'linux' test.txt test2.txt
test.txt:hnlinux
test.txt:ubuntu linux
test.txt:linuxmint
test2.txt:linux
[root@localhost test]#
说明:
多文件时,输出查询到的信息内容行时,会把文件的命名在行最前面输出并且加上":"作为标示符
实例7:grep不显示本身进程
命令:
ps
aux|grep \[s]sh
ps
aux | grep ssh | grep -v "grep"
输出:
[root@localhost test]# ps aux|grep ssh
root 2720 0.0 0.0 62656 1212 ? Ss Nov02 0:00 /usr/sbin/sshd
root 16834 0.0 0.0 88088 3288 ? Ss 19:53 0:00 sshd: root@pts/0
root 16901 0.0 0.0 61180 764 pts/0 S+ 20:31 0:00 grep ssh
[root@localhost test]# ps aux|grep \[s]sh]
[root@localhost test]# ps aux|grep \[s]sh
root 2720 0.0 0.0 62656 1212 ? Ss Nov02 0:00ge /usr/sbin/sshd
root 16834 0.0 0.0 88088 3288 ? Ss 19:53 0:00 sshd: root@pts/0
[root@localhost test]# ps aux | grep ssh | grep -v "grep"
root 2720 0.0 0.0 62656 1212 ? Ss Nov02 0:00 /usr/sbin/sshd
root 16834 0.0 0.0 88088 3288 ? Ss 19:53 0:00 sshd: root@pts/0
说明:
实例8:找出已u开头的行内容
命令:
cat
test.txt |grep ^u
输出:
[root@localhost test]# cat test.txt |grep ^u
ubuntu
ubuntu linux
[root@localhost test]#
说明:
实例9:输出非u开头的行内容
命令:
cat
test.txt |grep ^[^u]
输出:
[root@localhost test]# cat test.txt |grep ^[^u]
hnlinux
peida.cnblogs.com
redhat
Redhat
linuxmint
[root@localhost test]#
说明:
实例10:输出以hat结尾的行内容
命令:
cat
test.txt |grep hat$
输出:
[root@localhost test]# cat test.txt |grep hat$
redhat
Redhat
[root@localhost test]#
说明:
实例11:
命令:
输出:
[root@localhost test]# ifconfig eth0|grep "[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}\.[0-9]\{1,3\}"
inet addr:192.168.120.204 Bcast:192.168.120.255 Mask:255.255.255.0
[root@localhost test]# ifconfig eth0|grep -E "([0-9]{1,3}\.){3}[0-9]"
inet addr:192.168.120.204 Bcast:192.168.120.255 Mask:255.255.255.0
[root@localhost test]#
说明:
实例12:显示包含ed或者at字符的内容行
命令:
cat
test.txt |grep -E "ed|at"
输出:
[root@localhost test]# cat test.txt |grep -E "peida|com"
peida.cnblogs.com
[root@localhost test]# cat test.txt |grep -E "ed|at"
redhat
Redhat
[root@localhost test]#
说明:
实例13:显示当前目录下面以.txt
结尾的文件中的所有包含每个字符串至少有7个连续小写字符的字符串的行
命令:
grep
'[a-z]\{7\}' *.txt
输出:
[root@localhost test]# grep '[a-z]\{7\}' *.txt
test.txt:hnlinux
test.txt:peida.cnblogs.com
test.txt:linuxmint
[root@localhost test]#
说明:
复制、移动和删除文件或文件夹
touch 创建文件
linux的touch命令不常用,一般在使用make的时候可能会用到,用来修改文件时间戳,或者新建一个不存在的文件。
1.命令格式:
touch
[选项]...
文件...
2.命令参数:
-a
或--time=atime或--time=access或--time=use
只更改存取时间。
-c
或--no-create
不建立任何文档。
-d
使用指定的日期时间,而非现在的时间。
-f
此参数将忽略不予处理,仅负责解决BSD版本touch指令的兼容性问题。
-m
或--time=mtime或--time=modify
只更改变动时间。
-r
把指定文档或目录的日期时间,统统设成和参考文档或目录的日期时间相同。
-t
使用指定的日期时间,而非现在的时间。
3.命令功能:
touch命令参数可更改文档或目录的日期时间,包括存取时间和更改时间。
4.使用范例:
实例一:创建不存在的文件
命令:
touch
log2012.log log2013.log
输出:
[root@localhost test]# touch log2012.log log2013.log
[root@localhost test]# ll
-rw-r--r-- 1 root root 0 10-28 16:01 log2012.log
-rw-r--r-- 1 root root 0 10-28 16:01 log2013.log
如果log2014.log不存在,则不创建文件
[root@localhost test]# touch -c log2014.log
[root@localhost test]# ll
-rw-r--r-- 1 root root 0 10-28 16:01 log2012.log
-rw-r--r-- 1 root root 0 10-28 16:01 log2013.log
实例二:更新log.log的时间和log2012.log时间戳相同
命令:
touch
-r log.log log2012.log
输出:
[root@localhost test]# ll
-rw-r--r-- 1 root root 0 10-28 16:01 log2012.log
-rw-r--r-- 1 root root 0 10-28 16:01 log2013.log
-rw-r--r-- 1 root root 0 10-28 14:48 log.log
[root@localhost test]# touch -r log.log log2012.log
[root@localhost test]# ll
-rw-r--r-- 1 root root 0 10-28 14:48 log2012.log
-rw-r--r-- 1 root root 0 10-28 16:01 log2013.log
-rw-r--r-- 1 root root 0 10-28 14:48 log.log
实例三:设定文件的时间戳
命令:
touch
-t 201211142234.50 log.log
输出:
[root@localhost test]# ll
-rw-r--r-- 1 root root 0 10-28 14:48 log2012.log
-rw-r--r-- 1 root root 0 10-28 16:01 log2013.log
-rw-r--r-- 1 root root 0 10-28 14:48 log.log
[root@localhost test]#
touch -t 201203122243.50 log.log
[root@localhost test]# ls
--full-time log.log
-rw-rw-r--
1 peter peter 0 2012-03-12 22:43:50.000000000 +0800 log.log
说明:
-t
time 使用指定的时间值 time
作为指定文件相应时间戳记的新值.此处的
time规定为如下形式的十进制数:
[[CC]YY]MMDDhhmm[.SS]
这
里,CC为年数中的前两位,即”世纪数”;YY为年数的后两位,即某世纪中的年数.如果不给出CC的值,则touch
将把年数CCYY限定在
1969--2068之内.MM为月数,DD为天将把年数CCYY限定在1969--2068之内.MM为月数,DD为天数,hh
为小时数(几
点),mm为分钟数,SS为秒数.此处秒的设定范围是0--61,这样可以处理闰秒.这些数字组成的时间是环境变量TZ指定的时区中的一个时
间.由于系 统的限制,早于1970年1月1日的时间是错误的。
Mkdir命令:
格式:mkdir
[-mp] 目录
功能:建立新目录
常用选项说明:
-p 直接建立多个递归目录
-m 设置文件的权限,直接设置,不需要管默认权限
【例】:
[root@dsetl etc]# cd /tmp
[root@dsetl
tmp]# mkdir lp
–建立目录lp
[root@dsetl
tmp]# mkdir -p test1/test2/test3 --直接建立多个递归目录
实例3:的目录
命令:
mkdir
-m 777 test3
输出:
[root@localhost test]# mkdir -m 777 test3
[root@localhost test]# ll
总计 12drwxr-xr-x 2 root root 4096 10-25 17:42 test1
drwxr-xr-x 3 root root 4096 10-25 17:44 test2
drwxrwxrwx 2 root root 4096 10-25 17:46 test3
[root@localhost test]#
说明:
test3的权限为rwxrwxrwx
实例4:创建新目录都显示信息
命令:
mkdir
-v test4
输出:
[root@localhost test]# mkdir -v test4
mkdir: 已创建目录 “test4”
[root@localhost test]# mkdir -vp test5/test5-1
mkdir: 已创建目录 “test5”
mkdir: 已创建目录 “test5/test5-1”
[root@localhost test]#
实例五:一个命令创建项目的目录结构
参考:http://www.ibm.com/developerworks/cn/aix/library/au-badunixhabits.html
命令:
mkdir
-vp
scf/{lib/,bin/,doc/{info,product},logs/{info,product},service/deploy/{info,product}}
输出:
[root@localhost test]#mkdir
-vp
scf/{lib/,bin/,doc/{info,product},logs/{info,product},service/deploy/{info,product}}
mkdir: 已创建目录 “scf”
mkdir: 已创建目录 “scf/lib”
mkdir: 已创建目录 “scf/bin”
mkdir: 已创建目录 “scf/doc”
mkdir: 已创建目录 “scf/doc/info”
mkdir: 已创建目录 “scf/doc/product”
mkdir: 已创建目录 “scf/logs”
mkdir: 已创建目录 “scf/logs/info”
mkdir: 已创建目录 “scf/logs/product”
mkdir: 已创建目录 “scf/service”
mkdir: 已创建目录 “scf/service/deploy”
mkdir: 已创建目录 “scf/service/deploy/info”
mkdir: 已创建目录 “scf/service/deploy/product”
[root@localhost test]# tree scf/
scf/
|-- bin
|-- doc
| |-- info
| `-- product
|-- lib
|-- logs
| |-- info
| `-- product
`-- service
`-- deploy
|-- info
`-- product
12 directories, 0 files
[root@localhost test]#
peter@ubuntu:~/lp$
mkdir -vp skp2/doc/{info,product}
rmdir命令:
格式:rmdir
[-p] 目录
功能:删除目录
常用选项说明:-p 与上层空目录也一并删除
注意:空目录的含义为不能有其他目录与文件
[root@dsetl
test2]# rmdir test3 –只删除test3
[root@dsetl
test1]# rmdir -p test1/test2/test3 –删除目录及其子目录
4.命令实例:
实例一:rmdir
不能删除非空目录
命令:
rmdir doc
输出:
[root@localhost scf]# tree
.
|-- bin
|-- doc
| |-- info
| `-- product
|-- lib
|-- logs
| |-- info
| `-- product
`-- service
`-- deploy
|-- info
`-- product
12 directories, 0 files
[root@localhost scf]# rmdir doc
rmdir: doc: 目录非空
[root@localhost scf]# rmdir doc/info
[root@localhost scf]# rmdir doc/product
[root@localhost scf]# tree
.
|-- bin
|-- doc
|-- lib
|-- logs
| |-- info
| `-- product
`-- service
`-- deploy
|-- info
`-- product
10 directories, 0 files
说明:
rmdir
目录名 命令不能直接删除非空目录
实例2:rmdir
-p 当子目录被删除后使它也成为空目录的话,则顺便一并删除
命令:
rmdir
-p logs
输出:
[root@localhost scf]# tree
.
|-- bin
|-- doc
|-- lib
|-- logs
| `-- product
`-- service
`-- deploy
|-- info
`-- product
10 directories, 0 files
[root@localhost scf]# rmdir -p logs
rmdir: logs: 目录非空
[root@localhost scf]# tree
.
|-- bin
|-- doc
|-- lib
|-- logs
| `-- product
`-- service
`-- deploy
|-- info
`-- product
9 directories, 0 files
[root@localhost scf]# rmdir -p logs/product
[root@localhost scf]# tree
.
|-- bin
|-- doc
|-- lib
`-- service
`-- deploy
|-- info
`-- product
7 directories, 0 files
cp 命令
格式:cp [选项] 源目录或文件 目标目录或文件
功能:将给出的文件或目录复制到另一个文件或目录中
常用选项说明:
-a:将文件的所有属性复制
-f 强制覆盖同名文件
-r或R 按递归方式,保留原目录结构复制文件
-i
询问是否复制
【例】:将home目录下面的.
.bashrc 文件
复制到/tmp下,并重新命名为bashrc
复制文件:
[root@dsetl
home]# cd /
[root@dsetl
/]# ls
ATM
bin boot cgroup dev etc home inputfile lib lib64 lost+found
media misc mnt net opt proc root sbin selinux srv sys tmp
u01 usr var
[root@dsetl
/]# cd tmp
[root@dsetl
tmp]# cp ~/.bashrc bashrc
[root@dsetl
tmp]# cp -i ~/.bashrc bashrc --复制时候询问是否复制
cp:
overwrite `bashrc'? n
【例】:将/var/log/wtmp复制到/tmp下
复制目录:
[root@dsetl
tmp]# cp /var/log/wtmp . <==想要复制到当前目录,最后的
.不能忘记
[root@dsetl
tmp]# ls -l wtmp
-rw-r--r--
1 root
root
233088
Feb 13 10:19 wtmp --不加任何参数的情况下,文件的用户组会改变,连属性权限也改变了,文件的创建时间也改变了
[root@dsetl
tmp]# ls -al /var/log/wtmp
-rw-rw-r--.
1 root utmp
233088 Feb 13 09:42 /var/log/wtmp --源目录文件的组为utmp
[root@dsetl
tmp]# cp -a /var/llsog/wtmp wtmp_2
--连同所有属性一起复制
[root@dsetl
tmp]# ls -l wtmp_2
-rw-rw-r--.
1 root utmp
233088
Feb 13 09:42 wtmp_2 –和源文件的属性一致
mv命令
2.命令功能:
视
mv命令中第二个参数类型的不同(是目标文件还是目标目录),mv命令将文件重命名或将其移至一个新的目录中。当第二个参数类型是文件时,mv命令完成文
件重命名,此时,源文件只能有一个(也可以是源目录名),它将所给的源文件或目录重命名为给定的目标文件名。当第二个参数是已存在的目录名称时,源文件或
目录参数可以有多个,mv命令将各参数指定的源文件均移至目标目录中。在跨文件系统移动文件时,mv先拷贝,再将原有文件删除,而链至该文件的链接也将丢
失。
格式:mv [选项] 源目录或文件 目标目录或文件
功能:移动或重命名文件或目录
常用选项说明:
3.命令参数:
-b
:若需覆盖文件,则覆盖前先行备份。
-f
:force
强制的意思,如果目标文件已经存在,不会询问而直接覆盖;
-i
:若目标文件
(destination)
已经存在时,就会询问是否覆盖!
-u
:若目标文件已经存在,且
source
比较新,才会更新(update)
-t
: --target-directory=DIRECTORY
move all SOURCE arguments into
DIRECTORY,即指定mv的目标目录,该选项适用于移动多个源文件到一个目录的情况,此时目标目录在前,源文件在后。
【例】:复制文件,建立一个目录,将文件移动到目录中
[root@dsetl
etc]# cd /tmp
[root@dsetl
tmp]# cp ~/. bashrc
Mkdir
lp
[root@dsetl
tmp]# mv bashrc lp
[root@dsetl
tmp]# cd lp
[root@dsetl
lp]# ls
bashrc
testmv
【例】:将testmv目录名命名为test
[root@dsetl
lp]# mv testmv test
[root@dsetl
lp]# ls
bashrc
test
【例】:复制文件bashrc1,bashrc2并全部移动到
/tmp/lp
[root@dsetl
tmp]# cp ~/.bashrc bashrc1
[root@dsetl
tmp]# cp ~/.bashrc bashrc2
[root@dsetl
tmp]# mv bashrc1 bashrc2 lp --同时移动两个文件到目录lp
实例三:将文件log1.txt,log2.txt,log3.txt移动到目录test3中。
命令:
mv
log1.txt log2.txt log3.txt test3
mv
-t /opt/soft/test/test4/ log1.txt log2.txt log3.txt
输出:
[root@localhost test]# ll
总计 28
-rw-r--r-- 1 root root 8 10-28 06:15 log1.txt
-rw-r--r-- 1 root root 12 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
drwxrwxrwx 2 root root 4096 10-28 06:09 test3
[root@localhost test]# mv log1.txt log2.txt log3.txt test3
[root@localhost test]# ll
总计 16drwxrwxrwx 2 root root 4096 10-28 06:18 test3
[root@localhost test]# cd test3/
[root@localhost test3]# ll
总计 16
-rw-r--r-- 1 root root 8 10-28 06:15 log1.txt
-rw-r--r-- 1 root root 12 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
[root@localhost test3]#
[root@localhost test3]# ll
总计 20
-rw-r--r-- 1 root root 8 10-28 06:15 log1.txt
-rw-r--r-- 1 root root 12 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
drwxr-xr-x 2 root root 4096 10-28 06:21 logs
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
[root@localhost test3]# mv -t /opt/soft/test/test4/ log1.txt log2.txt log3.txt
[root@localhost test3]# cd ..
[root@localhost test]# cd test4/
[root@localhost test4]# ll
总计 12
-rw-r--r-- 1 root root 8 10-28 06:15 log1.txt
-rw-r--r-- 1 root root 12 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
[root@localhost test4]#
说明:
mv
log1.txt log2.txt log3.txt test3命令将log1.txt
,log2.txt,log3.txt三个文件移到
test3目录中去,mv
-t /opt/soft/test/test4/ log1.txt log2.txt log3.txt
命令又将三个文件移动到test4目录中去
实例四:将文件file1改名为file2,如果file2已经存在,则询问是否覆盖
命令:
mv
-i log1.txt log2.txt
输出:
[root@localhost test4]# ll
总计 12
-rw-r--r-- 1 root root 8 10-28 06:15 log1.txt
-rw-r--r-- 1 root root 12 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
[root@localhost test4]# cat log1.txt
odfdfs
[root@localhost test4]# cat log2.txt
ererwerwer
[root@localhost test4]# mv -i log1.txt log2.txt
mv:是否覆盖“log2.txt”? y
[root@localhost test4]# cat log2.txt
odfdfs
[root@localhost test4]#
实例五:将文件file1改名为file2,即使file2存在,也是直接覆盖掉。
命令:
mv
-f log3.txt log2.txt
输出:
[root@localhost test4]# ll
总计 8
-rw-r--r-- 1 root root 8 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
[root@localhost test4]# cat log2.txt
odfdfs
[root@localhost test4]# cat log3
cat: log3: 没有那个文件或目录
[root@localhost test4]# ll
总计 8
-rw-r--r-- 1 root root 8 10-28 06:15 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log3.txt
[root@localhost test4]# cat log2.txt
odfdfs
[root@localhost test4]# cat log3.txt
dfosdfsdfdss
[root@localhost test4]# mv -f log3.txt log2.txt
[root@localhost test4]# cat log2.txt
dfosdfsdfdss
[root@localhost test4]# ll
总计 4
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
[root@localhost test4]#
说明:
log3.txt的内容直接覆盖了log2.txt内容,-f
这是个危险的选项,使用的时候一定要保持头脑清晰,一般情况下最好不用加上它。
实例六:目录的移动
命令:
mv
dir1 dir2
输出:
[root@localhost test4]# ll
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
[root@localhost test4]# ll
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
[root@localhost test4]# cd ..
[root@localhost test]# ll
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 3 root root 4096 10-28 06:24 test3
drwxr-xr-x 2 root root 4096 10-28 06:48 test4
drwxr-xr-x 3 root root 4096 10-25 17:56 test5
[root@localhost test]# cd test3
[root@localhost test3]# ll
drwxr-xr-x 2 root root 4096 10-28 06:21 logs
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
[root@localhost test3]# cd ..
[root@localhost test]# mv test4 test3
[root@localhost test]# ll
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 4 root root 4096 10-28 06:54 test3
drwxr-xr-x 3 root root 4096 10-25 17:56 test5
[root@localhost test]# cd test3/
[root@localhost test3]# ll
drwxr-xr-x 2 root root 4096 10-28 06:21 logs
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
drwxr-xr-x 2 root root 4096 10-28 06:48 test4
[root@localhost test3]#
说明:
如果目录dir2不存在,将目录dir1改名为dir2;否则,将dir1移动到dir2中。
实例7:移动当前文件夹下的所有文件到上一级目录
命令:
mv
* ../
输出:
[root@localhost test4]# ll
-rw-r--r-- 1 root root 25 10-28 07:02 log1.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
[root@localhost test4]# mv * ../
[root@localhost test4]# ll
[root@localhost test4]# cd ..
[root@localhost test3]# ll
-rw-r--r-- 1 root root 25 10-28 07:02 log1.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
drwxr-xr-x 2 root root 4096 10-28 06:21 logs
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
drwxr-xr-x 2 root root 4096 10-28 07:02 test4
实例八:把当前目录的一个子目录里的文件移动到另一个子目录里
命令:
mv
test3/*.txt test5
输出:
[root@localhost test]# ll
drwxr-xr-x 6 root root 4096 10-27 01:58 scf
drwxrwxrwx 4 root root 4096 10-28 07:02 test3
drwxr-xr-x 3 root root 4096 10-25 17:56 test5
[root@localhost test]# cd test3
[root@localhost test3]# ll
-rw-r--r-- 1 root root 25 10-28 07:02 log1.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
drwxr-xr-x 2 root root 4096 10-28 06:21 logs
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
drwxr-xr-x 2 root root 4096 10-28 07:02 test4
[root@localhost test3]# cd ..
[root@localhost test]# mv test3/*.txt test5
[root@localhost test]# cd test5
[root@localhost test5]# ll
-rw-r--r-- 1 root root 25 10-28 07:02 log1.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
drwxr-xr-x 2 root root 4096 10-25 17:56 test5-1
[root@localhost test5]# cd ..
[root@localhost test]# cd test3/
[root@localhost test3]# ll
drwxr-xr-x 2 root root 4096 10-28 06:21 logs
drwxr-xr-x 2 root root 4096 10-28 07:02 test4
[root@localhost test3]#
实例九:文件被覆盖前做简单备份,前面加参数-b
命令:
mv
log1.txt -b log2.txt
输出:
[root@localhost test5]# ll
-rw-r--r-- 1 root root 25 10-28 07:02 log1.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
drwxr-xr-x 2 root root 4096 10-25 17:56 test5-1
[root@localhost test5]# mv log1.txt -b log2.txt
mv:是否覆盖“log2.txt”? Y
[root@localhost test5]# ll
-rw-r--r-- 1 root root 25 10-28 07:02 log2.txt
-rw-r--r-- 1 root root 13 10-28 06:16 log2.txt~
-rw-r--r-- 1 root root 29 10-28 06:05 test1.txt
drwxr-xr-x 2 root root 4096 10-25 17:56 test5-1
[root@localhost test5]#
说明:
-b
不接受参数,mv会去读取环境变量VERSION_CONTROL来作为备份策略。
--backup该选项指定如果目标文件存在时的动作,共有四种备份策略:
1.CONTROL=none或off
: 不备份。
2.CONTROL=numbered或t:数字编号的备份
3.CONTROL=existing或nil:如果存在以数字编号的备份,则继续编号备份m+1...n:
执行mv操作前已存在以数字编号的文件log2.txt.~1~,那么再次执行将产生log2.txt~2~,以次类推。如果之前没有以数字编号的文件,则使用下面讲到的简单备份。
4.CONTROL=simple或never:使用简单备份:在被覆盖前进行了简单备份,简单备份只能有一份,再次被覆盖时,简单备份也会被覆盖。
rm 命令
昨天学习了创建文件和目录的命令mkdir
,今天学习一下linux中删除文件和目录的命令:
rm命令。rm是常用的命令,该命令的功能为删除一个目录中的一个或多个文件或目录,它也可以将某个目录及其下的所有文件及子目录均删除。对于链接文件,只是删除了链接,原有文件均保持不变。
rm是一个危险的命令,使用的时候要特别当心,尤其对于新手,否则整个系统就会毁在这个命令(比如在/(根目录)下执行rm
* -rf)。所以,我们在执行rm之前最好先确认一下在哪个目录,到底要删除什么东西,操作时保持高度清醒的头脑。
格式:rm [选项] 文件夹或目录
功能:删除文件夹或目录
常用选项说明:
-f 强制删除文件,不出现确认提示
-r或R 按递归方式删除目录,默认只删除文件
-i
删除前进行询问
【例】:删除bashrc
[root@dsetl
tmp]# cd lp
[root@dsetl
lp]# ls
bashrc
bashrc1 bashrc2 test
[root@dsetl
lp]# rm -i bashrc
rm:
remove regular file `bashrc'? y
[root@dsetl
lp]# ls
bashrc1
bashrc2 test
【例】:删除一个不为空的目录test
[root@dsetl
lp]# mkdir -p test1/test2
[root@dsetl
lp]# ls
bashrc1
bashrc2 test test1
[root@dsetl
lp]# rmdir test1
rmdir:
failed to remove `test1': Directory not empty
[root@dsetl
lp]# rm -rf test
[root@dsetl
lp]# ls
bashrc1
bashrc2 test1
[root@dsetl
lp]#
实例六:删除以 -f 开头的文件
命令:
rm
-- -f
输出:
[root@localhost test]# touch -- -f
[root@localhost test]# ls -- -f
-f[root@localhost test]# rm -- -f
rm:是否删除 一般空文件 “-f”? y
[root@localhost test]# ls -- -f
ls: -f: 没有那个文件或目录
[root@localhost test]#
也可以使用下面的操作步骤:
[root@localhost test]# touch ./-f
[root@localhost test]# ls ./-f
./-f[root@localhost test]# rm ./-f
rm:是否删除 一般空文件 “./-f”? y
[root@localhost test]#
实例七:自定义回收站功能
命令:
myrm(){ D=/tmp/$(date +%Y%m%d%H%M%S); mkdir -p $D; mv "$@" $D && echo "moved to $D ok"; }
输出:
[root@localhost test]# myrm(){ D=/tmp/$(date +%Y%m%d%H%M%S); mkdir -p $D; mv "$@" $D && echo "moved to $D ok"; }
[root@localhost test]# alias rm='myrm'
[root@localhost test]# touch 1.log 2.log 3.log
[root@localhost test]# ll
总计 16
-rw-r--r-- 1 root root 0 10-26 15:08 1.log
-rw-r--r-- 1 root root 0 10-26 15:08 2.log
-rw-r--r-- 1 root root 0 10-26 15:08 3.log
drwxr-xr-x 7 root root 4096 10-25 18:07 scf
drwxrwxrwx 2 root root 4096 10-25 17:46 test3
drwxr-xr-x 2 root root 4096 10-25 17:56 test4
drwxr-xr-x 3 root root 4096 10-25 17:56 test5
[root@localhost test]# rm [123].log
moved to /tmp/20121026150901 ok
[root@localhost test]# ll
总计 16drwxr-xr-x 7 root root 4096 10-25 18:07 scf
drwxrwxrwx 2 root root 4096 10-25 17:46 test3
drwxr-xr-x 2 root root 4096 10-25 17:56 test4
drwxr-xr-x 3 root root 4096 10-25 17:56 test5
[root@localhost test]# ls /tmp/20121026150901/
1.log 2.log 3.log
[root@localhost test]#
说明:
上面的操作过程模拟了回收站的效果,即删除文件的时候只是把文件放到一个临时目录中,这样在需要的时候还可以恢复过来。
diff
命
令是
linux上非常重要的工具,用于比较文件的内容,特别是比较两个版本不同的文件以找到改动的地方。diff在命令行中打印每一个行的改动。最新版
本的diff还支持二进制文件。diff程序的输出被称为补丁
(patch),因为Linux系统中还有一个patch程序,可以根据diff的输出将
a.c的文件内容更新为b.c。diff是svn、cvs、git等版本控制工具不可或缺的一部分。
1.命令格式:
diff[参数][文件1或目录1][文件2或目录2]
2.命令功能:
diff
命令能比较单个文件或者目录内容。如果指定比较的是文件,则只有当输入为文本文件时才有效。以逐行的方式,比较文本文件的异同处。如果指定比较的是目录的
的时候,diff
命令会比较两个目录下名字相同的文本文件。列出不同的二进制文件、公共子目录和只在一个目录出现的文件。
3.命令参数:
-
指定要显示多少行的文本。此参数必须与-c或-u参数一并使用。
-a或--text
diff预设只会逐行比较文本文件。
-b或--ignore-space-change
不检查空格字符的不同。
-B或--ignore-blank-lines
不检查空白行。
-c
显示全部内文,并标出不同之处。
-C或--context
与执行"-c-"指令相同。
-d或--minimal
使用不同的演算法,以较小的单位来做比较。
-D或ifdef
此参数的输出格式可用于前置处理器巨集。
-e或--ed
此参数的输出格式可用于ed的script文件。
-f或-forward-ed
输出的格式类似ed的script文件,但按照原来文件的顺序来显示不同处。
-H或--speed-large-files
比较大文件时,可加快速度。
-l或--ignore-matching-lines
若两个文件在某几行有所不同,而这几行同时都包含了选项中指定的字符或字符串,则不显示这两个文件的差异。
-i或--ignore-case
不检查大小写的不同。
-l或--paginate
将结果交由pr程序来分页。
-n或--rcs
将比较结果以RCS的格式来显示。
-N或--new-file
在比较目录时,若文件A仅出现在某个目录中,预设会显示:Only
in目录:文件A若使用-N参数,则diff会将文件A与一个空白的文件比较。
-p
若比较的文件为C语言的程序码文件时,显示差异所在的函数名称。
-P或--unidirectional-new-file
与-N类似,但只有当第二个目录包含了一个第一个目录所没有的文件时,才会将这个文件与空白的文件做比较。
-q或--brief
仅显示有无差异,不显示详细的信息。
-r或--recursive
比较子目录中的文件。
-s或--report-identical-files
若没有发现任何差异,仍然显示信息。
-S或--starting-file
在比较目录时,从指定的文件开始比较。
-t或--expand-tabs
在输出时,将tab字符展开。
-T或--initial-tab
在每行前面加上tab字符以便对齐。
-u,-U或--unified=
以合并的方式来显示文件内容的不同。
-v或--version
显示版本信息。
-w或--ignore-all-space
忽略全部的空格字符。
-W或--width
在使用-y参数时,指定栏宽。
-x或--exclude
不比较选项中所指定的文件或目录。
-X或--exclude-from
您可以将文件或目录类型存成文本文件,然后在=中指定此文本文件。
-y或--side-by-side
以并列的方式显示文件的异同之处。
--help
显示帮助。
--left-column
在使用-y参数时,若两个文件某一行内容相同,则仅在左侧的栏位显示该行内容。
--suppress-common-lines
在使用-y参数时,仅显示不同之处。
4.使用实例:
实例1:比较两个文件
命令:
输出:
[root@localhost test3]# diff log2014.log log2013.log
3c3
< 2014-03
---
> 2013-03
8c8
< 2013-07
---
> 2013-08
11,12d10
< 2013-11
< 2013-12
说明:
上面的“3c3”和“8c8”表示log2014.log和log20143log文件在3行和第8行内容有所不同;"11,12d10"表示第一个文件比第二个文件多了第11和12行。
diff
的normal
显示格式有三种提示:
a
- add
c
- change
d
- delete
实例2:并排格式输出
命令:
diff
log2013.log log2014.log -y -W 50
输出:
[root@localhost test3]# diff log2014.log log2013.log -y -W 50
2013-01 2013-01
2013-02 2013-02
2014-03 | 2013-03
2013-04 2013-04
2013-05 2013-05
2013-06 2013-06
2013-07 2013-07
2013-07 | 2013-08
2013-09 2013-09
2013-10 2013-10
2013-11 <
2013-12 <
[root@localhost test3]# diff log2013.log log2014.log -y -W 50
2013-01 2013-01
2013-02 2013-02
2013-03 | 2014-03
2013-04 2013-04
2013-05 2013-05
2013-06 2013-06
2013-07 2013-07
2013-08 | 2013-07
2013-09 2013-09
2013-10 2013-10
> 2013-11
> 2013-12
说明:
“|”表示前后2个文件内容有不同
“<”表示后面文件比前面文件少了1行内容
“>”表示后面文件比前面文件多了1行内容
实例3:上下文输出格式
命令:
diff
log2013.log log2014.log -c
输出:
[root@localhost test3]# diff log2013.log log2014.log -c
*** log2013.log 2012-12-07 16:36:26.000000000 +0800
--- log2014.log 2012-12-07 18:01:54.000000000 +0800
***************
*** 1,10 ****
2013-01
2013-02
! 2013-03
2013-04
2013-05
2013-06
2013-07
! 2013-08
2013-09
2013-10
--- 1,12 ----
2013-01
2013-02
! 2014-03
2013-04
2013-05
2013-06
2013-07
! 2013-07
2013-09
2013-10
+ 2013-11
+ 2013-12[root@localhost test3]# diff log2014.log log2013.log -c
*** log2014.log 2012-12-07 18:01:54.000000000 +0800
--- log2013.log 2012-12-07 16:36:26.000000000 +0800
***************
*** 1,12 ****
2013-01
2013-02
! 2014-03
2013-04
2013-05
2013-06
2013-07
! 2013-07
2013-09
2013-10
- 2013-11
- 2013-12
--- 1,10 ----
2013-01
2013-02
! 2013-03
2013-04
2013-05
2013-06
2013-07
! 2013-08
2013-09
2013-10[root@localhost test3]#
说明:
这种方式在开头两行作了比较文件的说明,这里有三中特殊字符:
“+”
比较的文件的后者比前着多一行
“
” 比较的文件的后者比前着少一行
“!”
比较的文件两者有差别的行
实例4:统一格式输出
命令:
diff
log2014.log log2013.log -u
输出:
[root@localhost test3]# diff log2014.log log2013.log -u
--- log2014.log 2012-12-07 18:01:54.000000000 +0800
+++ log2013.log 2012-12-07 16:36:26.000000000 +0800
@@ -1,12 +1,10 @@
2013-01
2013-02
-2014-03
+2013-03
2013-04
2013-05
2013-06
2013-07
-2013-07
+2013-08
2013-09
2013-10
-2013-11
-2013-12
说明:
它的第一部分,也是文件的基本信息:
---
log2014.log 2012-12-07 18:01:54.000000000 +0800
+++
log2013.log 2012-12-07 16:36:26.000000000 +0800
"---"表示变动前的文件,"+++"表示变动后的文件。
第二部分,变动的位置用两个@作为起首和结束。
@@
-1,12 +1,10 @@
前面的"-1,12"分成三个部分:减号表示第一个文件(即log2014.log),"1"表示第1行,"12"表示连续12行。合在一起,就表示下面是第一个文件从第1行开始的连续12行。同样的,"+1,10"表示变动后,成为第二个文件从第1行开始的连续10行。
实例5:比较文件夹不同
命令:
diff
test3
test6
输出:
[root@localhost
test]# diff test3 test6
Only
in test6: linklog.log
Only
in test6: log2012.log
diff
test3/log2013.log test6/log2013.log
1,10c1,3
<
2013-01
<
2013-02
<
2013-03
<
2013-04
<
2013-05
<
2013-06
<
2013-07
<
2013-08
<
2013-09
<
2013-10
---
>
hostnamebaidu=baidu.com
>
hostnamesina=sina.com
>
hostnames=true
diff
test3/log2014.log test6/log2014.log
1,12d0
<
2013-01
<
2013-02
<
2014-03
<
2013-04
<
2013-05
<
2013-06
<
2013-07
<
2013-07
<
2013-09
<
2013-10
<
2013-11
<
2013-12
Only
in test6: log2015.log
Only
in test6: log2016.log
Only
in test6: log2017.log
[root@localhost
test]#
说明:
实例6:比较两个文件不同,并生产补丁
命令:
diff
-ruN log2013.log log2014.log >patch.log
输出:
[root@localhost test3]# diff -ruN log2013.log log2014.log >patch.log
[root@localhost test3]# ll
总计 12
-rw-r--r-- 2 root root 80 12-07 16:36 log2013.log
-rw-r--r-- 1 root root 96 12-07 18:01 log2014.log
-rw-r--r-- 1 root root 248 12-07 21:33 patch.log
[root@localhost test3]# cat patc.log
cat: patc.log: 没有那个文件或目录
[root@localhost test3]# cat patch.log
--- log2013.log 2012-12-07 16:36:26.000000000 +0800
+++ log2014.log 2012-12-07 18:01:54.000000000 +0800
@@ -1,10 +1,12 @@
2013-01
2013-02
-2013-03
+2014-03
2013-04
2013-05
2013-06
2013-07
-2013-08
+2013-07
2013-09
2013-10
+2013-11
+2013-12[root@localhost test3]#
说明:
实例7:打补丁
命令:
输出:
[root@localhost test3]# cat log2013.log
2013-01
2013-02
2013-03
2013-04
2013-05
2013-06
2013-07
2013-08
2013-09
2013-10[root@localhost test3]# patch log2013.log patch.log
patching file log2013.log
[root@localhost test3]#
[root@localhost test3]# cat log2013.log
2013-01
2013-02
2014-03
2013-04
2013-05
2013-06
2013-07
2013-07
2013-09
2013-10
2013-11
2013-12[root@localhost test3]#
说明:
时间命令:
在linux环境中,不管是编程还是其他维护,时间是必不可少的,也经常会用到时间的运算,熟练运用date命令来表示自己想要表示的时间,肯定可以给自己的工作带来诸多方便。
1.命令格式:
date
[参数]...
[+格式]
2.命令功能:
date
可以用来显示或设定系统的日期与时间。
3.命令参数:
必要参数:
%H 小时(以00-23来表示)。
%I 小时(以01-12来表示)。
%K 小时(以0-23来表示)。
%l 小时(以0-12来表示)。
%M 分钟(以00-59来表示)。
%P AM或PM。
%r 时间(含时分秒,小时以12小时AM/PM来表示)。
%s 总秒数。起算时间为1970-01-01 00:00:00 UTC。
%S 秒(以本地的惯用法来表示)。
%T 时间(含时分秒,小时以24小时制来表示)。
%X 时间(以本地的惯用法来表示)。
%Z 市区。
%a 星期的缩写。
%A 星期的完整名称。
%b 月份英文名的缩写。
%B 月份的完整英文名称。
%c 日期与时间。只输入date指令也会显示同样的结果。
%d 日期(以01-31来表示)。
%D 日期(含年月日)。
%j 该年中的第几天。
%m 月份(以01-12来表示)。
%U 该年中的周数。
%w 该周的天数,0代表周日,1代表周一,异词类推。
%x 日期(以本地的惯用法来表示)。
%y 年份(以00-99来表示)。
%Y 年份(以四位数来表示)。
%n 在显示时,插入新的一行。
%t 在显示时,插入tab。
MM 月份(必要)
DD 日期(必要)
hh 小时(必要)
mm 分钟(必要)
ss 秒(选择性)
选择参数:
-d<字符串> 显示字符串所指的日期与时间。字符串前后必须加上双引号。
-s<字符串> 根据字符串来设置日期与时间。字符串前后必须加上双引号。
-u 显示GMT。
--help 在线帮助。
--version 显示版本信息
4.使用说明:
1.在显示方面,使用者可以设定欲显示的格式,格式设定为一个加号后接数个标记,其中可用的标记列表如下:
% : 打印出
%:
%n
: 下一行
%t
: 跳格
%H
: 小时(00..23)
%I
: 小时(01..12)
%k
: 小时(0..23)
%l
: 小时(1..12)
%M
: 分钟(00..59)
%p
: 显示本地
AM
或
PM
%r
: 直接显示时间
(12
小时制,格式为
hh:mm:ss
[AP]M)
%s
: 从
1970
年
1
月
1
日
00:00:00
UTC 到目前为止的秒数
%S
: 秒(00..61)
%T
: 直接显示时间
(24
小时制)
%X
: 相当于
%H:%M:%S
%Z
: 显示时区
%a
: 星期几
(Sun..Sat)
%A
: 星期几
(Sunday..Saturday)
%b
: 月份
(Jan..Dec)
%B
: 月份
(January..December)
%c
: 直接显示日期与时间
%d
: 日
(01..31)
%D
: 直接显示日期
(mm/dd/yy)
%h
: 同
%b
%j
: 一年中的第几天
(001..366)
%m
: 月份
(01..12)
%U
: 一年中的第几周
(00..53)
(以
Sunday
为一周的第一天的情形)
%w
: 一周中的第几天
(0..6)
%W
: 一年中的第几周
(00..53)
(以
Monday
为一周的第一天的情形)
%x
: 直接显示日期
(mm/dd/yy)
%y
: 年份的最后两位数字
(00.99)
%Y
: 完整年份
(0000..9999)
2.在设定时间方面:
date
-s //设置当前时间,只有root权限才能设置,其他只能查看。
date
-s 20080523 //设置成20080523,这样会把具体时间设置成空00:00:00
date
-s 01:01:01 //设置具体时间,不会对日期做更改
date
-s “01:01:01 2008-05-23″ //这样可以设置全部时间
date
-s “01:01:01 20080523″ //这样可以设置全部时间
date
-s “2008-05-23 01:01:01″ //这样可以设置全部时间
date
-s “20080523 01:01:01″ //这样可以设置全部时间
3.加减:
date
+%Y%m%d //显示前天年月日
date
+%Y%m%d --date="+1 day" //显示前一天的日期
date
+%Y%m%d --date="-1 day" //显示后一天的日期
date
+%Y%m%d --date="-1 month" //显示上一月的日期
date
+%Y%m%d --date="+1 month" //显示下一月的日期
date
+%Y%m%d --date="-1 year" //显示前一年的日期
date
+%Y%m%d --date="+1 year" //显示下一年的日期
5.使用实例:
实例1:显示当前时间
命令:
date
date
'+%c'
date
'+%D'
date
'+%x'
date
'+%T'
date
'+%X'
输出:
[root@localhost ~]# date
2012年 12月 08日 星期六 08:31:35 CST
[root@localhost ~]# date '+%c'
2012年12月08日 星期六 08时34分44秒
[root@localhost ~]# date '+%D'
12/08/12
[root@localhost ~]# date '+%x'
2012年12月08日
[root@localhost ~]# date '+%T'
08:35:36
[root@localhost ~]# date '+%X'
08时35分54秒
[root@localhost ~]#
说明:
实例2:显示日期和设定时间
命令:
date
--date 08:42:00
输出:
[root@localhost ~]# date '+%c'
2012年12月08日 星期六 08时41分37秒
[root@localhost ~]# date --date 08:42:00
2012年 12月 08日 星期六 08:42:00 CST
[root@localhost ~]# date '+%c' --date 08:45:00
2012年12月08日 星期六 08时45分00秒
[root@localhost ~]#
说明:
实例3:date
-d参数使用
命令:
输出:
[root@localhost ~]# date -d "nov 22"
2012年 11月 22日 星期四 00:00:00 CST
[root@localhost ~]# date -d '2 weeks'
2012年 12月 22日 星期六 08:50:21 CST
[root@localhost ~]# date -d 'next monday'
2012年 12月 10日 星期一 00:00:00 CST
[root@localhost ~]# date -d next-day +%Y%m%d
20121209[root@localhost ~]# date -d tomorrow +%Y%m%d
20121209[root@localhost ~]# date -d last-day +%Y%m%d
20121207[root@localhost ~]# date -d yesterday +%Y%m%d
20121207[root@localhost ~]# date -d last-month +%Y%m
201211[root@localhost ~]# date -d next-month +%Y%m
201301[root@localhost ~]# date -d '30 days ago'
2012年 11月 08日 星期四 08:51:37 CST
[root@localhost ~]# date -d '-100 days'
2012年 08月 30日 星期四 08:52:03 CST
[root@localhost ~]# date -d 'dec 14 -2 weeks'
2012年 11月 30日 星期五 00:00:00 CST
[root@localhost ~]# date -d '50 days'
2013年 01月 27日 星期日 08:52:27 CST
说明:
date
命
令的另一个扩展是 -d
选项,该选项非常有用。使用这个功能强大的选项,通过将日期作为引号括起来的参数提供,您可以快速地查明一个特定的日期。
-d
选项还可以告诉您,相对于当前日期若干天的究竟是哪一天,从现在开始的若干天或若干星期以后,或者以前(过去)。通过将这个相对偏移使用引号括起
来,作为 -d
选项的参数,就可以完成这项任务。
具体说明如下:
date
-d "nov 22" 今年的
11
月
22
日是星期三
date
-d '2 weeks' 2周后的日期
date
-d 'next monday' (下周一的日期)
date
-d next-day +%Y%m%d(明天的日期)或者:date
-d tomorrow +%Y%m%d
date
-d last-day +%Y%m%d(昨天的日期)
或者:date
-d yesterday +%Y%m%d
date
-d last-month +%Y%m(上个月是几月)
date
-d next-month +%Y%m(下个月是几月)
使用
ago
指令,您可以得到过去的日期:
date
-d '30 days ago' (30天前的日期)
使用负数以得到相反的日期:
date
-d 'dec 14 -2 weeks' (相对:dec
14这个日期的两周前的日期)
date
-d '-100 days' (100天以前的日期)
date
-d '50 days'(50天后的日期)
实例4:显示月份和日数
命令:
date
'+%B %d'
输出:
[root@localhost ~]# date '+%B %d'
十二月 08[root@localhost ~]#
说明:
实例5:显示时间后跳行,再显示目前日期
命令:
date
'+%T%n%D'
输出:
[root@localhost ~]# date '+%T%n%D'
09:00:30
12/08/12[root@localhost ~]#
说明:
cal命令可以用来显示公历(阳历)日历。公历是现在国际通用的历法,又称格列历,通称阳历。“阳历”又名“太阳历”,系以地球绕行太阳一周为一年,为西方各国所通用,故又名“西历”。
1.命令格式:
cal [参数][月份][年份]
2.命令功能:
用于查看日历等时间信息,如只有一个参数,则表示年份(1-9999),如有两个参数,则表示月份和年份
3.命令参数:
-1
显示一个月的月历
-3
显示系统前一个月,当前月,下一个月的月历
-s
显示星期天为一个星期的第一天,默认的格式
-m
显示星期一为一个星期的第一天
-j
显示在当年中的第几天(一年日期按天算,从1月1号算起,默认显示当前月在一年中的天数)
-y
显示当前年份的日历
4.使用实例:
实例1:显示当前月份日历
命令:
cal
输出:
[root@localhost ~]# cal
十二月 2012
日 一 二 三 四 五 六
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31[root@localhost ~]#
实例2:显示指定月份的日历
命令:
cal
9 2012
输出:
[root@localhost ~]# cal 9 2012
九月 2012
日 一 二 三 四 五 六
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30
实例3:显示2013年日历
命令:
cal
-y 2013
cal
2013
输出:
实例4:显示自1月1日的天数
命令:
cal -j
输出:
[root@localhost ~]# cal -j
十二月 2012
日 一 二 三 四 五 六
336
337 338 339 340 341 342 343
344 345 346 347 348 349 350
351 352 353 354 355 356 357
358 359 360 361 362 363 364
365 366[root@localhost ~]#
实例5:星期一显示在第一列
命令:
cal
-m
输出:
[root@localhost ~]# cal -m
十二月 2012
一 二 三 四 五 六 日
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31[root@localhost ~]#
文件属性:
-rwx
-r- -r-- 1 bin root 4096 Feb 12 09:20
lp.txt
属性 连接 拥有者
用户组 文件大小 修改日期 文件
第一组:-rwx拥有者的属性
第二组:-r-所属用户组的属性
第三组: -r-其他用户组
Chgrp 命令:(change
group)
功能:改变文件所属用户组
格式
chgrp
[-R] 文件或者目录(dirname/filename)
常用选项说明:[-R]:递归持续更改,即连同子目录下面的所有文件、目录都更新成这个用户组
3.命令参数:
必要参数:
-c
当发生改变时输出调试信息
-f
不显示错误信息
-R
处理指定目录以及其子目录下的所有文件
-v
运行时显示详细的处理信息
--dereference
作用于符号链接的指向,而不是符号链接本身
--no-dereference
作用于符号链接本身
选择参数:
--reference=<文件或者目录>
--help
显示帮助信息
--version
显示版本信息
【例】Sudo
chgrp root install.log --文件改为root所有
ls
–l
4.使用实例:
实例1:改变文件的群组属性
命令:l
chgrp
-v bin log2012.log
输出:
[root@localhost test]# ll
---xrw-r-- 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]# chgrp -v bin log2012.log
“log2012.log” 的所属组已更改为 bin
[root@localhost test]# ll
---xrw-r-- 1 root bin 302108 11-13 06:03 log2012.log
说明:
将log2012.log文件由root群组改为bin群组
实例2:根据指定文件改变文件的群组属性
命令:
chgrp
--reference=log2012.log log2013.log
输出:
[root@localhost test]# ll
---xrw-r-- 1 root bin 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
[root@localhost test]# chgrp --reference=log2012.log log2013.log
[root@localhost test]# ll
---xrw-r-- 1 root bin 302108 11-13 06:03 log2012.log
-rw-r--r-- 1 root bin 61 11-13 06:03 log2013.log
说明:
改变文件log2013.log
的群组属性,使得文件log2013.log的群组属性和参考文件log2012.log的群组属性相同
实例3:改变指定目录以及其子目录下的所有文件的群组属性
命令:
输出:
[root@localhost test]# ll
drwxr-xr-x 2 root root 4096 11-30 08:39 test6
[root@localhost test]# cd test6
[root@localhost test6]# ll
---xr--r-- 1 root root 302108 11-30 08:39 linklog.log
---xr--r-- 1 root root 302108 11-30 08:39 log2012.log
-rw-r--r-- 1 root root 61 11-30 08:39 log2013.log
-rw-r--r-- 1 root root 0 11-30 08:39 log2014.log
-rw-r--r-- 1 root root 0 11-30 08:39 log2015.log
-rw-r--r-- 1 root root 0 11-30 08:39 log2016.log
-rw-r--r-- 1 root root 0 11-30 08:39 log2017.log
[root@localhost test6]# cd ..
[root@localhost test]# chgrp -R bin test6
[root@localhost test]# cd test6
[root@localhost test6]# ll
---xr--r-- 1 root bin 302108 11-30 08:39 linklog.log
---xr--r-- 1 root bin 302108 11-30 08:39 log2012.log
-rw-r--r-- 1 root bin 61 11-30 08:39 log2013.log
-rw-r--r-- 1 root bin 0 11-30 08:39 log2014.log
-rw-r--r-- 1 root bin 0 11-30 08:39 log2015.log
-rw-r--r-- 1 root bin 0 11-30 08:39 log2016.log
-rw-r--r-- 1 root bin 0 11-30 08:39 log2017.log
[root@localhost test6]# cd ..
[root@localhost test]# ll
drwxr-xr-x 2 root bin 4096 11-30 08:39 test6
[root@localhost test]#
说明:
改变指定目录以及其子目录下的所有文件的群组属性
实例4:通过群组识别码改变文件群组属性
命令:
chgrp
-R 100 test6
输出:
[root@localhost test]# chgrp -R 100 test6
[root@localhost test]# ll
drwxr-xr-x 2 root users 4096 11-30 08:39 test6
[root@localhost test]# cd test6
[root@localhost test6]# ll
---xr--r-- 1 root users 302108 11-30 08:39 linklog.log
---xr--r-- 1 root users 302108 11-30 08:39 log2012.log
-rw-r--r-- 1 root users 61 11-30 08:39 log2013.log
-rw-r--r-- 1 root users 0 11-30 08:39 log2014.log
-rw-r--r-- 1 root users 0 11-30 08:39 log2015.log
-rw-r--r-- 1 root users 0 11-30 08:39 log2016.log
-rw-r--r-- 1 root users 0 11-30 08:39 log2017.log
[root@localhost test6]#
说明:
通过群组识别码改变文件群组属性,100为users群组的识别码,具体群组和群组识别码可以去/etc/group文件中查看
Chown命令:(change
own)
功能:改变文件目录拥有者
常用选项说明:改变9个属性
格式 chown
[-R] 账号名称:文件或者目录(dirname/filename)
chown
[-R] 账号名称:用户组名称:文件或者目录(dirname/filename)
【例】-rw-r--r--
1 root
root
0 Feb 12 09:20 lp.txt --拥有者为root
[root@dsetl
test1]# chown bin lp.txt
[root@dsetl
test1]# ll
-rw-r--r--
1 bin
root 0 Feb 12 09:20 lp.txt –拥有者为bin
用途:当使用cp时,把/etc/ssh目录下面的moduli文件复制到/lp目录下的时候,复制给users这个用户。之前moduli这个文件为root所拥有,现在要改为users所拥有。
Cd
/etc/ssh
Ls
-al
Sudo
cp moduli /lp
Sudo
chown users moduli --把moduli文件改为users所拥有
Chmod命令:(change
own)
功能:改变文件的属性
常用选项说明:改变9个属性
格式
chmod
[-R] xyz 文件或者目录(dirname/filename)
权限范围:
u
:目录或者文件的当前的用户
g
:目录或者文件的当前的群组
o
:除了目录或者文件的当前用户或群组之外的用户或者群组
a
:所有的用户及群组
权限代号:
r
:读权限,用数字4表示
w
:写权限,用数字2表示
x
:执行权限,用数字1表示
-
:删除权限,用数字0表示
s
:特殊权限
该命令有两种用法。一种是包含字母和操作符表达式的文字设定法;另一种是包含数字的数字设定法。
1).
文字设定法:
chmod [who]
[+
| - | =] [mode]
文件名
2).
数字设定法
我们必须首先了解用数字表示的属性的含义:0表示没有权限,1表示可执行权限,2表示可写权限,4表示可读权限,然后将其相加。所以数字属性的格式应为3个从0到7的八进制数,其顺序是(u)(g)(o)。
例如,如果想让某个文件的属主有“读/写”二种权限,需要把4(可读)+2(可写)=6(读/写)
3个为一组,user/group/
Others,3个属性(r/w/x)累加例如当属性【-rwxrwx---】则是:
Owner
= rwx = 4 + 2+1=7
Group=
rwx = 4 + 2+1=7
Others
= --- 0+0+0=0
【例】
[root@dsetl
tmp]# mkdir lp
[root@dsetl
tmp]# cd lp
[root@dsetl
lp]# touch lp.txt
[root@dsetl
test1]# chown bin lp.txt
[root@dsetl
lp]# ll
total
0
-rw-r--r--
1 root root 0 Feb 12 09:20 lp.txt
[root@dsetl
lp]# mkdir test1
[root@dsetl
lp]# ls
lp.txt
test1
[root@dsetl
lp]# mv lp.txt test1
[root@dsetl
lp]# ls
test1
[root@dsetl
lp]# cd test1
[root@dsetl
test1]# ls
lp.txt
[root@dsetl
test1]# ll
-rw-r--r--
1 bin
root 0 Feb 12 09:20 lp.txt
chmod
770 lp.txt –-改变文件的属性为
-rwxrwx---
-rwxrwx---
1 bin root 0 Feb 12 09:20 lp.txt
4.
使用实例:
实例1:增加文件所有用户组可执行权限
命令:
chmod
a+x log2012.log相当于
[root@dsetl
~]# chmod
ugo+x lp
输出:
[root@localhost test]# ls -al log2012.log
-rw-r--r-- 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]# chmod a+x log2012.log
[root@localhost test]# ls -al log2012.log
-rwxr-xr-x 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]#
说明:
即设定文件log2012.log的属性为:文件属主(u)
增加执行权限;与文件属主同组用户(g)
增加执行权限;其他用户(o)
增加执行权限。
实例2:同时修改不同用户权限
命令:
chmod
ug+w,o-x log2012.log
输出:
[root@localhost test]# ls -al log2012.log
-rwxr-xr-x 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]# chmod ug+w,o-x log2012.log
[root@localhost test]# ls -al log2012.log
-rwxrwxr-- 1 root root 302108 11-13 06:03 log2012.log
说明:
即设定文件text的属性为:文件属主(u)
增加写权限;与文件属主同组用户(g)
增加写权限;其他用户(o)
删除执行权限
实例3:删除文件权限
命令:
chmod
a-x log2012.log
输出:
[root@localhost test]# ls -al log2012.log
-rwxrwxr-- 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]# chmod a-x log2012.log
[root@localhost test]# ls -al log2012.log
-rw-rw-r-- 1 root root 302108 11-13 06:03 log2012.log
说明:
删除所有用户的可执行权限
实例4:使用“=”设置权限
命令:
chmod
u=x log2012.log
输出:
[root@localhost test]# ls -al log2012.log
-rw-rw-r-- 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]# chmod u=x log2012.log
[root@localhost test]# ls -al log2012.log
---xrw-r-- 1 root root 302108 11-13 06:03 log2012.log
说明:
撤销原来所有的权限,然后使拥有者具有可读权限
实例5:对一个目录及其子目录所有文件添加权限
命令:
chmod
-R u+x test4
输出:
[root@localhost test]# cd test4
[root@localhost test4]# ls -al
总计 312drwxrwxr-x 2 root root 4096 11-13 05:50 .
drwxr-xr-x 5 root root 4096 11-22 06:58 ..
-rw-r--r-- 1 root root 302108 11-12 22:54 log2012.log
-rw-r--r-- 1 root root 61 11-12 22:54 log2013.log
-rw-r--r-- 1 root root 0 11-12 22:54 log2014.log
[root@localhost test4]# cd ..
[root@localhost test]# chmod -R u+x test4
[root@localhost test]# cd test4
[root@localhost test4]# ls -al
总计 312drwxrwxr-x 2 root root 4096 11-13 05:50 .
drwxr-xr-x 5 root root 4096 11-22 06:58 ..
-rwxr--r-- 1 root root 302108 11-12 22:54 log2012.log
-rwxr--r-- 1 root root 61 11-12 22:54 log2013.log
-rwxr--r-- 1 root root 0 11-12 22:54 log2014.log
说明:
递归地给test4目录下所有文件和子目录的属主分配权限
其他一些实例:
1).
命令:
chmod
751 file
说明:
给file的属主分配读、写、执行(7)的权限,给file的所在组分配读、执行(5)的权限,给其他用户分配执行(1)的权限
2).
命令:
chmod
u=rwx,g=rx,o=x file
说明:
上例的另一种形式
3).
命令
chmod
=r file
说明:
为所有用户分配读权限
3).
命令:
chmod
444 file
说明:
同上例
4).
命令:
chmod
a-wx,a+r file
说明:
同上例
1.4.4
chmod命令的其他例子以下是一些c
h m o d命令绝对模式的例子:命
令 结 果 含义chmod
666 rw- rw- rw- 赋予所有用户读和写的权限chmod
644 rw- r-- r- - 赋予所有文件属主读和写的权限,所有其他用户读权限chmod
744 rwx r-- r- - 赋予文件属主读、写和执行的权限,所有其他用户读的权限chmod
664 rw- rw- r- - 赋予文件属主和同组用户读和写的权限,其他用户读权限chmod
700 rwx --- --- 赋予文件属主读、写和执行的权限chmod
444 r-- r-- r- - 赋予所有用户读权限性能分析命令:
Linux
中的kill命令用来终止指定的进程(terminate
a process)的运行,是Linux下进程管理的常用命令。通常,终止一个前台进程可以
使用Ctrl+C键,但是,对于一个后台进程就须用kill命令来终止,我们就需要先使用ps/pidof/pstree/top等工具获取进程PID,
然后使用kill命令来杀掉该进程。kill命令是通过向进程发送指定的信号来结束相应进程的。在默认情况下,采用编号为15的TERM信号。TERM信
号将终止所有不能捕获该信号的进程。对于那些可以捕获该信号的进程就要用编号为9的kill信号,强行“杀掉”该进程。
1.命令格式:
kill[参数][进程号]
2.命令功能:
发
送指定的信号到相应进程。不指定型号将发送SIGTERM(15)终止指定进程。如果任无法终止该程序可用“-KILL”
参数,其发送的信号为
SIGKILL(9)
,将强制结束进程,使用ps命令或者jobs
命令可以查看进程号。root用户将影响用户的进程,非root用户只能影响自己的
进程。
3.命令参数:
-l
信号,若果不加信号的编号参数,则使用“-l”参数会列出全部的信号名称
-a
当处理当前进程时,不限制命令名和进程号的对应关系
-p
指定kill
命令只打印相关进程的进程号,而不发送任何信号
-s
指定发送信号
-u
指定用户
注意:
1、kill命令可以带信号号码选项,也可以不带。如果没有信号号码,kill命令就会发出终止信号(15),这个信号可以被进程捕获,使得进程在退出之前可以清理并释放资源。也可以用kill向进程发送特定的信号。例如:
kill
-2 123
它的效果等同于在前台运行PID为123的进程时按下Ctrl+C键。但是,普通用户只能使用不带signal参数的kill命令或最多使用-9信号。
2、kill可以带有进程ID号作为参数。当用kill向这些进程发送信号时,必须是这些进程的主人。如果试图撤销一个没有权限撤销的进程或撤销一个不存在的进程,就会得到一个错误信息。
3、可以向多个进程发信号或终止它们。
4、当kill成功地发送了信号后,shell会在屏幕上显示出进程的终止信息。有时这个信息不会马上显示,只有当按下Enter键使shell的命令提示符再次出现时,才会显示出来。
5、
应注意,信号使进程强行终止,这常会带来一些副作用,如数据丢失或者终端无法恢复到正常状态。发送信号时必须小心,只有在万不得已时,才用kill信号
(9),因为进程不能首先捕获它。要撤销所有的后台作业,可以输入kill
0。因为有些在后台运行的命令会启动多个进程,跟踪并找到所有要杀掉的进程的
PID是件很麻烦的事。这时,使用kill
0来终止所有由当前shell启动的进程,是个有效的方法。
4.使用实例:
实例1:列出所有信号名称
命令:
kill
-l
输出:
[root@localhost test6]# kill -l
1) SIGHUP 2) SIGINT 3) SIGQUIT 4) SIGILL
5) SIGTRAP 6) SIGABRT 7) SIGBUS 8) SIGFPE
9) SIGKILL 10) SIGUSR1 11) SIGSEGV 12) SIGUSR2
13) SIGPIPE 14) SIGALRM 15) SIGTERM 16) SIGSTKFLT
17) SIGCHLD 18) SIGCONT 19) SIGSTOP 20) SIGTSTP
21) SIGTTIN 22) SIGTTOU 23) SIGURG 24) SIGXCPU
25) SIGXFSZ 26) SIGVTALRM 27) SIGPROF 28) SIGWINCH
29) SIGIO 30) SIGPWR 31) SIGSYS 34) SIGRTMIN
35) SIGRTMIN+1 36) SIGRTMIN+2 37) SIGRTMIN+3 38) SIGRTMIN+4
39) SIGRTMIN+5 40) SIGRTMIN+6 41) SIGRTMIN+7 42) SIGRTMIN+8
43) SIGRTMIN+9 44) SIGRTMIN+10 45) SIGRTMIN+11 46) SIGRTMIN+12
47) SIGRTMIN+13 48) SIGRTMIN+14 49) SIGRTMIN+15 50) SIGRTMAX-14
51) SIGRTMAX-13 52) SIGRTMAX-12 53) SIGRTMAX-11 54) SIGRTMAX-10
55) SIGRTMAX-9 56) SIGRTMAX-8 57) SIGRTMAX-7 58) SIGRTMAX-6
59) SIGRTMAX-5 60) SIGRTMAX-4 61) SIGRTMAX-3 62) SIGRTMAX-2
63) SIGRTMAX-1 64) SIGRTMAX
说明:
只有第9种信号(SIGKILL)才可以无条件终止进程,其他信号进程都有权利忽略。
下面是常用的信号:
HUP
1 终端断线
INT
2 中断(同
Ctrl
+ C)
QUIT
3 退出(同
Ctrl
+ \)
TERM
15 终止
KILL
9 强制终止
CONT
18 继续(与STOP相反,
fg/bg命令)
STOP
19 暂停(同
Ctrl
+ Z)
实例2:得到指定信号的数值
命令:
输出:
[root@localhost test6]# kill -l KILL
9[root@localhost test6]# kill -l SIGKILL
9[root@localhost test6]# kill -l TERM
15[root@localhost test6]# kill -l SIGTERM
15[root@localhost test6]#
说明:
实例3:先用ps查找进程,然后用kill杀掉
命令:
kill
3268
输出:
[root@localhost test6]# ps -ef|grep vim
root 3268 2884 0 16:21 pts/1 00:00:00 vim install.log
root 3370 2822 0 16:21 pts/0 00:00:00 grep vim
[root@localhost test6]# kill 3268
[root@localhost test6]# kill 3268
-bash: kill: (3268) - 没有那个进程
[root@localhost test6]#
说明:
实例4:彻底杀死进程
命令:
kill
–9 3268
输出:
[root@localhost test6]# ps -ef|grep vim
root 3268 2884 0 16:21 pts/1 00:00:00 vim install.log
root 3370 2822 0 16:21 pts/0 00:00:00 grep vim
[root@localhost test6]# kill –9 3268
[root@localhost test6]# kill 3268
-bash: kill: (3268) - 没有那个进程
[root@localhost test6]#
说明:
实例5:杀死指定用户所有进程
命令:
kill
-9 $(ps -ef | grep peidalinux)
kill
-u peidalinux
输出:
[root@localhost ~]# kill -9 $(ps -ef | grep peidalinux)
[root@localhost ~]# kill -u peidalinux
说明:
方法一,过滤出hnlinux用户进程并杀死
实例6:init进程是不可杀的
命令:
kill
-9 1
输出:
[root@localhost ~]# ps -ef|grep init
root 1 0 0 Nov02 ? 00:00:00 init [3]
root 17563 17534 0 17:37 pts/1 00:00:00 grep init
[root@localhost ~]# kill -9 1
[root@localhost ~]# kill -HUP 1
[root@localhost ~]# ps -ef|grep init
root 1 0 0 Nov02 ? 00:00:00 init [3]
root 17565 17534 0 17:38 pts/1 00:00:00 grep init
[root@localhost ~]# kill -KILL 1
[root@localhost ~]# ps -ef|grep init
root 1 0 0 Nov02 ? 00:00:00 init [3]
root 17567 17534 0 17:38 pts/1 00:00:00 grep init
[root@localhost ~]#
说明:
init
是Linux系统操作中不可缺少的程序之一。所谓的init进程,它是一个由内核启动的用户级进程。内核自行启动(已经被载入内存,开始运行,并已初始化
所有的设备驱动程序和数据结构等)之后,就通过启动一个用户级程序init的方式,完成引导进程。所以,init始终是第一个进程(其进程编号始终为
1)。
其它所有进程都是init进程的子孙。init进程是不可杀的!
Linux
系统中的killall命令用于杀死指定名字的进程(kill
processes by name)。我们可以使用kill命令杀死指定进程PID的进
程,如果要找到我们需要杀死的进程,我们还需要在之前使用ps等命令再配合grep来查找进程,而killall把这两个过程合二为一,是一个很好用的命
令。
1.命令格式:
killall[参数][进程名]
2.命令功能:
用来结束同名的的所有进程
3.命令参数:
-Z
只杀死拥有scontext
的进程
-e
要求匹配进程名称
-I
忽略小写
-g
杀死进程组而不是进程
-i
交互模式,杀死进程前先询问用户
-l
列出所有的已知信号名称
-q
不输出警告信息
-s
发送指定的信号
-v
报告信号是否成功发送
-w
等待进程死亡
--help
显示帮助信息
--version
显示版本显示
4.使用实例:
实例1:杀死所有同名进程
命令:
killall
vi
输出:
[root@localhost ~]# ps -ef|grep vi
root 17581 17398 0 17:51 pts/0 00:00:00 vi test.txt
root 17611 17582 0 17:51 pts/1 00:00:00 grep vi
[root@localhost ~]# ps -ef|grep vi
root 17581 17398 0 17:51 pts/0 00:00:00 vi test.txt
root 17640 17612 0 17:51 pts/2 00:00:00 vi test.log
root 17642 17582 0 17:51 pts/1 00:00:00 grep vi
[root@localhost ~]# killall vi
[root@localhost ~]# ps -ef|grep vi
root 17645 17582 0 17:52 pts/1 00:00:00 grep vi
说明:
实例2:向进程发送指定信号
命令:
后台运行程序:vi
&
杀死
vi进程:killall
-TERM vi或者
killall
-KILL vi
输出:
[root@localhost ~]# vi &
[1] 17646[root@localhost ~]# killall -TERM vi
[1]+ Stopped vi
[root@localhost ~]# vi &
[2] 17648[root@localhost ~]# ps -ef|grep vi
root 17646 17582 0 17:54 pts/1 00:00:00 vi
root 17648 17582 0 17:54 pts/1 00:00:00 vi
root 17650 17582 0 17:55 pts/1 00:00:00 grep vi
[2]+ Stopped vi
[root@localhost ~]# killall -TERM vi
[root@localhost ~]# ps -ef|grep vi
root 17646 17582 0 17:54 pts/1 00:00:00 vi
root 17648 17582 0 17:54 pts/1 00:00:00 vi
root 17653 17582 0 17:55 pts/1 00:00:00 grep vi
[root@localhost ~]# killall -KILL vi
[1]- 已杀死 vi
[2]+ 已杀死 vi
[root@localhost ~]# ps -ef|grep vi
root 17656 17582 0 17:56 pts/1 00:00:00 grep vi
[root@localhost ~]#
说明:
实例3:把所有的登录后的shell给杀掉
命令:
killall
-9 bash
输出:
[root@localhost ~]# w
18:01:03 up 41 days, 18:53, 3 users, load average: 0.00, 0.00, 0.00USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT
root pts/0 10.2.0.68 14:58 9:52 0.10s 0.10s -bash
root pts/1 10.2.0.68 17:51 0.00s 0.02s 0.00s w
root pts/2 10.2.0.68 17:51 9:24 0.01s 0.01s -bash
[root@localhost ~]# killall -9 bash
[root@localhost ~]# w
18:01:48 up 41 days, 18:54, 1 user, load average: 0.07, 0.02, 0.00USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT
root pts/0 10.2.0.68 18:01 0.00s 0.01s 0.00s w
[root@localhost ~]#
说明:
运行命令:killall
-9 bash 后,所有bash都会被卡掉了,所以当前所有连接丢失了。需要重新连接并登录。
top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器。下面详细介绍它的使用方法。top是
一个动态显示过程,即可以通过用户按键来不断刷新当前状态.如果在前台执行该命令,它将独占前台,直到用户终止该程序为止.比较准确的说,top命令提供
了实时的对系统处理器的状态监视.它将显示系统中CPU最“敏感”的任务列表.该命令可以按CPU使用.内存使用和执行时间对任务进行排序;而且该命令的
很多特性都可以通过交互式命令或者在个人定制文件中进行设定.
1.命令格式:
top
[参数]
2.命令功能:
显示当前系统正在执行的进程的相关信息,包括进程ID、内存占用率、CPU占用率等
3.命令参数:
-b 批处理
-c
显示完整的治命令
-I
忽略失效过程
-s
保密模式
-S
累积模式
-i<时间>
设置间隔时间
-u<用户名>
指定用户名
-p<进程号>
指定进程
-n<次数>
循环显示的次数
4.使用实例:
实例1:显示进程信息
命令:
top
输出:
[root@TG1704 log]# top
top - 14:06:23 up 70 days, 16:44, 2 users, load average: 1.25, 1.32, 1.35
Tasks: 206 total, 1 running, 205 sleeping, 0 stopped, 0 zombie
Cpu(s): 5.9%us, 3.4%sy, 0.0%ni, 90.4%id, 0.0%wa, 0.0%hi, 0.2%si, 0.0%st
Mem: 32949016k total, 14411180k used, 18537836k free, 169884k buffers
Swap: 32764556k total, 0k used, 32764556k free, 3612636k cached
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
28894 root 22 0 1501m 405m 10m S 52.2 1.3 2534:16 java
18249 root 18 0 3201m 1.9g 11m S 35.9 6.0 569:39.41 java
2808 root 25 0 3333m 1.0g 11m S 24.3 3.1 526:51.85 java
25668 root 23 0 3180m 704m 11m S 14.0 2.2 360:44.53 java
574 root 25 0 3168m 611m 10m S 12.6 1.9 556:59.63 java
1599 root 20 0 3237m 1.9g 11m S 12.3 6.2 262:01.14 java
1008 root 21 0 3147m 842m 10m S 0.3 2.6 4:31.08 java
13823 root 23 0 3031m 2.1g 10m S 0.3 6.8 176:57.34 java
28218 root 15 0 12760 1168 808 R 0.3 0.0 0:01.43 top
29062 root 20 0 1241m 227m 10m S 0.3 0.7 2:07.32 java
1 root 15 0 10368 684 572 S 0.0 0.0 1:30.85 init
2 root RT -5 0 0 0 S 0.0 0.0 0:01.01 migration/0
3 root 34 19 0 0 0 S 0.0 0.0 0:00.00 ksoftirqd/0
4 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/0
5 root RT -5 0 0 0 S 0.0 0.0 0:00.80 migration/1
6 root 34 19 0 0 0 S 0.0 0.0 0:00.00 ksoftirqd/1
7 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/1
8 root RT -5 0 0 0 S 0.0 0.0 0:20.59 migration/2
9 root 34 19 0 0 0 S 0.0 0.0 0:00.09 ksoftirqd/2
10 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/2
11 root RT -5 0 0 0 S 0.0 0.0 0:23.66 migration/3
12 root 34 19 0 0 0 S 0.0 0.0 0:00.03 ksoftirqd/3
13 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/3
14 root RT -5 0 0 0 S 0.0 0.0 0:20.29 migration/4
15 root 34 19 0 0 0 S 0.0 0.0 0:00.07 ksoftirqd/4
16 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/4
17 root RT -5 0 0 0 S 0.0 0.0 0:23.07 migration/5
18 root 34 19 0 0 0 S 0.0 0.0 0:00.07 ksoftirqd/5
19 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/5
20 root RT -5 0 0 0 S 0.0 0.0 0:17.16 migration/6
21 root 34 19 0 0 0 S 0.0 0.0 0:00.05 ksoftirqd/6
22 root RT -5 0 0 0 S 0.0 0.0 0:00.00 watchdog/6
23 root RT -5 0 0 0 S 0.0 0.0 0:58.28 migration/7
说明:
统计信息区:
前五行是当前系统情况整体的统计信息区。下面我们看每一行信息的具体意义。
第一行,任务队列信息,同 uptime
命令的执行结果,具体参数说明情况如下:
14:06:23
— 当前系统时间
up 70
days, 16:44 — 系统已经运行了70天16小时44分钟(在这期间系统没有重启过的吆!)
2
users — 当前有2个用户登录系统
load
average: 1.15, 1.42, 1.44 — load average后面的三个数分别是1分钟、5分钟、15分钟的负载情况。
load
average数据是每隔5秒钟检查一次活跃的进程数,然后按特定算法计算出的数值。如果这个数除以逻辑CPU的数量,结果高于5的时候就表明系统在超负荷运转了。
第二行,Tasks
— 任务(进程),具体信息说明如下:
系统现在共有206个进程,其中处于运行中的有1个,205个在休眠(sleep),stoped状态的有0个,zombie状态(僵尸)的有0个。
第三行,cpu状态信息,具体属性说明如下:
5.9%us
— 用户空间占用CPU的百分比。
3.4%
sy — 内核空间占用CPU的百分比。
0.0%
ni — 改变过优先级的进程占用CPU的百分比
90.4%
id — 空闲CPU百分比
0.0%
wa — IO等待占用CPU的百分比
0.0%
hi — 硬中断(Hardware
IRQ)占用CPU的百分比
0.2%
si — 软中断(Software
Interrupts)占用CPU的百分比
备注:在这里CPU的使用比率和windows概念不同,需要理解linux系统用户空间和内核空间的相关知识!
第四行,内存状态,具体信息如下:
32949016k total
— 物理内存总量(32GB)
14411180k used
— 使用中的内存总量(14GB)
18537836k free
— 空闲内存总量(18GB)
169884k buffers
— 缓存的内存量 (169M)
第五行,swap交换分区信息,具体信息说明如下:
32764556k
total — 交换区总量(32GB)
0k
used — 使用的交换区总量(0K)
32764556k free
— 空闲交换区总量(32GB)
3612636k cached
— 缓冲的交换区总量(3.6GB)
备注:
第
四行中使用中的内存总量(used)指的是现在系统内核控制的内存数,空闲内存总量(free)是内核还未纳入其管控范围的数量。纳入内核管理的内存不见
得都在使用中,还包括过去使用过的现在可以被重复利用的内存,内核并不把这些可被重新使用的内存交还到free中去,因此在linux上free内存会越
来越少,但不用为此担心。
如果出于习惯去计算可用内存数,这里有个近似的计算公式:第四行的free
+ 第四行的buffers
+ 第五行的cached,按这个公式此台服务器的可用内存:18537836k
+169884k +3612636k = 22GB左右。
对于内存监控,在top里我们要时刻监控第五行swap交换分区的used,如果这个数值在不断的变化,说明内核在不断进行内存和swap的数据交换,这是真正的内存不够用了。
第六行,空行。
第七行以下:各进程(任务)的状态监控,项目列信息说明如下:
PID —
进程id
USER —
进程所有者
PR —
进程优先级
NI —
nice值。负值表示高优先级,正值表示低优先级
VIRT —
进程使用的虚拟内存总量,单位kb。VIRT=SWAP+RES
RES —
进程使用的、未被换出的物理内存大小,单位kb。RES=CODE+DATA
SHR —
共享内存大小,单位kb
S —
进程状态。D=不可中断的睡眠状态
R=运行
S=睡眠
T=跟踪/停止
Z=僵尸进程
%CPU —
上次更新到现在的CPU时间占用百分比
%MEM —
进程使用的物理内存百分比
TIME+
— 进程使用的CPU时间总计,单位1/100秒
COMMAND
— 进程名称(命令名/命令行)
其他使用技巧:
1.多U多核CPU监控
在top基本视图中,按键盘数字“1”,可监控每个逻辑CPU的状况:
观察上图,服务器有16个逻辑CPU,实际上是4个物理CPU。再按数字键1,就会返回到top基本视图界面。
2.高亮显示当前运行进程
敲击键盘“b”(打开/关闭加亮效果),top的视图变化如下:
我们发现进程id为2570的“top”进程被加亮了,top进程就是视图第二行显示的唯一的运行态(runing)的那个进程,可以通过敲击“y”键关闭或打开运行态进程的加亮效果。
3.进程字段排序
默认进入top时,各进程是按照CPU的占用量来排序的,在下图中进程ID为28894的java进程排在第一(cpu占用142%),进程ID为574的java进程排在第二(cpu占用16%)。
敲击键盘“x”(打开/关闭排序列的加亮效果),top的视图变化如下:
可以看到,top默认的排序列是“%CPU”。
4. 通过”shift
+ >”或”shift
+ <”可以向右或左改变排序列
下图是按一次”shift + >”的效果图,视图现在已经按照%MEM来排序。
实例2:显示
完整命令
命令:
top -c
输出:
说明:
实例3:以批处理模式显示程序信息
命令:
top
-b
输出:
说明:
实例4:以累积模式显示程序信息
命令:
top -S
输出:
说明:
实例5:设置信息更新次数
命令:
top
-n 2
输出:
说明:
表示更新两次后终止更新显示
实例6:设置信息更新时间
命令:
top
-d 3
输出:
说明:
表示更新周期为3秒
实例7:显示指定的进程信息
命令:
top -p 574
输出:
说明:
5.top交互命令
在top
命令执行过程中可以使用的一些交互命令。这些命令都是单字母的,如果在命令行中使用了s
选项, 其中一些命令可能会被屏蔽。
h
显示帮助画面,给出一些简短的命令总结说明
k
终止一个进程。
i
忽略闲置和僵死进程。这是一个开关式命令。
q 退出程序
r
重新安排一个进程的优先级别
S
切换到累计模式
s
改变两次刷新之间的延迟时间(单位为s),如果有小数,就换算成m
s。输入0值则系统将不断刷新,默认值是5
s
f或者F
从当前显示中添加或者删除项目
o或者O
改变显示项目的顺序
l
切换显示平均负载和启动时间信息
m
切换显示内存信息
t
切换显示进程和CPU状态信息
c
切换显示命令名称和完整命令行
M
根据驻留内存大小进行排序
P
根据CPU使用百分比大小进行排序
T
根据时间/累计时间进行排序
W 将当前设置写入~/.toprc文件中
free命令可以显示Linux系统中空闲的、已用的物理内存及swap内存,及被内核使用的buffer。在Linux系统监控的工具中,free命令是最经常使用的命令之一。
1.命令格式:
free
[参数]
2.命令功能:
free
命令显示系统使用和空闲的内存情况,包括物理内存、交互区内存(swap)和内核缓冲区内存。共享内存将被忽略
3.命令参数:
-b
以Byte为单位显示内存使用情况。
-k
以KB为单位显示内存使用情况。
-m
以MB为单位显示内存使用情况。
-g
以GB为单位显示内存使用情况。
-o
不显示缓冲区调节列。
-s<间隔秒数>
持续观察内存使用状况。
-t
显示内存总和列。
-V
显示版本信息。
4.使用实例:
实例1:显示内存使用情况
命令:
free
free
-g
free
-m
输出:
[root@SF1150 service]# free
total used free shared buffers cached
Mem: 32940112 30841684 2098428 0 4545340 11363424
-/+ buffers/cache: 14932920 18007192
Swap: 32764556 1944984 30819572
[root@SF1150 service]# free -g
total used free shared buffers cached
Mem: 31 29 2 0 4 10
-/+ buffers/cache: 14 17
Swap: 31 1 29
[root@SF1150 service]# free -m
total used free shared buffers cached
Mem: 32168 30119 2048 0 4438 11097
-/+ buffers/cache: 14583 17584
Swap: 31996 1899 30097
说明:
下面是对这些数值的解释:
total:总计物理内存的大小。
used:已使用多大。
free:可用有多少。
Shared:多个进程共享的内存总额。
Buffers/cached:磁盘缓存的大小。
第三行(-/+
buffers/cached):
used:已使用多大。
free:可用有多少。
第四行是交换分区SWAP的,也就是我们通常所说的虚拟内存。
区
别:第二行(mem)的used/free与第三行(-/+
buffers/cache) used/free的区别。
这两个的区别在于使用的角度来
看,第一行是从OS的角度来看,因为对于OS,buffers/cached
都是属于被使用,所以他的可用内存是2098428KB,已用内存是
30841684KB,其中包括,内核(OS)使用+Application(X,
oracle,etc)使用的+buffers+cached.
第三行所指的是从应用程序角度来看,对于应用程序来说,buffers/cached
是等于可用的,因为buffer/cached是为了提高文件读取的性能,当应用程序需在用到内存的时候,buffer/cached会很快地被回收。
所以从应用程序的角度来说,可用内存=系统free
memory+buffers+cached。
如本机情况的可用内存为:
18007156=2098428KB+4545340KB+11363424KB
接下来解释什么时候内存会被交换,以及按什么方交换。
当可用内存少于额定值的时候,就会开会进行交换.如何看额定值:
命令:
cat
/proc/meminfo
输出:
[root@SF1150 service]# cat /proc/meminfo
MemTotal: 32940112 kB
MemFree: 2096700 kB
Buffers: 4545340 kB
Cached: 11364056 kB
SwapCached: 1896080 kB
Active: 22739776 kB
Inactive: 7427836 kB
HighTotal: 0 kB
HighFree: 0 kB
LowTotal: 32940112 kB
LowFree: 2096700 kB
SwapTotal: 32764556 kB
SwapFree: 30819572 kB
Dirty: 164 kB
Writeback: 0 kB
AnonPages: 14153592 kB
Mapped: 20748 kB
Slab: 590232 kB
PageTables: 34200 kB
NFS_Unstable: 0 kB
Bounce: 0 kB
CommitLimit: 49234612 kB
Committed_AS: 23247544 kB
VmallocTotal: 34359738367 kB
VmallocUsed: 278840 kB
VmallocChunk: 34359459371 kB
HugePages_Total: 0HugePages_Free: 0HugePages_Rsvd: 0Hugepagesize: 2048 kB
交换将通过三个途径来减少系统中使用的物理页面的个数:
1.减少缓冲与页面cache的大小,
2.将系统V类型的内存页面交换出去,
3.换出或者丢弃页面。(Application
占用的内存页,也就是物理内存不足)。
事实上,少量地使用swap是不是影响到系统性能的。
那buffers和cached都是缓存,两者有什么区别呢?
为
了提高磁盘存取效率,
Linux做了一些精心的设计,
除了对dentry进行缓存(用于VFS,加速文件路径名到inode的转换),
还采取了两种
主要Cache方式:Buffer
Cache和Page
Cache。前者针对磁盘块的读写,后者针对文件inode的读写。这些Cache有效缩短
了 I/O系统调用(比如read,write,getdents)的时间。
磁盘的操作有逻辑级(文件系统)和物理级(磁盘块),这两种Cache就是分别缓存逻辑和物理级数据的。
Page
cache 实际上是针对文件系统的,是文件的缓存,在文件层面上的数据会缓存到page
cache。文件的逻辑层需要映射到实际的物理磁盘,这种映射关系由文件系
统来完成。当page
cache的数据需要刷新时,page
cache中的数据交给buffer
cache,因为Buffer
Cache就是缓存
磁盘块的。但是这种处理在2.6版本的内核之后就变的很简单了,没有真正意义上的cache操作。
Buffer
cache是针对磁盘块的缓存,也就是在没有文件系统的情况下,直接对磁盘进行操作的数据会缓存到buffer
cache中,例如,文件系统的元数据都会缓存到buffer
cache中。
简单说来,page
cache用来缓存文件数据,buffer
cache用来缓存磁盘数据。在有文件系统的情况下,对文件操作,那么数据会缓存到page
cache,如果直接采用dd等工具对磁盘进行读写,那么数据会缓存到buffer
cache。
所以我们看linux,只要不用swap的交换空间,就不用担心自己的内存太少.如果常常swap用很多,可能你就要考虑加物理内存了.这也是linux看内存是否够用的标准.
如果是应用服务器的话,一般只看第二行,+buffers/cache,即对应用程序来说free的内存太少了,也是该考虑优化程序或加内存了。
实例2:以总和的形式显示内存的使用信息
命令:
free
-t
输出:
[root@SF1150 service]# free -t
total used free shared buffers cached
Mem: 32940112 30845024 2095088 0 4545340 11364324
-/+ buffers/cache: 14935360 18004752Swap: 32764556 1944984 30819572Total: 65704668 32790008 32914660[root@SF1150 service]#
说明:
实例3:周期性的查询内存使用信息
命令:
free
-s 10
输出:
[root@SF1150 service]# free -s 10
total used free shared buffers cached
Mem: 32940112 30844528 2095584 0 4545340 11364380
-/+ buffers/cache: 14934808 18005304Swap: 32764556 1944984 30819572
total used free shared buffers cached
Mem: 32940112 30843932 2096180 0 4545340 11364388
-/+ buffers/cache: 14934204 18005908Swap: 32764556 1944984 30819572
说明:
每10s
执行一次命令
vmstat
是Virtual
Meomory Statistics(虚拟内存统计)的缩写,可对操作系统的虚拟内存、进程、CPU活动进行监控。他是对系统的整体
情况进行统计,不足之处是无法对某个进程进行深入分析。vmstat
工具提供了一种低开销的系统性能观察方式。因为
vmstat
本身就是低开销工具,在非常高负荷的服务器上,你需要查看并监控系统的健康情况,在控制窗口还是能够使用vmstat
输出结果。在学习vmstat命令前,我们先了解一下Linux系统中关于物理内存和虚拟内存相关信息。
物理内存和虚拟内存区别:
我们知道,直接从物理内存读写数据要比从硬盘读写数据要快的多,因此,我们希望所有数据的读取和写入都在内存完成,而内存是有限的,这样就引出了物理内存与虚拟内存的概念。
物理内存就是系统硬件提供的内存大小,是真正的内存,相对于物理内存,在linux下还有一个虚拟内存的概念,虚拟内存就是为了满足物理内存的不足而提出的策略,它是利用磁盘空间虚拟出的一块逻辑内存,用作虚拟内存的磁盘空间被称为交换空间(Swap
Space)。
作为物理内存的扩展,linux会在物理内存不足时,使用交换分区的虚拟内存,更详细的说,就是内核会将暂时不用的内存块信息写到交换空间,这样以来,物理内存得到了释放,这块内存就可以用于其它目的,当需要用到原始的内容时,这些信息会被重新从交换空间读入物理内存。
linux的内存管理采取的是分页存取机制,为了保证物理内存能得到充分的利用,内核会在适当的时候将物理内存中不经常使用的数据块自动交换到虚拟内存中,而将经常使用的信息保留到物理内存。
要深入了解linux内存运行机制,需要知道下面提到的几个方面:
首先,Linux系统会不时的进行页面交换操作,以保持尽可能多的空闲物理内存,即使并没有什么事情需要内存,Linux也会交换出暂时不用的内存页面。这可以避免等待交换所需的时间。
其
次,linux进行页面交换是有条件的,不是所有页面在不用时都交换到虚拟内存,linux内核根据”最近最经常使用“算法,仅仅将一些不经常使用的页面
文件交换到虚拟内存,有时我们会看到这么一个现象:linux物理内存还有很多,但是交换空间也使用了很多。其实,这并不奇怪,例如,一个占用很大内存的
进程运行时,需要耗费很多内存资源,此时就会有一些不常用页面文件被交换到虚拟内存中,但后来这个占用很多内存资源的进程结束并释放了很多内存时,刚才被
交换出去的页面文件并不会自动的交换进物理内存,除非有这个必要,那么此刻系统物理内存就会空闲很多,同时交换空间也在被使用,就出现了刚才所说的现象
了。关于这点,不用担心什么,只要知道是怎么一回事就可以了。
最
后,交换空间的页面在使用时会首先被交换到物理内存,如果此时没有足够的物理内存来容纳这些页面,它们又会被马上交换出去,如此以来,虚拟内存中可能没有
足够空间来存储这些交换页面,最终会导致linux出现假死机、服务异常等问题,linux虽然可以在一段时间内自行恢复,但是恢复后的系统已经基本不可
用了。
因此,合理规划和设计linux内存的使用,是非常重要的。
虚拟内存原理:
在
系统中运行的每个进程都需要使用到内存,但不是每个进程都需要每时每刻使用系统分配的内存空间。当系统运行所需内存超过实际的物理内存,内核会释放某些进
程所占用但未使用的部分或所有物理内存,将这部分资料存储在磁盘上直到进程下一次调用,并将释放出的内存提供给有需要的进程使用。
在Linux内存管理中,主要是通过“调页Paging”和“交换Swapping”来完成上述的内存调度。调页算法是将内存中最近不常使用的页面换到磁盘上,把活动页面保留在内存*进程使用。交换技术是将整个进程,而不是部分页面,全部交换到磁盘上。
分页(Page)写入磁盘的过程被称作Page-Out,分页(Page)从磁盘重新回到内存的过程被称作Page-In。当内核需要一个分页时,但发现此分页不在物理内存中(因为已经被Page-Out了),此时就发生了分页错误(Page
Fault)。
当
系统内核发现可运行内存变少时,就会通过Page-Out来释放一部分物理内存。经管Page-Out不是经常发生,但是如果Page-out频繁不断的
发生,直到当内核管理分页的时间超过运行程式的时间时,系统效能会急剧下降。这时的系统已经运行非常慢或进入暂停状态,这种状态亦被称作
thrashing(颠簸)。
1.命令格式:
vmstat
[-a] [-n] [-S unit] [delay [ count]]
vmstat
[-s] [-n] [-S unit]
vmstat
[-m] [-n] [delay [ count]]
vmstat
[-d] [-n] [delay [ count]]
vmstat
[-p disk partition] [-n] [delay [ count]]
vmstat
[-f]
vmstat
[-V]
2.命令功能:
用来显示虚拟内存的信息
3.命令参数:
-a:显示活跃和非活跃内存
-f:显示从系统启动至今的fork数量
。
-m:显示slabinfo
-n:只在开始时显示一次各字段名称。
-s:显示内存相关统计信息及多种系统活动数量。
delay:刷新时间间隔。如果不指定,只显示一条结果。
count:刷新次数。如果不指定刷新次数,但指定了刷新时间间隔,这时刷新次数为无穷。
-d:显示磁盘相关统计信息。
-p:显示指定磁盘分区统计信息
-S:使用指定单位显示。参数有
k
、K
、m
、M
,分别代表1000、1024、1000000、1048576字节(byte)。默认单位为K(1024
bytes)
-V:显示vmstat版本信息。
4.使用实例:
实例1:显示虚拟内存使用情况
命令:
vmstat
输出:
[root@localhost ~]# vmstat 5 6
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
0 0 0 3029876 199616 690980 0 0 0 2 3 2 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 41 1009 39 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 3 1004 36 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 4 1004 36 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 6 1003 33 0 0 100 0 0
0 0 0 3029752 199616 690980 0 0 0 5 1003 33 0 0 100 0 0
说明:
字段说明:
Procs(进程):
r:
运行队列中进程数量
b:
等待IO的进程数量
Memory(内存):
swpd:
使用虚拟内存大小
free:
可用内存大小
buff:
用作缓冲的内存大小
cache:
用作缓存的内存大小
Swap:
si:
每秒从交换区写到内存的大小
so:
每秒写入交换区的内存大小
IO:(现在的Linux版本块的大小为1024bytes)
bi:
每秒读取的块数
bo:
每秒写入的块数
系统:
in:
每秒中断数,包括时钟中断。
cs:
每秒上下文切换数。
CPU(以百分比表示):
us:
用户进程执行时间(user
time)
sy:
系统进程执行时间(system
time)
id:
空闲时间(包括IO等待时间),*处理器的空闲时间
。以百分比表示。
wa:
等待IO时间
备注: 如 果 r经常大于
4
,且id经常少于40,表示cpu的负荷很重。如果pi,po
长期不等于0,表示内存不足。如果disk
经常不等于0,
且 在 b中的队列
大于3,
表示 io性能不好。Linux在具有高稳定性、可靠性的同时,具有很好的可伸缩性和扩展性,能够针对不同的应用和硬件环境调
整,优化出满足当前应用需要的最佳性能。因此企业在维护Linux系统、进行系统调优时,了解系统性能分析工具是至关重要的。
命令:
vmstat
5 5
表示在5秒时间内进行5次采样。将得到一个数据汇总他能够反映真正的系统情况。
实例2:显示活跃和非活跃内存
命令:
vmstat
-a 2 5
输出:
[root@localhost ~]# vmstat -a 2 5
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free inact active si so bi bo in cs us sy id wa st
0 0 0 3029752 387728 513008 0 0 0 2 3 2 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 0 1005 34 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 22 1004 36 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 0 1004 33 0 0 100 0 0
0 0 0 3029752 387728 513076 0 0 0 0 1003 32 0 0 100 0 0
[root@localhost ~]#
说明:
使用-a选项显示活跃和非活跃内存时,所显示的内容除增加inact和active外,其他显示内容与例子1相同。
字段说明:
Memory(内存):
inact:
非活跃内存大小(当使用-a选项时显示)
active:
活跃的内存大小(当使用-a选项时显示)
实例3:查看系统已经fork了多少次
命令:
vmstat
-f
输出:
[root@SCF1129 ~]# vmstat -f
12744849 forks
[root@SCF1129 ~]#
说明:
这个数据是从/proc/stat中的processes字段里取得的
实例4:查看内存使用的详细信息
命令:
vmstat
-s
输出:
[root@localhost ~]# vmstat -s
4043760 total memory
1013884 used memory
513012 active memory
387728 inactive memory
3029876 free memory
199616 buffer memory
690980 swap cache
6096656 total swap
0 used swap
6096656 free swap
83587 non-nice user cpu ticks
132 nice user cpu ticks
278599 system cpu ticks
913344692 idle cpu ticks
814550 IO-wait cpu ticks
10547 IRQ cpu ticks
21261 softirq cpu ticks
0 stolen cpu ticks
310215 pages paged in
14254652 pages paged out
0 pages swapped in
0 pages swapped out
288374745 interrupts
146680577 CPU context switches
1351868832 boot time
367291 forks
说明:
这些信息的分别来自于/proc/meminfo,/proc/stat和/proc/vmstat。
实例5:查看磁盘的读/写
命令:
vmstat
-d
输出:
[root@localhost ~]# vmstat -d
disk- ------------reads------------ ------------writes----------- -----IO------
total merged sectors ms total merged sectors ms cur sec
ram0 0 0 0 0 0 0 0 0 0 0
ram1 0 0 0 0 0 0 0 0 0 0
ram2 0 0 0 0 0 0 0 0 0 0
ram3 0 0 0 0 0 0 0 0 0 0
ram4 0 0 0 0 0 0 0 0 0 0
ram5 0 0 0 0 0 0 0 0 0 0
ram6 0 0 0 0 0 0 0 0 0 0
ram7 0 0 0 0 0 0 0 0 0 0
ram8 0 0 0 0 0 0 0 0 0 0
ram9 0 0 0 0 0 0 0 0 0 0
ram10 0 0 0 0 0 0 0 0 0 0
ram11 0 0 0 0 0 0 0 0 0 0
ram12 0 0 0 0 0 0 0 0 0 0
ram13 0 0 0 0 0 0 0 0 0 0
ram14 0 0 0 0 0 0 0 0 0 0
ram15 0 0 0 0 0 0 0 0 0 0
sda 33381 6455 615407 63224 2068111 1495416 28508288 15990289 0 10491
hdc 0 0 0 0 0 0 0 0 0 0
fd0 0 0 0 0 0 0 0 0 0 0
md0 0 0 0 0 0 0 0 0 0 0
[root@localhost ~]#
说明:
这些信息主要来自于/proc/diskstats.
merged:表示一次来自于合并的写/读请求,一般系统会把多个连接/邻近的读/写请求合并到一起来操作.
实例6:查看/dev/sda1磁盘的读/写
命令:
输出:
[root@SCF1129 ~]# df
文件系统 1K-块 已用 可用 已用% 挂载点
/dev/sda3 1119336548 27642068 1034835500 3% /tmpfs 32978376 0 32978376 0% /dev/shm
/dev/sda1 1032088 59604 920056 7% /boot
[root@SCF1129 ~]# vmstat -p /dev/sda1
sda1 reads read sectors writes requested writes
18607 4249978 6 48[root@SCF1129 ~]# vmstat -p /dev/sda3
sda3 reads read sectors writes requested writes
429350 35176268 28998789 980301488[root@SCF1129 ~]#
说明:
这些信息主要来自于/proc/diskstats。
reads:来自于这个分区的读的次数。
read
sectors:来自于这个分区的读扇区的次数。
writes:来自于这个分区的写的次数。
requested
writes:来自于这个分区的写请求次数。
实例7:查看系统的slab信息
命令:
vmstat
-m
输出:
[root@localhost ~]# vmstat -m
Cache Num Total Size Pages
ip_conntrack_expect 0 0 136 28
ip_conntrack 3 13 304 13
ip_fib_alias 11 59 64 59
ip_fib_hash 11 59 64 59
AF_VMCI 0 0 960 4
bio_map_info 100 105 1064 7
dm_mpath 0 0 1064 7
jbd_4k 0 0 4096 1
dm_uevent 0 0 2608 3
dm_tio 0 0 24 144
dm_io 0 0 48 77
scsi_cmd_cache 10 10 384 10
sgpool-128 32 32 4096 1
sgpool-64 32 32 2048 2
sgpool-32 32 32 1024 4
sgpool-16 32 32 512 8
sgpool-8 45 45 256 15
scsi_io_context 0 0 112 34
ext3_inode_cache 51080 51105 760 5
ext3_xattr 36 88 88 44
journal_handle 18 144 24 144
journal_head 56 80 96 40
revoke_table 4 202 16 202
revoke_record 0 0 32 112
uhci_urb_priv 0 0 56 67
UNIX 13 33 704 11
flow_cache 0 0 128 30
msi_cache 33 59 64 59
cfq_ioc_pool 14 90 128 30
cfq_pool 12 90 216 18
crq_pool 16 96 80 48
deadline_drq 0 0 80 48
as_arq 0 0 96 40
mqueue_inode_cache 1 4 896 4
isofs_inode_cache 0 0 608 6
hugetlbfs_inode_cache 1 7 576 7
Cache Num Total Size Pages
ext2_inode_cache 0 0 720 5
ext2_xattr 0 0 88 44
dnotify_cache 0 0 40 92
dquot 0 0 256 15
eventpoll_pwq 3 53 72 53
eventpoll_epi 3 20 192 20
inotify_event_cache 0 0 40 92
inotify_watch_cache 1 53 72 53
kioctx 0 0 320 12
kiocb 0 0 256 15
fasync_cache 0 0 24 144
shmem_inode_cache 254 290 768 5
posix_timers_cache 0 0 128 30
uid_cache 0 0 128 30
ip_mrt_cache 0 0 128 30
tcp_bind_bucket 3 112 32 112
inet_peer_cache 0 0 128 30
secpath_cache 0 0 64 59
xfrm_dst_cache 0 0 384 10
ip_dst_cache 5 10 384 10
arp_cache 1 15 256 15
RAW 3 5 768 5
UDP 5 10 768 5
tw_sock_TCP 0 0 192 20
request_sock_TCP 0 0 128 30
TCP 4 5 1600 5
blkdev_ioc 14 118 64 59
blkdev_queue 20 30 1576 5
blkdev_requests 13 42 272 14
biovec-256 7 7 4096 1
biovec-128 7 8 2048 2
biovec-64 7 8 1024 4
biovec-16 7 15 256 15
biovec-4 7 59 64 59
biovec-1 23 202 16 202
bio 270 270 128 30
utrace_engine_cache 0 0 64 59
Cache Num Total Size Pages
utrace_cache 0 0 64 59
sock_inode_cache 33 48 640 6
skbuff_fclone_cache 7 7 512 7
skbuff_head_cache 319 390 256 15
file_lock_cache 1 22 176 22
Acpi-Operand 4136 4248 64 59
Acpi-ParseExt 0 0 64 59
Acpi-Parse 0 0 40 92
Acpi-State 0 0 80 48
Acpi-Namespace 2871 2912 32 112
delayacct_cache 81 295 64 59
taskstats_cache 4 53 72 53
proc_inode_cache 1427 1440 592 6
sigqueue 0 0 160 24
radix_tree_node 13166 13188 536 7
bdev_cache 23 24 832 4
sysfs_dir_cache 5370 5412 88 44
mnt_cache 26 30 256 15
inode_cache 2009 2009 560 7
dentry_cache 60952 61020 216 18
filp 479 1305 256 15
names_cache 3 3 4096 1
avc_node 14 53 72 53
selinux_inode_security 994 1200 80 48
key_jar 2 20 192 20
idr_layer_cache 74 77 528 7
buffer_head 164045 164800 96 40
mm_struct 51 56 896 4
vm_area_struct 1142 1958 176 22
fs_cache 35 177 64 59
files_cache 36 55 768 5
signal_cache 72 162 832 9
sighand_cache 68 84 2112 3
task_struct 76 80 1888 2
anon_vma 458 864 24 144
pid 83 295 64 59
shared_policy_node 0 0 48 77
Cache Num Total Size Pages
numa_policy 37 144 24 144
size-131072(DMA) 0 0 131072 1
size-131072 0 0 131072 1
size-65536(DMA) 0 0 65536 1
size-65536 1 1 65536 1
size-32768(DMA) 0 0 32768 1
size-32768 2 2 32768 1
size-16384(DMA) 0 0 16384 1
size-16384 5 5 16384 1
size-8192(DMA) 0 0 8192 1
size-8192 7 7 8192 1
size-4096(DMA) 0 0 4096 1
size-4096 110 111 4096 1
size-2048(DMA) 0 0 2048 2
size-2048 602 602 2048 2
size-1024(DMA) 0 0 1024 4
size-1024 344 352 1024 4
size-512(DMA) 0 0 512 8
size-512 433 480 512 8
size-256(DMA) 0 0 256 15
size-256 1139 1155 256 15
size-128(DMA) 0 0 128 30
size-64(DMA) 0 0 64 59
size-64 5639 5782 64 59
size-32(DMA) 0 0 32 112
size-128 801 930 128 30
size-32 3005 3024 32 112
kmem_cache 137 137 2688 1
这组信息来自于/proc/slabinfo。
slab:由于内核会有许多小对象,这些对象构造销毁十分频繁,比如i-node,dentry,这些对象如果每次构建的时候就向内存要一个页(4kb),而其实只有几个字节,这样就会非常浪费,为了解决这个问题,就引入了一种新的机制来处理在同一个页框中如何分配小存储区,而slab可以对小对象进行分配,这样就不用为每一个对象分配页框,从而节省了空间,内核对一些小对象创建析构很频繁,slab对这些小对象进行缓冲,可以重复利用,减少内存分配次数。
Linux系统中的 iostat
是I/O
statistics(输入/输出统计)的缩写,iostat工具将对系统的磁盘操作活动进行监视。它的特点是汇报磁盘活动统计情况,同时也会
汇报出CPU使用情况。同vmstat一样,iostat也有一个弱点,就是它不能对某个进程进行深入分析,仅对系统的整体情况进行分析。iostat属
于sysstat软件包。可以用yum
install sysstat 直接安装。
1.命令格式:
iostat[参数][时间][次数]
2.命令功能:
通过iostat方便查看CPU、网卡、tty设备、磁盘、CD-ROM
等等设备的活动情况,负载信息。
3.命令参数:
-C
显示CPU使用情况
-d
显示磁盘使用情况
-k 以
KB
为单位显示
-m 以
M
为单位显示
-N
显示磁盘阵列(LVM)
信息
-n
显示NFS
使用情况
-p[磁盘]
显示磁盘和分区的情况
-t
显示终端和CPU的信息
-x
显示详细信息
-V
显示版本信息
4.使用实例:
实例1:显示所有设备负载情况
命令:
iostat
输出:
[root@CT1186 ~]月28日
avg-cpu: %user %nice %system %iowait %steal %idle
8.30 0.02 5.07 0.17 0.00 86.44
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 22.73 43.70 487.42 674035705 7517941952
sda1 0.00 0.00 0.00 2658 536
sda2 0.11 3.74 3.51 57721595 54202216
sda3 0.98 0.61 17.51 9454172 270023368
sda4 0.00 0.00 0.00 6 0
sda5 6.95 0.12 108.73 1924834 1677123536
sda6 2.20 0.18 31.22 2837260 481488056
sda7 12.48 39.04 326.45 602094508 5035104240
说明:
cpu属性值说明:
%user:CPU处在用户模式下的时间百分比。
%nice:CPU处在带NICE值的用户模式下的时间百分比。
%system:CPU处在系统模式下的时间百分比。
%iowait:CPU等待输入输出完成时间的百分比。
%steal:管理程序维护另一个虚拟处理器时,虚拟CPU的无意识等待时间百分比。
%idle:CPU空闲时间百分比。
备注:如
果%iowait的值过高,表示硬盘存在I/O瓶颈,%idle值高,表示CPU较空闲,如果%idle值高但系统响应慢时,有可能是CPU等待分配内
存,此时应加大内存容量。%idle值如果持续低于10,那么系统的CPU处理能力相对较低,表明系统中最需要解决的资源是CPU。
disk属性值说明:
rrqm/s:
每秒进行 merge
的读操作数目。即 rmerge/s
wrqm/s:
每秒进行 merge
的写操作数目。即 wmerge/s
r/s:
每秒完成的读 I/O
设备次数。即 rio/s
w/s:
每秒完成的写 I/O
设备次数。即 wio/s
rsec/s:
每秒读扇区数。即 rsect/s
wsec/s:
每秒写扇区数。即 wsect/s
rkB/s:
每秒读K字节数。是
rsect/s
的一半,因为每扇区大小为512字节。
wkB/s:
每秒写K字节数。是
wsect/s
的一半。
avgrq-sz:
平均每次设备I/O操作的数据大小
(扇区)。
avgqu-sz:
平均I/O队列长度。
await:
平均每次设备I/O操作的等待时间
(毫秒)。
svctm:
平均每次设备I/O操作的服务时间
(毫秒)。
%util:
一秒中有百分之多少的时间用于
I/O
操作,即被io消耗的cpu百分比
备注:如 果
%util
接近
100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。如果
svctm
比较接近 await,说
明 I/O
几乎没有等待时间;如果
await
远大于 svctm,说明I/O
队列太长,io响应太慢,则需要进行必要优化。如果avgqu-sz
比较大,也表示有当量io在等待。
实例2:定时显示所有信息
命令:
iostat
2 3
输出:
[root@CT1186 ~]月28日
avg-cpu: %user %nice %system %iowait %steal %idle
8.30 0.02 5.07 0.17 0.00 86.44
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 22.73 43.70 487.42 674035705 7517947296
sda1 0.00 0.00 0.00 2658 536
sda2 0.11 3.74 3.51 57721595 54202216
sda3 0.98 0.61 17.51 9454172 270023608
sda4 0.00 0.00 0.00 6 0
sda5 6.95 0.12 108.73 1924834 1677125640
sda6 2.20 0.18 31.22 2837260 481488152
sda7 12.48 39.04 326.44 602094508 5035107144
avg-cpu: %user %nice %system %iowait %steal %idle
8.88 0.00 7.94 0.19 0.00 83.00
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 6.00 0.00 124.00 0 248
sda1 0.00 0.00 0.00 0 0
sda2 0.00 0.00 0.00 0 0
sda3 0.00 0.00 0.00 0 0
sda4 0.00 0.00 0.00 0 0
sda5 0.00 0.00 0.00 0 0
sda6 0.00 0.00 0.00 0 0
sda7 6.00 0.00 124.00 0 248
avg-cpu: %user %nice %system %iowait %steal %idle
9.12 0.00 7.81 0.00 0.00 83.07
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 4.00 0.00 84.00 0 168
sda1 0.00 0.00 0.00 0 0
sda2 0.00 0.00 0.00 0 0
sda3 0.00 0.00 0.00 0 0
sda4 0.00 0.00 0.00 0 0
sda5 0.00 0.00 0.00 0 0
sda6 4.00 0.00 84.00 0 168
sda7 0.00 0.00 0.00 0 0
说明:
每隔 2秒刷新显示,且显示3次
实例3:显示指定磁盘信息
命令:
iostat
-d sda1
输出:
[root@CT1186 ~]月28日
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda1 0.00 0.00 0.00 2658 536
说明:
实例4:显示tty和Cpu信息
命令:
iostat
-t
输出:
[root@CT1186 ~]月28日
Time: 14时58分35秒
avg-cpu: %user %nice %system %iowait %steal %idle
8.30 0.02 5.07 0.17 0.00 86.44
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda 22.73 43.70 487.41 674035705 7517957864
sda1 0.00 0.00 0.00 2658 536
sda2 0.11 3.74 3.51 57721595 54202216
sda3 0.98 0.61 17.51 9454172 270024344
sda4 0.00 0.00 0.00 6 0
sda5 6.95 0.12 108.73 1924834 1677128808
sda6 2.20 0.18 31.22 2837260 481488712
sda7 12.48 39.04 326.44 602094508 5035113248
说明:
实例5:以M为单位显示所有信息
命令:
iostat
-m
输出:
[root@CT1186 ~]月28日
avg-cpu: %user %nice %system %iowait %steal %idle
8.30 0.02 5.07 0.17 0.00 86.44
Device: tps MB_read/s MB_wrtn/s MB_read MB_wrtn
sda 22.72 0.02 0.24 329119 3670881
sda1 0.00 0.00 0.00 1 0
sda2 0.11 0.00 0.00 28184 26465
sda3 0.98 0.00 0.01 4616 131848
sda4 0.00 0.00 0.00 0 0
sda5 6.95 0.00 0.05 939 818911
sda6 2.20 0.00 0.02 1385 235102
sda7 12.48 0.02 0.16 293991 2458553
说明:
实例6:查看TPS和吞吐量信息
命令:
iostat
-d -k 1 1
输出:
[root@CT1186 ~]月28日
Device: tps kB_read/s kB_wrtn/s kB_read kB_wrtn
sda 22.72 21.85 243.71 337017916 3758984340
sda1 0.00 0.00 0.00 1329 268
sda2 0.11 1.87 1.76 28860797 27101108
sda3 0.98 0.31 8.75 4727086 135012508
sda4 0.00 0.00 0.00 3 0
sda5 6.95 0.06 54.37 962481 838566148
sda6 2.20 0.09 15.61 1418630 240744712
sda7 12.48 19.52 163.22 301047254 2517559596
说明:
tps:
该设备每秒的传输次数 (Indicate
the number of transfers per second that were issued to the device.)。
“一次传输”意思是“一次I/O请求”。多个逻辑请求可能会被合并为“一次I/O请求”。“一次传输”请求的大小是未知的。
kB_read/s:每秒从设备(drive
expressed)读取的数据量;
kB_wrtn/s:每秒向设备(drive
expressed)写入的数据量;
kB_read:读取的总数据量;kB_wrtn:写入的总数量数据量;
这些单位都为Kilobytes。
上面的例子中,我们可以看到磁盘sda以及它的各个分区的统计数据,当时统计的磁盘总TPS是22.73,下面是各个分区的TPS。(因为是瞬间值,所以总TPS并不严格等于各个分区TPS的总和)
实例7:查看设备使用率(%util)、响应时间(await)
命令:
iostat
-d -x -k 1 1
输出:
[root@CT1186 ~]月28日
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util
sda 0.44 38.59 0.40 22.32 21.85 243.71 23.37 0.04 1.78 4.20 9.54
sda1 0.00 0.00 0.00 0.00 0.00 0.00 18.90 0.00 8.26 6.46 0.00
sda2 0.36 0.43 0.11 0.01 1.87 1.76 63.57 0.01 63.75 1.94 0.02
sda3 0.00 1.24 0.04 0.95 0.31 8.75 18.42 0.04 39.77 8.73 0.86
sda4 0.00 0.00 0.00 0.00 0.00 0.00 2.00 0.00 19.67 19.67 0.00
sda5 0.00 6.65 0.00 6.94 0.06 54.37 15.67 0.26 36.81 4.48 3.11
sda6 0.00 1.71 0.01 2.19 0.09 15.61 14.29 0.03 12.40 5.84 1.28
sda7 0.08 28.56 0.25 12.24 19.52 163.22 29.28 0.27 21.46 5.00 6.25
说明:
rrqm/s:
每秒进行 merge
的读操作数目.即
delta(rmerge)/s
wrqm/s:
每秒进行 merge
的写操作数目.即
delta(wmerge)/s
r/s:
每秒完成的读 I/O
设备次数.即
delta(rio)/s
w/s:
每秒完成的写 I/O
设备次数.即
delta(wio)/s
rsec/s:
每秒读扇区数.即
delta(rsect)/s
wsec/s:
每秒写扇区数.即
delta(wsect)/s
rkB/s:
每秒读K字节数.是
rsect/s
的一半,因为每扇区大小为512字节.(需要计算)
wkB/s:
每秒写K字节数.是
wsect/s
的一半.(需要计算)
avgrq-sz:平均每次设备I/O操作的数据大小
(扇区).delta(rsect+wsect)/delta(rio+wio)
avgqu-sz:平均I/O队列长度.即
delta(aveq)/s/1000
(因为aveq的单位为毫秒).
await:
平均每次设备I/O操作的等待时间
(毫秒).即
delta(ruse+wuse)/delta(rio+wio)
svctm:
平均每次设备I/O操作的服务时间
(毫秒).即
delta(use)/delta(rio+wio)
%util:
一秒中有百分之多少的时间用于 I/O
操作,或者说一秒中有多少时间
I/O
队列是非空的,即
delta(use)/s/1000
(因为use的单位为毫秒)
如果 %util
接近
100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。
idle小于70%
IO压力就较大了,一般读取速度有较多的wait。
同时可以结合vmstat
查看查看b参数(等待资源的进程数)和wa参数(IO等待所占用的CPU时间的百分比,高过30%时IO压力高)。
另外 await
的参数也要多和 svctm
来参考。差的过高就一定有
IO
的问题。
avgqu-sz
也是个做 IO
调优时需要注意的地方,这个就是直接每次操作的数据的大小,如果次数多,但数据拿的小的话,其实
IO
也会很小。如果数据拿的大,才IO
的数据会高。也可以通过
avgqu-sz
× ( r/s or w/s ) = rsec/s or wsec/s。也就是讲,读定速度是这个来决定的。
svctm
一般要小于 await
(因为同时等待的请求的等待时间被重复计算了),svctm
的大小一般和磁盘性能有关,CPU/内存的负荷也会对其有影响,请求过多也会间接导致
svctm
的增加。await
的大小一般取决于服务时间(svctm)
以及 I/O
队列的长度和 I/O
请求的发出模式。如果
svctm
比较接近 await,说明
I/O
几乎没有等待时间;如果
await
远大于 svctm,说明
I/O
队列太长,应用得到的响应时间变慢,如果响应时间超过了用户可以容许的范围,这时可以考虑更换更快的磁盘,调整内核
elevator
算法,优化应用,或者升级
CPU。
队列长度(avgqu-sz)也可作为衡量系统
I/O
负荷的指标,但由于
avgqu-sz
是按照单位时间的平均值,所以不能反映瞬间的
I/O
洪水。
形象的比喻:
r/s+w/s 类似于交款人的总数
平均队列长度(avgqu-sz)类似于单位时间里平均排队人的个数
平均服务时间(svctm)类似于收银员的收款速度
平均等待时间(await)类似于平均每人的等待时间
平均I/O数据(avgrq-sz)类似于平均每人所买的东西多少
I/O 操作率
(%util)类似于收款台前有人排队的时间比例
设备IO操作:总IO(io)/s
= r/s(读)
+w/s(写)
=1.46 + 25.28=26.74
平均每次设备I/O操作只需要0.36毫秒完成,现在却需要10.57毫秒完成,因为发出的请求太多(每秒26.74个),假如请求时同时发出的,可以这样计算平均等待时间:
平均等待时间=单个I/O服务器时间*(1+2+...+请求总数-1)/请求总数
每秒发出的I/0请求很多,但是平均队列就4,表示这些请求比较均匀,大部分处理还是比较及时。
实例8:查看cpu状态
命令:
iostat
-c 1 3
输出:
[root@CT1186 ~]月28日
avg-cpu: %user %nice %system %iowait %steal %idle
8.30 0.02 5.07 0.17 0.00 86.44
avg-cpu: %user %nice %system %iowait %steal %idle
8.64 0.00 5.38 0.00 0.00 85.98
avg-cpu: %user %nice %system %iowait %steal %idle
7.62 0.00 5.12 0.50 0.00 86.75
说明:
watch是一个非常实用的命令,基本所有的Linux发行版都带有这个小工具,如同名字一样,watch可以帮你监测一个命令的运行结果,省得你一遍遍的手动运行。在Linux下,watch是周期性的执行下个程序,并全屏显示执行结果。你可以拿他来监测你想要的一切命令的结果变化,比如
tail
一个
log
文件,ls
监测某个文件的大小变化,看你的想象力了!
1.命令格式:
watch[参数][命令]
2.命令功能:
可以将命令的输出结果输出到标准输出设备,多用于周期性执行命令/定时执行命令
3.命令参数:
秒运行一下程序,可以用-n或-interval来指定间隔的时间。
-d或--differences 用-d或--differences 选项watch 会高亮显示变化的区域。 而-d=cumulative选项会把变动过的地方(不管最近的那次有没有变动)都高亮显示出来。
-t 或-no-title 会关闭watch命令在顶部的时间间隔,命令,当前时间的输出。
-h,
--help 查看帮助文档
4.使用实例:
实例1:
命令:每隔一秒高亮显示网络链接数的变化情况
watch
-n 1 -d netstat -ant
说明:
其它操作:
切换终端:
Ctrl+x
退出watch:Ctrl+g
实例2:每隔一秒高亮显示http链接数的变化情况
命令:
watch
-n 1 -d 'pstree|grep http'
说明:
每隔一秒高亮显示http链接数的变化情况。
后面接的命令若带有管道符,需要加''将命令区域归整。
实例3:实时查看模拟攻击客户机建立起来的连接数
命令:
watch
'netstat -an | grep:21 | \ grep<模拟攻击客户机的IP>|
wc -l'
说明:
实例4:监测当前目录中 scf' 的文件的变化
命令:
watch
-d 'ls -l|grep scf'
实例5:10秒一次输出系统的平均负载
命令:
watch
-n 10 'cat /proc/loadavg'
在windows系统中,windows提供了计划任务这一功能,在控制面板
->
性能与维护
->
任务计划,
它的功能就是安排自动运行的任务。
通过'添加任务计划'的一步步引导,则可建立一个定时执行的任务。
在
linux系统中你可能已经发现了为什么系统常常会自动的进行一些任务?这些任务到底是谁在支配他们工作的?在linux系统如果你想要让自己设计的备份
程序可以自动在某个时间点开始在系统底下运行,而不需要手动来启动它,又该如何处置呢?
这些例行的工作可能又分为一次性定时工作与循环定时工作,在系统
内又是哪些服务在负责?
还有,如果你想要每年在老婆的生日前一天就发出一封信件提醒自己不要忘记,linux系统下该怎么做呢?
今天我们主要学习一下一次性定时计划任务的at命令的用法!
1.命令格式:
at[参数][时间]
2.命令功能:
在一个指定的时间执行一个指定任务,只能执行一次,且需要开启atd进程(
ps
-ef | grep atd查看,
开启用/etc/init.d/atd
start or restart;
开机即启动则需要运行 chkconfig
--level 2345 atd on)。
3.命令参数:
-m
当指定的任务被完成之后,将给用户发送邮件,即使没有标准输出
-I
atq的别名
-d
atrm的别名
-v
显示任务将被执行的时间
-c
打印任务的内容到标准输出
-V
显示版本信息
-q<列队>
使用指定的列队
-f<文件>
从指定文件读入任务而不是从标准输入读入
-t<时间参数>
以时间参数的形式提交要运行的任务
at
允许使用一套相当复杂的指定时间的方法。他能够接受在当天的hh:mm(小时:分钟)式的时间指定。假如该时间已过去,那么就放在第二天执行。当然也能够
使用midnight(深夜),noon(中午),teatime(饮茶时间,一般是下午4点)等比较模糊的
词语来指定时间。用户还能够采用12小时计
时制,即在时间后面加上AM(上午)或PM(下午)来说明是上午还是下午。
也能够指定命令执行的具体日期,指定格式为month
day(月
日)或 mm/dd/yy(月/日/年)或dd.mm.yy(日.月.年)。指定的日期必须跟在指定时间的后面。
上面介绍的都是绝对计时法,其实还能够使用相对
计时法,这对于安排不久就要执行的命令是很有好处的。指定格式为:now
+ count time-units ,now就是当前时间,time-
units是时间单位,这里能够是minutes(分钟)、hours(小时)、days(天)、weeks(星期)。count是时间的数量,究竟是几
天,还是几小时,等等。
更有一种计时方法就是直接使用today(今天)、tomorrow(明天)来指定完成命令的时间。
TIME:时间格式,这里可以定义出什么时候要进行
at
这项任务的时间,格式有:
HH:MM
ex>
04:00
在今日的
HH:MM
时刻进行,若该时刻已超过,则明天的
HH:MM
进行此任务。
HH:MM
YYYY-MM-DD
ex>
04:00 2009-03-17
强制规定在某年某月的某一天的特殊时刻进行该项任务
HH:MM[am|pm]
[Month] [Date]
ex>
04pm March 17
也是一样,强制在某年某月某日的某时刻进行该项任务
HH:MM[am|pm]
+ number [minutes|hours|days|weeks]
ex>
now + 5 minutes
ex>
04pm + 3 days
就是说,在某个时间点再加几个时间后才进行该项任务。
4.使用实例:
实例1:三天后的下午
5
点锺执行
/bin/ls
命令:
at
5pm+3 days
输出:
[root@localhost ~]# at 5pm+3 days
at> /bin/ls
at> <EOT>
job 7 at 2013-01-08 17:00
[root@localhost ~]#
说明:
实例2:明天17点钟,输出时间到指定文件内
命令:
at
17:20 tomorrow
输出:
[root@localhost ~]# at 17:20 tomorrow
at> date >/root/2013.log
at> <EOT>
job 8 at 2013-01-06 17:20
[root@localhost ~]#
说明:
实例3:计划任务设定后,在没有执行之前我们可以用atq命令来查看系统没有执行工作任务
命令:
atq
输出:
[root@localhost ~]# atq
8 2013-01-06 17:20 a root
7 2013-01-08 17:00 a root
[root@localhost ~]#
说明:
实例4:删除已经设置的任务
命令:
atrm
7
输出:
[root@localhost ~]# atq
8 2013-01-06 17:20 a root
7 2013-01-08 17:00 a root
[root@localhost ~]# atrm 7
[root@localhost ~]# atq
8 2013-01-06 17:20 a root
[root@localhost ~]#
说明:
实例5:显示已经设置的任务内容
命令:
at
-c 8
输出:
[root@localhost ~]# at -c 8
#!/bin/sh
# atrun uid=0 gid=0
# mail root 0
umask 22此处省略n个字符
date >/root/2013.log
[root@localhost ~]#
说明:
实例6:
命令:
输出:
说明:
5.atd
的启动与
at
运行的方式:
5.1
atd 的启动
要使用一次性计划任务时,我们的
Linux
系统上面必须要有负责这个计划任务的服务,那就是
atd
服务。
不过并非所有的 Linux
distributions 都默认会把他打开的,所以,某些时刻我们需要手动将atd
服务激活才行。
激活的方法很简单,就是这样:
命令:
/etc/init.d/atd
start
/etc/init.d/atd
restart
输出:
[root@localhost /]# /etc/init.d/atd start
[root@localhost /]# /etc/init.d/atd
用法:/etc/init.d/atd {start|stop|restart|condrestart|status}
[root@localhost /]# /etc/init.d/atd stop
停止 atd:[确定]
[root@localhost /]# ps -ef|grep atd
root 25062 24951 0 14:53 pts/0 00:00:00 grep atd
[root@localhost /]# /etc/init.d/atd start
[确定]td:[确定]
[root@localhost /]# ps -ef|grep atd
root 25068 1 0 14:53 ? 00:00:00 /usr/sbin/atd
root 25071 24951 0 14:53 pts/0 00:00:00 grep atd
[root@localhost /]# /etc/init.d/atd restart
停止 atd:[确定]
[确定]td:[确定]
[root@localhost /]#
说明:
/etc/init.d/atd
start没有启动的时候,直接启动atd服务
/etc/init.d/atd
restart服务已经启动后,重启
atd
服务
备注:配置一下启动时就启动这个服务,免得每次重新启动都得再来一次
命令:
chkconfig
atd on
输出:
[root@localhost /]# chkconfig atd on
[root@localhost /]#
5.2
at 的运行方式
既然是计划任务,那么应该会有任务执行的方式,并且将这些任务排进行程表中。那么产生计划任务的方式是怎么进行的?
事实上,我们使用
at
这个命令来产生所要运行的计划任务,并将这个计划任务以文字档的方式写入
/var/spool/at/
目录内,该工作便能等待
atd
这个服务的取用与运行了。就这么简单。
不过,并不是所有的人都可以进行
at
计划任务。为什么?
因为系统安全的原因。很多主机被所谓的攻击破解后,最常发现的就是他们的系统当中多了很多的黑客程序,
这些程序非常可能运用一些计划任务来运行或搜集你的系统运行信息,并定时的发送给黑客。
所以,除非是你认可的帐号,否则先不要让他们使用
at
命令。那怎么达到使用
at
的可控呢?
我们可以利用
/etc/at.allow
与
/etc/at.deny
这两个文件来进行
at
的使用限制。加上这两个文件后,
at
的工作情况是这样的:
先找寻
/etc/at.allow
这个文件,写在这个文件中的使用者才能使用
at
,没有在这个文件中的使用者则不能使用
at
(即使没有写在
at.deny
当中);
如果
/etc/at.allow
不存在,就寻找
/etc/at.deny
这个文件,若写在这个
at.deny
的使用者则不能使用
at
,而没有在这个
at.deny
文件中的使用者,就可以使用
at
命令了。
如果两个文件都不存在,那么只有
root
可以使用
at
这个命令。
透过这个说明,我们知道
/etc/at.allow
是管理较为严格的方式,而
/etc/at.deny
则较为松散
(因为帐号没有在该文件中,就能够运行
at
了)。在一般的
distributions
当中,由于假
设系统上的所有用户都是可信任的, 因此系统通常会保留一个空的
/etc/at.deny
文件,意思是允许所有人使用
at
命令的意思
(您可以自
行检查一下该文件)。
不过,万一你不希望有某些使用者使用 at
的话,将那个使用者的帐号写入
/etc/at.deny
即可!
一个帐号写一行。
前
一天学习了 at
命令是针对仅运行一次的任务,循环运行的例行性计划任务,linux系统则是由
cron
(crond) 这个系统服务来控制的。
Linux
系统上面原本就有非常多的计划性工作,因此这个系统服务是默认启动的。另外,
由于使用者自己也可以设置计划任务,所以,
Linux
系统
也提供了使用者控制计划任务的命令 :crontab
命令。
一、crond简介
crond
是linux下用来周期性的执行某种任务或等待处理某些事件的一个守护进程,与windows下的计划任务类似,当安装完成操作系统后,默认会安装此服务
工具,并且会自动启动crond进程,crond进程每分钟会定期检查是否有要执行的任务,如果有要执行的任务,则自动执行该任务。
Linux下的任务调度分为两类,系统任务调度和用户任务调度。
系统任务调度:系统周期性所要执行的工作,比如写缓存数据到硬盘、日志清理等。在/etc目录下有一个crontab文件,这个就是系统任务调度的配置文件。
/etc/crontab文件包括下面几行:
[root@localhost ~]# cat /etc/crontab
SHELL=/bin/bash
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=""HOME=/
# run-parts
51 * * * * root run-parts /etc/cron.hourly
24 7 * * * root run-parts /etc/cron.daily
22 4 * * 0 root run-parts /etc/cron.weekly
42 4 1 * * root run-parts /etc/cron.monthly
[root@localhost ~]#
前
四行是用来配置crond任务运行的环境变量,第一行SHELL变量指定了系统要使用哪个shell,这里是bash,第二行PATH变量指定了系统执行
命令的路径,第三行MAILTO变量指定了crond的任务执行信息将通过电子邮件发送给root用户,如果MAILTO变量的值为空,则表示不发送任务
执行信息给用户,第四行的HOME变量指定了在执行命令或者脚本时使用的主目录。第六至九行表示的含义将在下个小节详细讲述。这里不在多说。
用户任务调度:用户定期要执行的工作,比如用户数据备份、定时邮件提醒等。用户可以使用
crontab
工具来定制自己的计划任务。所有用户定义的crontab
文件都被保存在
/var/spool/cron目录中。其文件名与用户名一致。
使用者权限文件:
文件:
/etc/cron.deny
说明:
该文件中所列用户不允许使用crontab命令
文件:
/etc/cron.allow
说明:
该文件中所列用户允许使用crontab命令
文件:
/var/spool/cron/
说明:
所有用户crontab文件存放的目录,以用户名命名
crontab文件的含义:
用户所建立的crontab文件中,每一行都代表一项任务,每行的每个字段代表一项设置,它的格式共分为六个字段,前五段是时间设定段,第六段是要执行的命令段,格式如下:
minute
hour day month week command
其中:
minute:
表示分钟,可以是从0到59之间的任何整数。
hour:表示小时,可以是从0到23之间的任何整数。
day:表示日期,可以是从1到31之间的任何整数。
month:表示月份,可以是从1到12之间的任何整数。
week:表示星期几,可以是从0到7之间的任何整数,这里的0或7代表星期日。
command:要执行的命令,可以是系统命令,也可以是自己编写的脚本文件。
在以上各个字段中,还可以使用以下特殊字符:
星号(*):代表所有可能的值,例如month字段如果是星号,则表示在满足其它字段的制约条件后每月都执行该命令操作。
逗号(,):可以用逗号隔开的值指定一个列表范围,例如,“1,2,5,7,8,9”
中杠(-):可以用整数之间的中杠表示一个整数范围,例如“2-6”表示“2,3,4,5,6”
正斜线(/):可以用正斜线指定时间的间隔频率,例如“0-23/2”表示每两小时执行一次。同时正斜线可以和星号一起使用,例如*/10,如果用在minute字段,表示每十分钟执行一次。
二、crond服务
安装crontab:
yum
install crontabs
服务操作说明:
/sbin/service
crond start //启动服务
/sbin/service
crond stop //关闭服务
/sbin/service
crond restart //重启服务
/sbin/service
crond reload //重新载入配置
查看crontab服务状态:
service
crond status
手动启动crontab服务:
service
crond start
查看crontab服务是否已设置为开机启动,执行命令:
ntsysv
加入开机自动启动:
chkconfig
–level 35 crond on
三、crontab命令详解
1.命令格式:
crontab
[-u user] file
crontab
[-u user] [ -e | -l | -r ]
2.命令功能:
通过crontab
命令,我们可以在固定的间隔时间执行指定的系统指令或
shell
script脚本。时间间隔的单位可以是分钟、小时、日、月、周及以上的任意组合。这个命令非常设合周期性的日志分析或数据备份等工作。
3.命令参数:
-u
user:用来设定某个用户的crontab服务,例如,“-u
ixdba”表示设定ixdba用户的crontab服务,此参数一般有root用户来运行。
file:file是命令文件的名字,表示将file做为crontab的任务列表文件并载入crontab。如果在命令行中没有指定这个文件,crontab命令将接受标准输入(键盘)上键入的命令,并将它们载入crontab。
-e:编辑某个用户的crontab文件内容。如果不指定用户,则表示编辑当前用户的crontab文件。
-l:显示某个用户的crontab文件内容,如果不指定用户,则表示显示当前用户的crontab文件内容。
-r:从/var/spool/cron目录中删除某个用户的crontab文件,如果不指定用户,则默认删除当前用户的crontab文件。
-i:在删除用户的crontab文件时给确认提示。
4.常用方法:
1).
创建一个新的crontab文件
在
考虑向cron进程提交一个crontab文件之前,首先要做的一件事情就是设置环境变量EDITOR。cron进程根据它来确定使用哪个编辑器编辑
crontab文件。9
9 %的UNIX和LINUX用户都使用vi,如果你也是这样,那么你就编辑$
HOME目录下的.
profile文件,在其
中加入这样一行:
EDITOR=vi;
export EDITOR
然后保存并退出。不妨创建一个名为<user>
cron的文件,其中<user>是用户名,例如,
davecron。在该文件中加入如下的内容。
#
(put your own initials here)echo the date to the console every
#
15minutes between 6pm and 6am
0,15,30,45
18-06 * * * /bin/echo 'date' > /dev/console
保存并退出。确信前面5个域用空格分隔。
在
上面的例子中,系统将每隔1
5分钟向控制台输出一次当前时间。如果系统崩溃或挂起,从最后所显示的时间就可以一眼看出系统是什么时间停止工作的。在有些
系统中,用tty1来表示控制台,可以根据实际情况对上面的例子进行相应的修改。为了提交你刚刚创建的crontab文件,可以把这个新创建的文件作为
cron命令的参数:
$
crontab davecron
现在该文件已经提交给cron进程,它将每隔1
5分钟运行一次。
同时,新创建文件的一个副本已经被放在/var/spool/cron目录中,文件名就是用户名(即dave)。
2).
列出crontab文件
为了列出crontab文件,可以用:
$
crontab -l
0,15,30,45,18-06
* * * /bin/echo `date` > dev/tty1
你将会看到和上面类似的内容。可以使用这种方法在$
H O M E目录中对crontab文件做一备份:
$
crontab -l > $HOME/mycron
这样,一旦不小心误删了crontab文件,可以用上一节所讲述的方法迅速恢复。
3).
编辑crontab文件
如果希望添加、删除或编辑crontab文件中的条目,而E
D I TO R环境变量又设置为v
i,那么就可以用v
i来编辑crontab文件,相应的命令为:
$
crontab -e
可以像使用v
i编辑其他任何文件那样修改crontab文件并退出。如果修改了某些条目或添加了新的条目,那么在保存该文件时,
c
r o n会对其进行必要的完整性检查。如果其中的某个域出现了超出允许范围的值,它会提示你。
我们在编辑crontab文件时,没准会加入新的条目。例如,加入下面的一条:
#
DT:delete core files,at 3.30am on 1,7,14,21,26,26 days of each month
30
3 1,7,14,21,26 * * /bin/find -name "core' -exec rm {} \;
现在保存并退出。最好在crontab文件的每一个条目之上加入一条注释,这样就可以知道它的功能、运行时间,更为重要的是,知道这是哪位用户的作业。
现在让我们使用前面讲过的crontab
-l命令列出它的全部信息:
$
crontab -l
#
(crondave installed on Tue May 4 13:07:43 1999)
#
DT:ech the date to the console every 30 minites
0,15,30,45
18-06 * * * /bin/echo `date` > /dev/tty1
#
DT:delete core files,at 3.30am on 1,7,14,21,26,26 days of each month
30
3 1,7,14,21,26 * * /bin/find -name "core' -exec rm {} \;
4).
删除crontab文件
要删除crontab文件,可以用:
$
crontab -r
5).
恢复丢失的crontab文件
如果不小心误删了crontab文件,假设你在自己的$
H O M
E目录下还有一个备份,那么可以将其拷贝到/var/spool/cron/<username>,其中<username>是用户名。如果由于权限问题无法完成拷贝,可以用:
$
crontab <filename>
其中,<filename>是你在$
H O M E目录中副本的文件名。
我建议你在自己的$
H O M
E目录中保存一个该文件的副本。我就有过类似的经历,有数次误删了crontab文件(因为r键紧挨在e键的右边)。这就是为什么有些系统文档建议不要直接编辑crontab文件,而是编辑该文件的一个副本,然后重新提交新的文件。
有些crontab的变体有些怪异,所以在使用crontab命令时要格外小心。如果遗漏了任何选项,crontab可能会打开一个空文件,或者看起来像是个空文件。这时敲delete键退出,不要按<Ctrl-D>,否则你将丢失crontab文件。
5.使用实例
实例1:每1分钟执行一次command
命令:
*
* * * * command
实例2:每小时的第3和第15分钟执行
命令:
3,15
* * * * command
实例3:在上午8点到11点的第3和第15分钟执行
命令:
3,15
8-11 * * * command
实例4:每隔两天的上午8点到11点的第3和第15分钟执行
命令:
3,15
8-11 */2 * * command
实例5:每个星期一的上午8点到11点的第3和第15分钟执行
命令:
3,15
8-11 * * 1 command
实例6:每晚的21:30重启smb
命令:
30
21 * * * /etc/init.d/smb restart
实例7:每月1、10、22日的4
: 45重启smb
命令:
45
4 1,10,22 * * /etc/init.d/smb restart
实例8:每周六、周日的1
: 10重启smb
命令:
10
1 * * 6,0 /etc/init.d/smb restart
实例9:每天18
: 00至23
: 00之间每隔30分钟重启smb
命令:
0,30
18-23 * * * /etc/init.d/smb restart
实例10:每星期六的晚上11
: 00 pm重启smb
命令:
0
23 * * 6 /etc/init.d/smb restart
实例11:每一小时重启smb
命令:
*
*/1 * * * /etc/init.d/smb restart
实例12:晚上11点到早上7点之间,每隔一小时重启smb
命令:
*
23-7/1 * * * /etc/init.d/smb restart
实例13:每月的4号与每周一到周三的11点重启smb
命令:
0
11 4 * mon-wed /etc/init.d/smb restart
实例14:一月一号的4点重启smb
命令:
0
4 1 jan * /etc/init.d/smb restart
实例15:每小时执行/etc/cron.hourly目录内的脚本
命令:
01
* * * * root run-parts /etc/cron.hourly
说明:
run-parts这个参数了,如果去掉这个参数的话,后面就可以写要运行的某个脚本名,而不是目录名了
四、使用注意事项
1.
注意环境变量问题
有时我们创建了一个crontab,但是这个任务却无法自动执行,而手动执行这个任务却没有问题,这种情况一般是由于在crontab文件中没有配置环境变量引起的。
在
crontab文件中定义多个调度任务时,需要特别注意的一个问题就是环境变量的设置,因为我们手动执行某个任务时,是在当前shell环境下进行的,程
序当然能找到环境变量,而系统自动执行任务调度时,是不会加载任何环境变量的,因此,就需要在crontab文件中指定任务运行所需的所有环境变量,这
样,系统执行任务调度时就没有问题了。
不要假定cron知道所需要的特殊环境,它其实并不知道。所以你要保证在shelll脚本中提供所有必要的路径和环境变量,除了一些自动设置的全局变量。所以注意如下3点:
1)脚本中涉及文件路径时写全局路径;
2)脚本执行要用到java或其他环境变量时,通过source命令引入环境变量,如:
cat
start_cbp.sh
#!/bin/sh
source
/etc/profile
export
RUN_CONF=/home/d139/conf/platform/cbp/cbp_jboss.conf
/usr/local/jboss-4.0.5/bin/run.sh
-c mev &
3)当手动执行脚本OK,但是crontab死活不执行时。这时必须大胆怀疑是环境变量惹的祸,并可以尝试在crontab中直接引入环境变量解决问题。如:
0
* * * * . /etc/profile;/bin/sh
/var/www/java/audit_no_count/bin/restart_audit.sh
2.
注意清理系统用户的邮件日志
每条任务调度执行完毕,系统都会将任务输出信息通过电子邮件的形式发送给当前系统用户,这样日积月累,日志信息会非常大,可能会影响系统的正常运行,因此,将每条任务进行重定向处理非常重要。
例如,可以在crontab文件中设置如下形式,忽略日志输出:
0
*/3 * * * /usr/local/apache2/apachectl restart >/dev/null 2>&1
“/dev/null
2>&1”表示先将标准输出重定向到/dev/null,然后将标准错误重定向到标准输出,由于标准输出已经重定向到了/dev/null,因此标准错误也会重定向到/dev/null,这样日志输出问题就解决了。
3.
系统级任务调度与用户级任务调度
系
统级任务调度主要完成系统的一些维护操作,用户级任务调度主要完成用户自定义的一些任务,可以将用户级任务调度放到系统级任务调度来完成(不建议这么
做),但是反过来却不行,root用户的任务调度操作可以通过“crontab
–uroot –e”来设置,也可以将调度任务直接写入/etc
/crontab文件,需要注意的是,如果要定义一个定时重启系统的任务,就必须将任务放到/etc/crontab文件,即使在root用户下创建一个
定时重启系统的任务也是无效的。
4. 其他注意事项
新创建的cron job,不会马上执行,至少要过2分钟才执行。如果重启cron则马上执行。
当crontab突然失效时,可以尝试/etc/init.d/crond restart解决问题。或者查看日志看某个job有没有执行/报错tail -f /var/log/cron。
千万别乱运行crontab -r。它从Crontab目录(/var/spool/cron)中删除用户的Crontab文件。删除了该用户的所有crontab都没了。
在crontab中%是有特殊含义的,表示换行的意思。如果要用的话必须进行转义\%,如经常用的date ‘+%Y%m%d’在crontab里是不会执行的,应该换成date ‘+\%Y\%m\%d’。
网络命令:
用SecureCRT来上传和下载文件rz
用SSH管理linux服务器时经常需要远程与本地之间交互文件.而直接用SecureCRT自带的上传下载功能无疑是最方便的,SecureCRT下的文件传输协议有ASCII、Xmodem、Zmodem。
文件传输协议:
文件传输是数据交换的主要形式。在进行文件传输时,为使文件能被正确识别和传送,我们需要在两台计算机之间建立统一的传输协议。这个协议包括了文件的识别、传送的起止时间、错误的判断与纠正等内容。常见的传输协议有以下几种:
ASCII:这是最快的传输协议,但只能传送文本文件。
Xmodem:这种古老的传输协议速度较慢,但由于使用了CRC错误侦测方法,传输的准确率可高达99.6%。
Ymodem:这是Xmodem的改良版,使用了1024位区段传送,速度比Xmodem要快
Zmodem:Zmodem采用了串流式(streaming)传输方式,传输速度较快,而且还具有自动改变区段大小和断点续传、快速错误侦测等功能。这是目前最流行的文件传输协议。
除以上几种外,还有Imodem、Jmodem、Bimodem、Kermit、Lynx等协议,由于没有多数厂商支持,这里就略去不讲。
SecureCRT可以使用linux下的zmodem协议来快速的传送文件,使用非常方便.具体步骤:
一.在使用SecureCRT上传下载之前需要给服务器安装lrzsz:
1、从下面的地址下载
lrzsz-0.12.20.tar.gz
http://down1.chinaunix.net/distfiles/lrzsz-0.12.20.tar.gz
2、查看里面的INSTALL文档了解安装参数说明和细节
3、解压文件
tar
zxvf lrzsz-0.12.20.tar.gz
4、进入目录
cd
lrzsz-0.12.20
5、./configure
--prefix=/usr/local/lrzsz
6、make
7、make
install
8、建立软链接
#cd
/usr/bin
#ln
-s /usr/local/lrzsz/bin/lrz rz
#ln
-s /usr/local/lrzsz/bin/lsz sz
9、测试
运行
rz
弹出SecureCRT上传窗口,用SecureCRT来上传和下载文件。
二.设置SecureCRT上传和下载的默认目录就行
options->session
options ->Terminal->Xmodem/Zmodem 下
在右栏directory设置上传和下载的目录
三.使用Zmodem从客户端上传文件到linux服务器
1.在用SecureCRT登陆linux终端.
2.选中你要放置上传文件的路径,在目录下然后输入rz命令,SecureCRT会弹出文件选择对话框,在查找范围中找到你要上传的文件,按Add按钮。然后OK就可以把文件上传到linux上了。
或者在Transfer->Zmodem
Upoad
list弹出文件选择对话框,选好文件后按Add按钮。然后OK窗口自动关闭。然后在linux下选中存放文件的目录,输入rz命令。liunx就把那个文件上传到这个目录下了。
四.使用Zmodem下载文件到客户端:
sz
filename
zmodem接收可以自行启动.下载的文件存放在你设定的默认下载目录下.
rz,sz
是Linux/Unix同Windows进行ZModem文件传输的命令行工具windows端需要支持ZModem的telnet/ssh客户
端,SecureCRT就可以用SecureCRT登陆到Unix/Linux主机(telnet或ssh均可)O
运行命令rz,即是接收文
件,SecureCRT就会弹出文件选择对话框,选好文件之后关闭对话框,文件就会上传到当前目录
O
运行命令sz
file1 file2就是发文件
到windows上(保存的目录是可以配置)
比ftp命令方便多了,而且服务器不用再开FTP服务了
lsof(list
open files)
是一个列出当前系统打开文件的工具。在linux环境下,任何事物都以文件的形式存在,通过文件不仅仅可以访问常规数据,还可以访问网络连接和硬件。所以
如传输控制协议 (TCP)
和用户数据报协议 (UDP)
套接字等,系统在后台都为该应用程序分配了一个文件描述符,无论这个文件的本质如何,该文件
描述符为应用程序与基础操作系统之间的交互提供了通用接口。因为应用程序打开文件的描述符列表提供了大量关于这个应用程序本身的信息,因此通过lsof工
具能够查看这个列表对系统监测以及排错将是很有帮助的。
1.命令格式:
lsof [参数][文件]
2.命令功能:
用于查看你进程打开的文件,打开文件的进程,进程打开的端口(TCP、UDP)。找回/恢复删除的文件。是十分方便的系统监视工具,因为
lsof
需要访问核心内存和各种文件,所以需要root用户执行。
lsof打开的文件可以是:
1.普通文件
2.目录
3.网络文件系统的文件
4.字符或设备文件
5.(函数)共享库
6.管道,命名管道
7.符号链接
8.网络文件(例如:NFS
file、网络socket,unix域名socket)
9.还有其它类型的文件,等等
3.命令参数:
-a
列出打开文件存在的进程
-c<进程名>
列出指定进程所打开的文件
-g
列出GID号进程详情
-d<文件号>
列出占用该文件号的进程
+d<目录>
列出目录下被打开的文件
+D<目录>
递归列出目录下被打开的文件
-n<目录>
列出使用NFS的文件
-i<条件>
列出符合条件的进程。(4、6、协议、:端口、
@ip
)
-p<进程号>
列出指定进程号所打开的文件
-u
列出UID号进程详情
-h
显示帮助信息
-v
显示版本信息
4.使用实例:
实例1:无任何参数
命令:
lsof
输出:
[root@localhost ~]# lsof
COMMAND
PID USER FD
TYPE DEVICE SIZE NODE NAME
init 1 root cwd DIR 8,2 4096 2 /
init 1 root rtd DIR 8,2 4096 2 /
init 1 root txt REG 8,2
43496 6121706 /sbin/init
init 1 root mem REG 8,2
143600 7823908 /lib64/ld-2.5.so
init 1 root mem REG 8,2
1722304 7823915 /lib64/libc-2.5.so
init 1 root mem REG 8,2 23360 7823919 /lib64/libdl-2.5.so
init 1 root mem REG 8,2 95464 7824116 /lib64/libselinux.so.1
init 1 root mem REG 8,2
247496 7823947 /lib64/libsepol.so.1
init 1 root 10u
FIFO
0,17 1233 /dev/initctl
migration 2 root cwd
DIR
8,2 4096 2 /
说明:
lsof输出各列信息的意义如下:
COMMAND:进程的名称
PID:进程标识符
PPID:父进程标识符(需要指定-R参数)
USER:进程所有者
PGID:进程所属组
FD:文件描述符,应用程序通过文件描述符识别该文件。如cwd、txt等
(1)cwd:表示current
work dirctory,即:应用程序的当前工作目录,这是该应用程序启动的目录,除非它本身对这个目录进行更改
(2)txt
:该类型的文件是程序代码,如应用程序二进制文件本身或共享库,如上列表中显示的
/sbin/init
程序
(3)lnn:library
references (AIX);
(4)er:FD
information error (see NAME column);
(5)jld:jail
directory (FreeBSD);
(6)ltx:shared
library text (code and data);
(7)mxx
:hex
memory-mapped type number xx.
(8)m86:DOS
Merge mapped file;
(9)mem:memory-mapped
file;
(10)mmap:memory-mapped
device;
(11)pd:parent
directory;
(12)rtd:root
directory;
(13)tr:kernel
trace file (OpenBSD);
(14)v86
VP/ix mapped file;
(15)0:表示标准输出
(16)1:表示标准输入
(17)2:表示标准错误
一般在标准输出、标准错误、标准输入后还跟着文件状态模式:r、w、u等
(1)u:表示该文件被打开并处于读取/写入模式
(2)r:表示该文件被打开并处于只读模式
(3)w:表示该文件被打开并处于
(4)空格:表示该文件的状态模式为unknow,且没有锁定
(5)-:表示该文件的状态模式为unknow,且被锁定
同时在文件状态模式后面,还跟着相关的锁
(1)N:for
a Solaris NFS lock of unknown type;
(2)r:for
read lock on part of the file;
(3)R:for
a read lock on the entire file;
(4)w:for
a write lock on part of the file;(文件的部分写锁)
(5)W:for
a write lock on the entire file;(整个文件的写锁)
(6)u:for
a read and write lock of any length;
(7)U:for
a lock of unknown type;
(8)x:for
an SCO OpenServer Xenix lock on part of the file;
(9)X:for
an SCO OpenServer Xenix lock on the entire file;
(10)space:if
there is no lock.
TYPE:文件类型,如DIR、REG等,常见的文件类型
(1)DIR:表示目录
(2)CHR:表示字符类型
(3)BLK:块设备类型
(4)UNIX:
UNIX
域套接字
(5)FIFO:先进先出
(FIFO)
队列
(6)IPv4:网际协议
(IP)
套接字
DEVICE:指定磁盘的名称
SIZE:文件的大小
NODE:索引节点(文件在磁盘上的标识)
NAME:打开文件的确切名称
实例2:查看谁正在使用某个文件,也就是说查找某个文件相关的进程
命令:
lsof
/bin/bash
输出:
[root@localhost ~]# lsof /bin/bash
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
bash 24159 root txt REG 8,2 801528 5368780 /bin/bash
bash 24909 root txt REG 8,2 801528 5368780 /bin/bash
bash 24941 root txt REG 8,2 801528 5368780 /bin/bash
[root@localhost ~]#
说明:
实例3:递归查看某个目录的文件信息
命令:
lsof
test/test3
输出:
[root@localhost ~]# cd /opt/soft/
[root@localhost soft]# lsof test/test3
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
bash 24941 root cwd DIR 8,2 4096 2258872 test/test3
vi 24976 root cwd DIR 8,2 4096 2258872 test/test3
[root@localhost soft]#
说明:
使用了+D,对应目录下的所有子目录和文件都会被列出
实例4:不使用+D选项,遍历查看某个目录的所有文件信息的方法
命令:
lsof
|grep 'test/test3'
输出:
[root@localhost soft]# lsof |grep 'test/test3'
bash 24941 root cwd DIR 8,2 4096 2258872 /opt/soft/test/test3
vi 24976 root cwd DIR 8,2 4096 2258872 /opt/soft/test/test3
vi 24976 root 4u REG 8,2 12288 2258882 /opt/soft/test/test3/.log2013.log.swp
[root@localhost soft]#
说明:
实例5:列出某个用户打开的文件信息
命令:
lsof
-u username
说明:
-u
选项,u其实是user的缩写
实例6:列出某个程序进程所打开的文件信息
命令:
lsof
-c mysql
说明:
-c
选项将会列出所有以mysql这个进程开头的程序的文件,其实你也可以写成
lsof
| grep mysql, 但是第一种方法明显比第二种方法要少打几个字符了
实例7:列出多个进程多个打开的文件信息
命令:
lsof
-c mysql -c apache
实例8:列出某个用户以及某个进程所打开的文件信息
命令:
lsof
-u test -c mysql
说明:
用户与进程可相关,也可以不相关
实例9:列出除了某个用户外的被打开的文件信息
命令:
lsof
-u ^root
说明:
^这个符号在用户名之前,将会把是root用户打开的进程不让显示
实例10:通过某个进程号显示该进行打开的文件
命令:
lsof
-p 1
实例11:列出多个进程号对应的文件信息
命令:
lsof
-p 1,2,3
实例12:列出除了某个进程号,其他进程号所打开的文件信息
命令:
lsof
-p ^1
实例13:列出所有的网络连接
命令:
lsof
-i
实例14:列出所有tcp
网络连接信息
命令:
lsof
-i tcp
实例15:列出所有udp网络连接信息
命令:
lsof
-i udp
实例16:列出谁在使用某个端口
命令:
lsof
-i :3306
实例17:列出谁在使用某个特定的udp端口
命令:
lsof
-i udp:55
或者:特定的tcp端口
命令:
lsof
-i tcp:80
实例18:列出某个用户的所有活跃的网络端口
命令:
lsof
-a -u test -i
实例19:列出所有网络文件系统
命令:
lsof
-N
实例20:域名socket文件
命令:
lsof
-u
实例21:某个用户组所打开的文件信息
命令:
lsof
-g 5555
实例22:根据文件描述列出对应的文件信息
命令:
lsof
-d description(like 2)
例如:lsof
-d txt
例如:lsof
-d 1
例如:lsof
-d 2
说明:
0表示标准输入,1表示标准输出,2表示标准错误,从而可知:所以大多数应用程序所打开的文件的
FD
都是从 3
开始
实例23:根据文件描述范围列出文件信息
命令:
lsof
-d 2-3
实例24:列出COMMAND列中包含字符串"
sshd",且文件描符的类型为txt的文件信息
命令:
lsof
-c sshd -a -d txt
输出:
[root@localhost soft]# lsof -c sshd -a -d txt
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
sshd 2756 root txt REG 8,2 409488 1027867 /usr/sbin/sshd
sshd 24155 root txt REG 8,2 409488 1027867 /usr/sbin/sshd
sshd 24905 root txt REG 8,2 409488 1027867 /usr/sbin/sshd
sshd 24937 root txt REG 8,2 409488 1027867 /usr/sbin/sshd
[root@localhost soft]#
[root@localhost soft]#
实例25:列出被进程号为1234的进程所打开的所有IPV4
network files
命令:
lsof
-i 4 -a -p 1234
实例26:列出目前连接主机peida.linux上端口为:20,21,22,25,53,80相关的所有文件信息,且每隔3秒不断的执行lsof指令
命令:
lsof
-i @peida.linux:20,21,22,25,53,80 -r 3
许多windows非常熟悉ipconfig命令行工具,它被用来获取网络接口配置信息并对此进行修改。Linux系统拥有一个类似的工具,也就是ifconfig(interfaces
config)。通常需要以root身份登录或使用sudo以便在Linux机器上使用ifconfig工具。依赖于ifconfig命令中使用一些选项属性,ifconfig工具不仅可以被用来简单地获取网络接口配置信息,还可以修改这些配置。
1.命令格式:
ifconfig [网络设备] [参数]
2.命令功能:
ifconfig
命令用来查看和配置网络设备。当网络环境发生改变时可通过此命令对网络进行相应的配置。
3.命令参数:
up
启动指定网络设备/网卡。
down
关闭指定网络设备/网卡。该参数可以有效地阻止通过指定接口的IP信息流,如果想永久地关闭一个接口,我们还需要从核心路由表中将该接口的路由信息全部删除。
arp
设置指定网卡是否支持ARP协议。
-promisc
设置是否支持网卡的promiscuous模式,如果选择此参数,网卡将接收网络中发给它所有的数据包
-allmulti
设置是否支持多播模式,如果选择此参数,网卡将接收网络中所有的多播数据包
-a
显示全部接口信息
-s
显示摘要信息(类似于
netstat
-i)
add
给指定网卡配置IPv6地址
del
删除指定网卡的IPv6地址
<硬件地址>
配置网卡最大的传输单元
mtu<字节数>
设置网卡的最大传输单元
(bytes)
netmask<子网掩码>
设置网卡的子网掩码。掩码可以是有前缀0x的32位十六进制数,也可以是用点分开的4个十进制数。如果不打算将网络分成子网,可以不管这一选项;如果要使用子网,那么请记住,网络中每一个系统必须有相同子网掩码。
tunel
建立隧道
dstaddr
设定一个远端地址,建立点对点通信
-broadcast<地址>
为指定网卡设置广播协议
-pointtopoint<地址>
为网卡设置点对点通讯协议
multicast
为网卡设置组播标志
address
为网卡设置IPv4地址
txqueuelen<长度>
为网卡设置传输列队的长度
4.使用实例:
实例1:显示网络设备信息(激活状态的)
命令:
ifconfig
输出:
[root@localhost ~]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:50:56:BF:26:20
inet addr:192.168.120.204 Bcast:192.168.120.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:8700857 errors:0 dropped:0 overruns:0 frame:0
TX packets:31533 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:596390239 (568.7 MiB) TX bytes:2886956 (2.7 MiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:68 errors:0 dropped:0 overruns:0 frame:0
TX packets:68 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:2856 (2.7 KiB) TX bytes:2856 (2.7 KiB)
说明:
eth0
表示第一块网卡, 其中
HWaddr
表示网卡的物理地址,可以看到目前这个网卡的物理地址(MAC地址)是
00:50:56:BF:26:20
inet
addr 用来表示网卡的IP地址,此网卡的
IP地址是
192.168.120.204,广播地址,
Bcast:192.168.120.255,掩码地址Mask:255.255.255.0
lo 是
表示主机的回坏地址,这个一般是用来测试一个网络程序,但又不想让局域网或外网的用户能够查看,只能在此台主机上运行和查看所用的网络接口。比如
把 HTTPD服务器的指定到回坏地址,在浏览器输入
127.0.0.1
就能看到你所架WEB网站了。但只是您能看得到,局域网的其它主机或用户无从
知道。
第一行:连接类型:Ethernet(以太网)HWaddr(硬件mac地址)
第二行:网卡的IP地址、子网、掩码
第三行:UP(代表网卡开启状态)RUNNING(代表网卡的网线被接上)MULTICAST(支持组播)MTU:1500(最大传输单元):1500字节
第四、五行:接收、发送数据包情况统计
第七行:接收、发送数据字节数统计信息。
实例2:启动关闭指定网卡
命令:
ifconfig
eth0 up
ifconfig
eth0 down
输出:
说明:
ifconfig
eth0 up 为启动网卡eth0
;ifconfig
eth0 down 为关闭网卡eth0。ssh登陆linux服务器操作要小心,关闭了就不能开启了,除非你有多网卡。
实例3:为网卡配置和删除IPv6地址
命令:
ifconfig
eth0 add 33ffe:3240:800:1005::2/64
ifconfig
eth0 del 33ffe:3240:800:1005::2/64
输出:
说明:
ifconfig
eth0 add 33ffe:3240:800:1005::2/64 为网卡eth0配置IPv6地址;
ifconfig
eth0 add 33ffe:3240:800:1005::2/64 为网卡eth0删除IPv6地址;
练习的时候,ssh登陆linux服务器操作要小心,关闭了就不能开启了,除非你有多网卡。
实例4:用ifconfig修改MAC地址
命令:
ifconfig
eth0 hw ether 00:AA:BB:CC:DD:EE
输出:
[root@localhost ~]# ifconfig eth0 down //关闭网卡
[root@localhost ~]# ifconfig eth0 hw ether 00:AA:BB:CC:DD:EE //修改MAC地址
[root@localhost ~]# ifconfig eth0 up //启动网卡
[root@localhost ~]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:AA:BB:CC:DD:EE
inet addr:192.168.120.204 Bcast:192.168.120.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:8700857 errors:0 dropped:0 overruns:0 frame:0
TX packets:31533 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:596390239 (568.7 MiB) TX bytes:2886956 (2.7 MiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:68 errors:0 dropped:0 overruns:0 frame:0
TX packets:68 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:2856 (2.7 KiB) TX bytes:2856 (2.7 KiB)
[root@localhost ~]# ifconfig eth0 hw ether 00:50:56:BF:26:20 //关闭网卡并修改MAC地址
[root@localhost ~]# ifconfig eth0 up //启动网卡
[root@localhost ~]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:50:56:BF:26:20
inet addr:192.168.120.204 Bcast:192.168.120.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:8700857 errors:0 dropped:0 overruns:0 frame:0
TX packets:31533 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:596390239 (568.7 MiB) TX bytes:2886956 (2.7 MiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:68 errors:0 dropped:0 overruns:0 frame:0
TX packets:68 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:2856 (2.7 KiB) TX bytes:2856 (2.7 KiB)
说明:
实例5:配置IP地址
命令:
输出:
[root@localhost ~]# ifconfig eth0 192.168.120.56
[root@localhost ~]# ifconfig eth0 192.168.120.56 netmask 255.255.255.0
[root@localhost ~]# ifconfig eth0 192.168.120.56 netmask 255.255.255.0 broadcast 192.168.120.255
说明:
ifconfig
eth0 192.168.120.56
给eth0网卡配置IP地:192.168.120.56
ifconfig
eth0 192.168.120.56 netmask 255.255.255.0
给eth0网卡配置IP地址:192.168.120.56
,并加上子掩码:255.255.255.0
ifconfig
eth0 192.168.120.56 netmask 255.255.255.0 broadcast 192.168.120.255
/给eth0网卡配置IP地址:192.168.120.56,加上子掩码:255.255.255.0,加上个广播地址:
192.168.120.255
实例6:启用和关闭ARP协议
命令:
ifconfig
eth0 arp
ifconfig
eth0 -arp
输出:
[root@localhost ~]# ifconfig eth0 arp
[root@localhost ~]# ifconfig eth0 -arp
说明:
ifconfig
eth0 arp 开启网卡eth0
的arp协议;
ifconfig
eth0 -arp 关闭网卡eth0
的arp协议;
实例7:设置最大传输单元
命令:
ifconfig
eth0 mtu 1500
输出:
[root@localhost ~]# ifconfig eth0 mtu 1480
[root@localhost ~]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:50:56:BF:26:1F
inet addr:192.168.120.203 Bcast:192.168.120.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1480 Metric:1
RX packets:8712395 errors:0 dropped:0 overruns:0 frame:0
TX packets:36631 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:597062089 (569.4 MiB) TX bytes:2643973 (2.5 MiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:9973 errors:0 dropped:0 overruns:0 frame:0
TX packets:9973 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:518096 (505.9 KiB) TX bytes:518096 (505.9 KiB)
[root@localhost ~]# ifconfig eth0 mtu 1500
[root@localhost ~]# ifconfig
eth0 Link encap:Ethernet HWaddr 00:50:56:BF:26:1F
inet addr:192.168.120.203 Bcast:192.168.120.255 Mask:255.255.255.0
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:8712548 errors:0 dropped:0 overruns:0 frame:0
TX packets:36685 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:597072333 (569.4 MiB) TX bytes:2650581 (2.5 MiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:9973 errors:0 dropped:0 overruns:0 frame:0
TX packets:9973 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:518096 (505.9 KiB) TX bytes:518096 (505.9 KiB)
[root@localhost ~]#
说明:
设置能通过的最大数据包大小为 1500
bytes
备注:用ifconfig命令配置的网卡信息,在网卡重启后机器重启后,配置就不存在。要想将上述的配置信息永远的存的电脑里,那就要修改网卡的配置文件了。
Linux系统的route
命令用于显示和操作IP路由表(show
/ manipulate the IP routing table)。要实现两个不同的子网之间的通信,需
要一台连接两个网络的路由器,或者同时位于两个网络的网关来实现。在Linux系统中,设置路由通常是为了解决以下问题:该Linux系统在一个局域网
中,局域网中有一个网关,能够让机器访问Internet,那么就需要将这台机器的IP地址设置为Linux机器的默认路由。要注意的是,直接在命令行下
执行route命令来添加路由,不会永久保存,当网卡重启或者机器重启之后,该路由就失效了;可以在/etc/rc.local中添加route命令来保
证该路由设置永久有效。
1.命令格式:
route
[-f] [-p] [Command [Destination] [mask Netmask] [Gateway] [metric
Metric]] [if Interface]]
2.命令功能:
Route命令是用于操作基于内核ip路由表,它的主要作用是创建一个静态路由让指定一个主机或者一个网络通过一个网络接口,如eth0。当使用"add"或者"del"参数时,路由表被修改,如果没有参数,则显示路由表当前的内容。
3.命令参数:
-c
显示更多信息
-n
不解析名字
-v
显示详细的处理信息
-F
显示发送信息
-C
显示路由缓存
-f
清除所有网关入口的路由表。
-p 与
add
命令一起使用时使路由具有永久性。
add:添加一条新路由。
del:删除一条路由。
-net:目标地址是一个网络。
-host:目标地址是一个主机。
netmask:当添加一个网络路由时,需要使用网络掩码。
gw:路由数据包通过网关。注意,你指定的网关必须能够达到。
metric:设置路由跳数。
Command
指定您想运行的命令
(Add/Change/Delete/Print)。
Destination
指定该路由的网络目标。
mask
Netmask 指定与网络目标相关的网络掩码(也被称作子网掩码)。
Gateway
指定网络目标定义的地址集和子网掩码可以到达的前进或下一跃点
IP
地址。
metric
Metric 为路由指定一个整数成本值标(从
1
至
9999),当在路由表(与转发的数据包目标地址最匹配)的多个路由中进行选择时可以使用。
if
Interface 为可以访问目标的接口指定接口索引。若要获得一个接口列表和它们相应的接口索引,使用
route
print 命令的显示功能。可以使用十进制或十六进制值进行接口索引。
4.使用实例:
实例1:显示当前路由
命令:
route
route
-n
输出:
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
e192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 0.0.0.0 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
0.0.0.0 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
说明:
第一行表示主机所在网络的地址为192.168.120.0,若数据传送目标是在本局域网内通信,则可直接通过eth0转发数据包;
第四行表示数据传送目的是访问Internet,则由接口eth0,将数据包发送到网关192.168.120.240
其中Flags为路由标志,标记当前网络节点的状态。
Flags标志说明:
U
Up表示此路由当前为启动状态
H
Host,表示此网关为一主机
G
Gateway,表示此网关为一路由器
R
Reinstate Route,使用动态路由重新初始化的路由
D
Dynamically,此路由是动态性地写入
M
Modified,此路由是由路由守护程序或导向器动态修改
!
表示此路由当前为关闭状态
备注:
route -n (-n 表示不解析名字,列出速度会比route 快)
实例2:添加网关/设置网关
命令:
route
add -net 224.0.0.0 netmask 240.0.0.0 dev eth0
输出:
[root@localhost ~]# route add -net 224.0.0.0 netmask 240.0.0.0 dev eth0
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
224.0.0.0 * 240.0.0.0 U 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]#
说明:
增加一条 到达244.0.0.0的路由
实例3:屏蔽一条路由
命令:
route
add -net 224.0.0.0 netmask 240.0.0.0 reject
输出:
[root@localhost ~]# route add -net 224.0.0.0 netmask 240.0.0.0 reject
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
224.0.0.0 - 240.0.0.0 ! 0 - 0 -
224.0.0.0 * 240.0.0.0 U 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
说明:
增加一条屏蔽的路由,目的地址为
224.x.x.x
将被拒绝
实例4:删除路由记录
命令:
route
del -net 224.0.0.0 netmask 240.0.0.0
route
del -net 224.0.0.0 netmask 240.0.0.0 reject
输出:
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
224.0.0.0 - 240.0.0.0 ! 0 - 0 -
224.0.0.0 * 240.0.0.0 U 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]# route del -net 224.0.0.0 netmask 240.0.0.0
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
224.0.0.0 - 240.0.0.0 ! 0 - 0 -
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]# route del -net 224.0.0.0 netmask 240.0.0.0 reject
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]#
说明:
实例5:删除和添加设置默认网关
命令:
route
del default gw 192.168.120.240
route
add default gw 192.168.120.240
输出:
[root@localhost ~]# route del default gw 192.168.120.240
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
[root@localhost ~]# route add default gw 192.168.120.240
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]#
说明:
Linux系统的ping
命令是常用的网络命令,它通常用来测试与目标主机的连通性,我们经常会说“ping一下某机器,看是不是开着”、不能打开网页时会说“你先ping网关地
址192.168.1.1试试”。它通过发送ICMP
ECHO_REQUEST数据包到网络主机
(send
ICMP ECHO_REQUEST to network hosts),并显示响应情况,这样我们就可以根据它输出的信息来确定目标主机
是否可访问(但这不是绝对的)。有些服务器为了防止通过ping探测到,通过防火墙设置了禁止ping或者在内核参数中禁止ping,这样就不能通过
ping确定该主机是否还处于开启状态。
linux下的ping和windows下的ping稍有区别,linux下ping不会自动终止,需要按ctrl+c终止或者用参数-c指定要求完成的回应次数。
1.命令格式:
ping
[参数]
[主机名或IP地址]
2.命令功能:
ping命令用于:确定网络和各外部主机的状态;跟踪和隔离硬件和软件问题;测
试、评估和管理网络。如果主机正在运行并连在网上,它就对回送信号进行响应。每个回送信号请求包含一个网际协议(IP)和
ICMP
头,后面紧跟一 个 tim
结构,以及来填写这个信息包的足够的字节。缺省情况是连续发送回送信号请求直到接收到中断信号(Ctrl-C)。
ping 命
令每秒发送一个数据报并且为每个接收到的响应打印一行输出。ping
命令计算信号往返时间和(信息)包丢失情况的统计信息,并且在完成之后显示一个简要
总结。ping
命令在程序超时或当接收到
SIGINT
信号时结束。Host
参数或者是一个有效的主机名或者是因特网地址。
3.命令参数:
-d
使用Socket的SO_DEBUG功能。
-f
极限检测。大量且快速地送网络封包给一台机器,看它的回应。
-n
只输出数值。
-q
不显示任何传送封包的信息,只显示最后的结果。
-r
忽略普通的Routing
Table,直接将数据包送到远端主机上。通常是查看本机的网络接口是否有问题。
-R
记录路由过程。
-v
详细显示指令的执行过程。
<p>-c
数目:在发送指定数目的包后停止。
-i
秒数:设定间隔几秒送一个网络封包给一台机器,预设值是一秒送一次。
-I
网络界面:使用指定的网络界面送出数据包。
-l
前置载入:设置在送出要求信息之前,先行发出的数据包。
-p
范本样式:设置填满数据包的范本样式。
-s
字节数:指定发送的数据字节数,预设值是56,加上8字节的ICMP头,一共是64ICMP数据字节。
-t
存活数值:设置存活数值TTL的大小。
4.使用实例:
实例1:ping的通的情况
命令:
ping 192.168.120.205
输出:
[root@localhost ~]# ping 192.168.120.205
PING 192.168.120.205 (192.168.120.205) 56(84) bytes of data.
64 bytes from 192.168.120.205: icmp_seq=1 ttl=64 time=0.720 ms
64 bytes from 192.168.120.205: icmp_seq=2 ttl=64 time=0.181 ms
64 bytes from 192.168.120.205: icmp_seq=3 ttl=64 time=0.191 ms
64 bytes from 192.168.120.205: icmp_seq=4 ttl=64 time=0.188 ms
64 bytes from 192.168.120.205: icmp_seq=5 ttl=64 time=0.189 ms
--- 192.168.120.205 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4000ms
rtt min/avg/max/mdev = 0.181/0.293/0.720/0.214 ms
[root@localhost ~]#
说明:
实例2:ping不通的情况
命令:
ping
192.168.120.202
输出:
[root@localhost ~]# ping 192.168.120.202
PING 192.168.120.202 (192.168.120.202) 56(84) bytes of data.
From 192.168.120.204 icmp_seq=1 Destination Host Unreachable
From 192.168.120.204 icmp_seq=2 Destination Host Unreachable
From 192.168.120.204 icmp_seq=3 Destination Host Unreachable
From 192.168.120.204 icmp_seq=4 Destination Host Unreachable
From 192.168.120.204 icmp_seq=5 Destination Host Unreachable
From 192.168.120.204 icmp_seq=6 Destination Host Unreachable
--- 192.168.120.202 ping statistics ---
8 packets transmitted, 0 received, +6 errors, 100% packet loss, time 7005ms
, pipe 4
[root@localhost ~]#
说明:
实例3:ping网关
命令:
ping
-b 192.168.120.1
输出:
[root@localhost ~]# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]# ping -b 192.168.120.1
PING 192.168.120.1 (192.168.120.1) 56(84) bytes of data.
64 bytes from 192.168.120.1: icmp_seq=1 ttl=255 time=2.02 ms
64 bytes from 192.168.120.1: icmp_seq=2 ttl=255 time=1.83 ms
64 bytes from 192.168.120.1: icmp_seq=3 ttl=255 time=1.68 ms
64 bytes from 192.168.120.1: icmp_seq=4 ttl=255 time=1.98 ms
64 bytes from 192.168.120.1: icmp_seq=5 ttl=255 time=1.88 ms
--- 192.168.120.1 ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 4000ms
rtt min/avg/max/mdev = 1.682/1.880/2.020/0.129 ms
说明:
实例4:ping指定次数
命令:
ping
-c 10 192.168.120.206
输出:
[root@localhost ~]# ping -c 10 192.168.120.206
PING 192.168.120.206 (192.168.120.206) 56(84) bytes of data.
64 bytes from 192.168.120.206: icmp_seq=1 ttl=64 time=1.25 ms
64 bytes from 192.168.120.206: icmp_seq=2 ttl=64 time=0.260 ms
64 bytes from 192.168.120.206: icmp_seq=3 ttl=64 time=0.242 ms
64 bytes from 192.168.120.206: icmp_seq=4 ttl=64 time=0.271 ms
64 bytes from 192.168.120.206: icmp_seq=5 ttl=64 time=0.274 ms
64 bytes from 192.168.120.206: icmp_seq=6 ttl=64 time=0.295 ms
64 bytes from 192.168.120.206: icmp_seq=7 ttl=64 time=0.269 ms
64 bytes from 192.168.120.206: icmp_seq=8 ttl=64 time=0.270 ms
64 bytes from 192.168.120.206: icmp_seq=9 ttl=64 time=0.253 ms
64 bytes from 192.168.120.206: icmp_seq=10 ttl=64 time=0.289 ms
--- 192.168.120.206 ping statistics ---
10 packets transmitted, 10 received, 0% packet loss, time 9000ms
rtt min/avg/max/mdev = 0.242/0.367/1.251/0.295 ms
[root@localhost ~]#
说明:
实例5:时间间隔和次数限制的ping
命令:
ping
-c 10 -i 0.5 192.168.120.206
输出:
[root@localhost ~]# ping -c 10 -i 0.5 192.168.120.206
PING 192.168.120.206 (192.168.120.206) 56(84) bytes of data.
64 bytes from 192.168.120.206: icmp_seq=1 ttl=64 time=1.24 ms
64 bytes from 192.168.120.206: icmp_seq=2 ttl=64 time=0.235 ms
64 bytes from 192.168.120.206: icmp_seq=3 ttl=64 time=0.244 ms
64 bytes from 192.168.120.206: icmp_seq=4 ttl=64 time=0.300 ms
64 bytes from 192.168.120.206: icmp_seq=5 ttl=64 time=0.255 ms
64 bytes from 192.168.120.206: icmp_seq=6 ttl=64 time=0.264 ms
64 bytes from 192.168.120.206: icmp_seq=7 ttl=64 time=0.263 ms
64 bytes from 192.168.120.206: icmp_seq=8 ttl=64 time=0.331 ms
64 bytes from 192.168.120.206: icmp_seq=9 ttl=64 time=0.247 ms
64 bytes from 192.168.120.206: icmp_seq=10 ttl=64 time=0.244 ms
--- 192.168.120.206 ping statistics ---
10 packets transmitted, 10 received, 0% packet loss, time 4499ms
rtt min/avg/max/mdev = 0.235/0.362/1.241/0.294 ms
[root@localhost ~]# ping -c 10 -i 0.01 192.168.120.206
PING 192.168.120.206 (192.168.120.206) 56(84) bytes of data.
64 bytes from 192.168.120.206: icmp_seq=1 ttl=64 time=0.244 ms
64 bytes from 192.168.120.206: icmp_seq=2 ttl=64 time=0.195 ms
64 bytes from 192.168.120.206: icmp_seq=3 ttl=64 time=0.219 ms
64 bytes from 192.168.120.206: icmp_seq=4 ttl=64 time=0.204 ms
64 bytes from 192.168.120.206: icmp_seq=5 ttl=64 time=3.56 ms
64 bytes from 192.168.120.206: icmp_seq=6 ttl=64 time=1.93 ms
64 bytes from 192.168.120.206: icmp_seq=7 ttl=64 time=0.193 ms
64 bytes from 192.168.120.206: icmp_seq=8 ttl=64 time=0.193 ms
64 bytes from 192.168.120.206: icmp_seq=9 ttl=64 time=0.202 ms
64 bytes from 192.168.120.206: icmp_seq=10 ttl=64 time=0.211 ms
--- 192.168.120.206 ping statistics ---
10 packets transmitted, 10 received, 0% packet loss, time 90ms
rtt min/avg/max/mdev = 0.193/0.716/3.564/1.080 ms
[root@localhost ~]#
说明:
实例6:通过域名ping公网上的站点
命令:
ping
-c 5 www.58.com
输出:
peida-VirtualBox ~ # ping -c 5 www.58.com
PING www.58.com (211.151.111.30) 56(84) bytes of data.
64 bytes from 211.151.111.30: icmp_req=1 ttl=49 time=14.7 ms
64 bytes from 211.151.111.30: icmp_req=2 ttl=49 time=16.4 ms
64 bytes from 211.151.111.30: icmp_req=3 ttl=49 time=15.2 ms
64 bytes from 211.151.111.30: icmp_req=4 ttl=49 time=14.6 ms
64 bytes from 211.151.111.30: icmp_req=5 ttl=49 time=19.9 ms
--- www.58.com ping statistics ---
5 packets transmitted, 5 received, 0% packet loss, time 20101ms
rtt min/avg/max/mdev = 14.618/16.192/19.917/1.965 ms
peida-VirtualBox ~ #
说明:
实例7:多参数使用
命令:
ping
-i 3 -s 1024 -t 255 192.168.120.206
输出:
[root@localhost ~]# ping -i 3 -s 1024 -t 255 192.168.120.206
PING 192.168.120.206 (192.168.120.206) 1024(1052) bytes of data.
1032 bytes from 192.168.120.206: icmp_seq=1 ttl=64 time=1.99 ms
1032 bytes from 192.168.120.206: icmp_seq=2 ttl=64 time=0.694 ms
1032 bytes from 192.168.120.206: icmp_seq=3 ttl=64 time=0.300 ms
1032 bytes from 192.168.120.206: icmp_seq=4 ttl=64 time=0.481 ms
1032 bytes from 192.168.120.206: icmp_seq=5 ttl=64 time=0.415 ms
1032 bytes from 192.168.120.206: icmp_seq=6 ttl=64 time=0.600 ms
1032 bytes from 192.168.120.206: icmp_seq=7 ttl=64 time=0.411 ms
1032 bytes from 192.168.120.206: icmp_seq=8 ttl=64 time=0.281 ms
1032 bytes from 192.168.120.206: icmp_seq=9 ttl=64 time=0.318 ms
1032 bytes from 192.168.120.206: icmp_seq=10 ttl=64 time=0.362 ms
1032 bytes from 192.168.120.206: icmp_seq=11 ttl=64 time=0.408 ms
1032 bytes from 192.168.120.206: icmp_seq=12 ttl=64 time=0.445 ms
1032 bytes from 192.168.120.206: icmp_seq=13 ttl=64 time=0.397 ms
1032 bytes from 192.168.120.206: icmp_seq=14 ttl=64 time=0.406 ms
1032 bytes from 192.168.120.206: icmp_seq=15 ttl=64 time=0.458 ms
--- 192.168.120.206 ping statistics ---
15 packets transmitted, 15 received, 0% packet loss, time 41999ms
rtt min/avg/max/mdev = 0.281/0.531/1.993/0.404 ms
[root@localhost ~]#
通过traceroute我们可以知道信息从你的计算机到互联网另一端的主机是走的什么路径。当然每次数据包由某一同样的出发点(source)到达某一同样的目的地(destination)走的路径可能会不一样,但基本上来说大部分时候所走的路由是相同的。linux系统中,我们称之为traceroute,在MS
Windows中为tracert。
traceroute通过发送小的数据包到目的设备直到其返回,来测量其需要多长时间。一条路径上的每个设备traceroute要测3次。输出结果中包括每次测试的时间(ms)和设备的名称(如有的话)及其IP地址。
在大多数情况下,我们会在linux主机系统下,直接执行命令行:
traceroute
hostname
而在Windows系统下是执行tracert的命令:
tracert
hostname
1.命令格式:
traceroute[参数][主机]
2.命令功能:
traceroute指令让你追踪网络数据包的路由途径,预设数据包大小是40Bytes,用户可另行设置。
具体参数格式:traceroute
[-dFlnrvx] [-f<存活数值>][-g<网关>...][-i<网络界面>][-m<存活数值>][-p<
通信端口>][-s<来源地址>][-t<服务类型>][-w<超时秒数>][主机名称或IP地址][数据包
大小]
3.命令参数:
-d
使用Socket层级的排错功能。
-f
设置第一个检测数据包的存活数值TTL的大小。
-F
设置勿离断位。
-g
设置来源路由网关,最多可设置8个。
-i
使用指定的网络界面送出数据包。
-I
使用ICMP回应取代UDP资料信息。
-m
设置检测数据包的最大存活数值TTL的大小。
-n
直接使用IP地址而非主机名称。
-p
设置UDP传输协议的通信端口。
-r
忽略普通的Routing
Table,直接将数据包送到远端主机上。
-s
设置本地主机送出数据包的IP地址。
-t
设置检测数据包的TOS数值。
-v
详细显示指令的执行过程。
-w
设置等待远端主机回报的时间。
-x
开启或关闭数据包的正确性检验。
4.使用实例:
实例1:traceroute
用法简单、最常用的用法
命令:
traceroute
www.baidu.com
输出:
[root@localhost ~]# traceroute www.baidu.com
traceroute to www.baidu.com (61.135.169.125), 30 hops max, 40 byte packets
1 192.168.74.2 (192.168.74.2) 2.606 ms 2.771 ms 2.950 ms
2 211.151.56.57 (211.151.56.57) 0.596 ms 0.598 ms 0.591 ms
3 211.151.227.206 (211.151.227.206) 0.546 ms 0.544 ms 0.538 ms
4 210.77.139.145 (210.77.139.145) 0.710 ms 0.748 ms 0.801 ms
5 202.106.42.101 (202.106.42.101) 6.759 ms 6.945 ms 7.107 ms
6 61.148.154.97 (61.148.154.97) 718.908 ms * bt-228-025.bta.net.cn (202.106.228.25) 5.177 ms
7 124.65.58.213 (124.65.58.213) 4.343 ms 4.336 ms 4.367 ms
8 202.106.35.190 (202.106.35.190) 1.795 ms 61.148.156.138 (61.148.156.138) 1.899 ms 1.951 ms
9 * * *
30 * * *
[root@localhost ~]#
说明:
记录按序列号从1开始,每个纪录就是一跳
,每跳表示一个网关,我们看到每行有三个时间,单位是
ms,其实就是-q的默认参数。探测数据包向每个网关发送三个数据包后,网关响应后返回的时间;如果您用
traceroute
-q 4 www.58.com ,表示向每个网关发送4个数据包。
有时我们traceroute
一台主机时,会看到有一些行是以星号表示的。出现这样的情况,可能是防火墙封掉了ICMP的返回信息,所以我们得不到什么相关的数据包返回数据。
有时我们在某一网关处延时比较长,有可能是某台网关比较阻塞,也可能是物理设备本身的原因。当然如果某台DNS出现问题时,不能解析主机名、域名时,也会
有延时长的现象;您可以加-n
参数来避免DNS解析,以IP格式输出数据。
如 果在局域网中的不同网段之间,我们可以通过traceroute
来排查问题所在,是主机的问题还是网关的问题。如果我们通过远程来访问某台服务器遇到问
题时,我们用到traceroute
追踪数据包所经过的网关,提交IDC服务商,也有助于解决问题;但目前看来在国内解决这样的问题是比较困难的,就是
我们发现问题所在,IDC服务商也不可能帮助我们解决。
实例2:跳数设置
命令:
traceroute
-m 10 www.baidu.com
输出:
[root@localhost ~]# traceroute -m 10 www.baidu.com
traceroute to www.baidu.com (61.135.169.105), 10 hops max, 40 byte packets
1 192.168.74.2 (192.168.74.2) 1.534 ms 1.775 ms 1.961 ms
2 211.151.56.1 (211.151.56.1) 0.508 ms 0.514 ms 0.507 ms
3 211.151.227.206 (211.151.227.206) 0.571 ms 0.558 ms 0.550 ms
4 210.77.139.145 (210.77.139.145) 0.708 ms 0.729 ms 0.785 ms
5 202.106.42.101 (202.106.42.101) 7.978 ms 8.155 ms 8.311 ms
6 bt-228-037.bta.net.cn (202.106.228.37) 772.460 ms bt-228-025.bta.net.cn (202.106.228.25) 2.152 ms 61.148.154.97 (61.148.154.97) 772.107 ms
7 124.65.58.221 (124.65.58.221) 4.875 ms 61.148.146.29 (61.148.146.29) 2.124 ms 124.65.58.221 (124.65.58.221) 4.854 ms
8 123.126.6.198 (123.126.6.198) 2.944 ms 61.148.156.6 (61.148.156.6) 3.505 ms 123.126.6.198 (123.126.6.198) 2.885 ms
9 * * *
10 * * *
[root@localhost ~]#
说明:
实例3:显示IP地址,不查主机名
命令:
traceroute
-n www.baidu.com
输出:
[root@localhost ~]# traceroute -n www.baidu.com
traceroute to www.baidu.com (61.135.169.125), 30 hops max, 40 byte packets
1 211.151.74.2 5.430 ms 5.636 ms 5.802 ms
2 211.151.56.57 0.627 ms 0.625 ms 0.617 ms
3 211.151.227.206 0.575 ms 0.584 ms 0.576 ms
4 210.77.139.145 0.703 ms 0.754 ms 0.806 ms
5 202.106.42.101 23.683 ms 23.869 ms 23.998 ms
6 202.106.228.37 247.101 ms * *
7 61.148.146.29 5.256 ms 124.65.58.213 4.386 ms 4.373 ms
8 202.106.35.190 1.610 ms 61.148.156.138 1.786 ms 61.148.3.34 2.089 ms
9 * * *
30 * * *
[root@localhost ~]# traceroute www.baidu.com
traceroute to www.baidu.com (61.135.169.125), 30 hops max, 40 byte packets
1 211.151.74.2 (211.151.74.2) 4.671 ms 4.865 ms 5.055 ms
2 211.151.56.57 (211.151.56.57) 0.619 ms 0.618 ms 0.612 ms
3 211.151.227.206 (211.151.227.206) 0.620 ms 0.642 ms 0.636 ms
4 210.77.139.145 (210.77.139.145) 0.720 ms 0.772 ms 0.816 ms
5 202.106.42.101 (202.106.42.101) 7.667 ms 7.910 ms 8.012 ms
6 bt-228-025.bta.net.cn (202.106.228.25) 2.965 ms 2.440 ms 61.148.154.97 (61.148.154.97) 431.337 ms
7 124.65.58.213 (124.65.58.213) 5.134 ms 5.124 ms 5.044 ms
8 202.106.35.190 (202.106.35.190) 1.917 ms 2.052 ms 2.059 ms
9 * * *
30 * * *
[root@localhost ~]#
说明:
实例4:探测包使用的基本UDP端口设置6888
命令:
traceroute
-p 6888 www.baidu.com
输出:
[root@localhost ~]# traceroute -p 6888 www.baidu.com
traceroute to www.baidu.com (220.181.111.147), 30 hops max, 40 byte packets
1 211.151.74.2 (211.151.74.2) 4.927 ms 5.121 ms 5.298 ms
2 211.151.56.1 (211.151.56.1) 0.500 ms 0.499 ms 0.509 ms
3 211.151.224.90 (211.151.224.90) 0.637 ms 0.631 ms 0.641 ms
4 * * *
5 220.181.70.98 (220.181.70.98) 5.050 ms 5.313 ms 5.596 ms
6 220.181.17.94 (220.181.17.94) 1.665 ms !X * *
[root@localhost ~]#
说明:
实例5:把探测包的个数设置为值4
命令:
traceroute
-q 4 www.baidu.com
输出:
[root@localhost ~]# traceroute -q 4 www.baidu.com
traceroute to www.baidu.com (61.135.169.125), 30 hops max, 40 byte packets
1 211.151.74.2 (211.151.74.2) 40.633 ms 40.819 ms 41.004 ms 41.188 ms
2 211.151.56.57 (211.151.56.57) 0.637 ms 0.633 ms 0.627 ms 0.619 ms
3 211.151.227.206 (211.151.227.206) 0.505 ms 0.580 ms 0.571 ms 0.569 ms
4 210.77.139.145 (210.77.139.145) 0.753 ms 0.800 ms 0.853 ms 0.904 ms
5 202.106.42.101 (202.106.42.101) 7.449 ms 7.543 ms 7.738 ms 7.893 ms
6 61.148.154.97 (61.148.154.97) 316.817 ms bt-228-025.bta.net.cn (202.106.228.25) 3.695 ms 3.672 ms *
7 124.65.58.213 (124.65.58.213) 3.056 ms 2.993 ms 2.960 ms 61.148.146.29 (61.148.146.29) 2.837 ms
8 61.148.3.34 (61.148.3.34) 2.179 ms 2.295 ms 2.442 ms 202.106.35.190 (202.106.35.190) 7.136 ms
9 * * * *
30 * * * *
[root@localhost ~]#
说明:
实例6:绕过正常的路由表,直接发送到网络相连的主机
命令:
traceroute
-r www.baidu.com
输出:
[root@localhost ~]# traceroute -r www.baidu.com
traceroute to www.baidu.com (61.135.169.125), 30 hops max, 40 byte packets
connect: 网络不可达
[root@localhost ~]#
说明:
实例7:把对外发探测包的等待响应时间设置为3秒
命令:
traceroute
-w 3 www.baidu.com
输出:
[root@localhost ~]# traceroute -w 3 www.baidu.com
traceroute to www.baidu.com (61.135.169.105), 30 hops max, 40 byte packets
1 211.151.74.2 (211.151.74.2) 2.306 ms 2.469 ms 2.650 ms
2 211.151.56.1 (211.151.56.1) 0.621 ms 0.613 ms 0.603 ms
3 211.151.227.206 (211.151.227.206) 0.557 ms 0.560 ms 0.552 ms
4 210.77.139.145 (210.77.139.145) 0.708 ms 0.761 ms 0.817 ms
5 202.106.42.101 (202.106.42.101) 7.520 ms 7.774 ms 7.902 ms
6 bt-228-025.bta.net.cn (202.106.228.25) 2.890 ms 2.369 ms 61.148.154.97 (61.148.154.97) 471.961 ms
7 124.65.58.221 (124.65.58.221) 4.490 ms 4.483 ms 4.472 ms
8 123.126.6.198 (123.126.6.198) 2.948 ms 61.148.156.6 (61.148.156.6) 7.688 ms 7.756 ms
9 * * *
30 * * *
[root@localhost ~]#
说明:
Traceroute的工作原理:
Traceroute最简单的基本用法是:traceroute
hostname
Traceroute
程序的设计是利用ICMP及IP
header的TTL(Time
To Live)栏位(field)。首先,traceroute送出一个TTL是1
的IP
datagram(其实,每次送出的为3个40字节的包,包括源地址,目的地址和包发出的时间标签)到目的地,当路径上的第一个路由器
(router)收到这个datagram时,它将TTL减1。此时,TTL变为0了,所以该路由器会将此datagram丢掉,并送回一个
「ICMP
time exceeded」消息(包括发IP包的源地址,IP包的所有内容及路由器的IP地址),traceroute
收到这个消息后,
便知道这个路由器存在于这个路径上,接着traceroute
再送出另一个TTL是2
的datagram,发现第2
个路由 器......
traceroute 每次将送出的datagram的TTL
加1来发现另一个路由器,这个重复的动作一直持续到某个
datagram
抵达目的地。当datagram到达目的地后,该主机并不会送回ICMP
time exceeded消息,因为它已是目的地了,那么
traceroute如何得知目的地到达了呢?
Traceroute
在送出UDP
datagrams到目的地时,它所选择送达的port
number 是一个一般应用程序都不会用的号码(30000
以上),所以当此 UDP
datagram 到达目的地后该主机会送回一个「ICMP
port unreachable」的消息,而当traceroute
收到这个消
息时,便知道目的地已经到达了。所以traceroute
在Server端也是没有所谓的Daemon
程式。
Traceroute提取发
ICMP
TTL到期消息设备的IP地址并作域名解析。每次
,Traceroute都打印出一系列数据,包括所经过的路由设备的域名及
IP地址,三个包每次来回所花时间。
windows之tracert:
格式:
tracert
[-d] [-h maximum_hops] [-j host-list] [-w timeout] target_name
参数说明:
tracert
[-d] [-h maximum_hops] [-j computer-list] [-w timeout] target_name
该
诊断实用程序通过向目的地发送具有不同生存时间
(TL)
的 Internet
控制信息协议 (CMP)
回应报文,以确定至目的地的路由。路径上的
每个路由器都要在转发该 ICMP
回应报文之前将其 TTL
值至少减 1,因此
TTL
是有效的跳转计数。当报文的
TTL
值减少到 0
时,路 由器向源系统发回
ICMP
超时信息。通过发送 TTL
为 1
的第一个回应报文并且在随后的发送中每次将
TTL
值加 1,直到目标响应或达到最
大 TTL
值,Tracert
可以确定路由。通过检查中间路由器发发回的
ICMP
超时 (ime
Exceeded) 信息,可以确定路由器。注
意,有些路由器“安静”地丢弃生存时间 (TLS)
过期的报文并且对 tracert
无效。
参数:
-d 指定不对计算机名解析地址。
-h
maximum_hops 指定查找目标的跳转的最大数目。
-jcomputer-list 指定在
computer-list
中松散源路由。
-w
timeout 等待由
timeout
对每个应答指定的毫秒数。
target_name 目标计算机的名称。
实例:
C:\Users\Administrator>tracert www.58.com
Tracing route to www.58.com [221.187.111.30]
over a maximum of 30 hops:
1 1 ms 1 ms 1 ms 10.58.156.1
2 1 ms <1 ms <1 ms 10.10.10.1
3 1 ms 1 ms 1 ms 211.103.193.129
4 2 ms 2 ms 2 ms 10.255.109.129
5 1 ms 1 ms 3 ms 124.205.98.205
6 2 ms 2 ms 2 ms 124.205.98.253
7 2 ms 6 ms 1 ms 202.99.1.125
8 5 ms 6 ms 5 ms 118.186.0.113
9 207 ms * * 118.186.0.106
10 8 ms 6 ms 11 ms 124.238.226.201
11 6 ms 7 ms 6 ms 219.148.19.177
12 12 ms 12 ms 16 ms 219.148.18.117
13 14 ms 17 ms 16 ms 219.148.19.125
14 13 ms 13 ms 12 ms 202.97.80.113
15 * * * Request timed out.
16 12 ms 12 ms 17 ms bj141-147-82.bjtelecom.net [219.141.147.82]
17 13 ms 13 ms 12 ms 202.97.48.2
18 * * * Request timed out.
19 14 ms 14 ms 12 ms 221.187.224.85
20 15 ms 13 ms 12 ms 221.187.104.2
21 * * * Request timed out.
22 15 ms 17 ms 18 ms 221.187.111.30
Trace complete.
netstat命令用于显示与IP、TCP、UDP和ICMP协议相关的统计数据,一般用于检验本机各端口的网络连接情况。netstat是在内核中访问网络及相关信息的程序,它能提供TCP连接,TCP和UDP监听,进程内存管理的相关报告。
如果你的计算机有时候接收到的数据报导致出错数据或故障,你不必感到奇怪,TCP/IP可以容许这些类型的错误,并能够自动重发数据报。但如果累计的出错情况数目占到所接收的IP数据报相当大的百分比,或者它的数目正迅速增加,那么你就应该使用netstat查一查为什么会出现这些情况了。
1.命令格式:
netstat
[-acCeFghilMnNoprstuvVwx][-A<网络类型>][--ip]
2.命令功能:
netstat用于显示与IP、TCP、UDP和ICMP协议相关的统计数据,一般用于检验本机各端口的网络连接情况。
3.命令参数:
-a或–all
显示所有连线中的Socket。
-A<网络类型>或–<网络类型>
列出该网络类型连线中的相关地址。
-c或–continuous
持续列出网络状态。
-C或–cache
显示路由器配置的快取信息。
-e或–extend
显示网络其他相关信息。
-F或–fib
显示FIB。
-g或–groups
显示多重广播功能群组组员名单。
-h或–help
在线帮助。
-i或–interfaces
显示网络界面信息表单。
-l或–listening
显示监控中的服务器的Socket。
-M或–masquerade
显示伪装的网络连线。
-n或–numeric
直接使用IP地址,而不通过域名服务器。
-N或–netlink或–symbolic
显示网络硬件外围设备的符号连接名称。
-o或–timers
显示计时器。
-p或–programs
显示正在使用Socket的程序识别码和程序名称。
-r或–route
显示Routing
Table。
-s或–statistice
显示网络工作信息统计表。
-t或–tcp
显示TCP传输协议的连线状况。
-u或–udp
显示UDP传输协议的连线状况。
-v或–verbose
显示指令执行过程。
-V或–version
显示版本信息。
-w或–raw
显示RAW传输协议的连线状况。
-x或–unix
此参数的效果和指定”-A
unix”参数相同。
–ip或–inet
此参数的效果和指定”-A
inet”参数相同。
4.使用实例:
实例1:无参数使用
命令:
netstat
输出:
[root@localhost ~]# netstat
Active Internet connections (w/o servers)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 268 192.168.120.204:ssh 10.2.0.68:62420 ESTABLISHED
udp 0 0 192.168.120.204:4371 10.58.119.119:domain ESTABLISHED
Active UNIX domain sockets (w/o servers)
Proto RefCnt Flags Type State I-Node Path
unix 2 [ ] DGRAM 1491 @/org/kernel/udev/udevd
unix 4 [ ] DGRAM 7337 /dev/log
unix 2 [ ] DGRAM 708823
unix 2 [ ] DGRAM 7539
unix 3 [ ] STREAM CONNECTED 7287
unix 3 [ ] STREAM CONNECTED 7286
[root@localhost ~]#
说明:
从整体上看,netstat的输出结果可以分为两个部分:
一个是Active
Internet
connections,称为有源TCP连接,其中"Recv-Q"和"Send-Q"指的是接收队列和发送队列。这些数字一般都应该是0。如果不是则表示软件包正在队列中堆积。这种情况只能在非常少的情况见到。
另一个是Active
UNIX domain sockets,称为有源Unix域套接口(和网络套接字一样,但是只能用于本机通信,性能可以提高一倍)。
Proto显示连接使用的协议,RefCnt表示连接到本套接口上的进程号,Types显示套接口的类型,State显示套接口当前的状态,Path表示连接到套接口的其它进程使用的路径名。
套接口类型:
-t
:TCP
-u
:UDP
-raw
:RAW类型
--unix
:UNIX域类型
--ax25
:AX25类型
--ipx
:ipx类型
--netrom
:netrom类型
状态说明:
LISTEN:侦听来自远方的TCP端口的连接请求
SYN-SENT:再发送连接请求后等待匹配的连接请求(如果有大量这样的状态包,检查是否中招了)
SYN-RECEIVED:再收到和发送一个连接请求后等待对方对连接请求的确认(如有大量此状态,估计被flood攻击了)
ESTABLISHED:代表一个打开的连接
FIN-WAIT-1:等待远程TCP连接中断请求,或先前的连接中断请求的确认
FIN-WAIT-2:从远程TCP等待连接中断请求
CLOSE-WAIT:等待从本地用户发来的连接中断请求
CLOSING:等待远程TCP对连接中断的确认
LAST-ACK:等待原来的发向远程TCP的连接中断请求的确认(不是什么好东西,此项出现,检查是否被攻击)
TIME-WAIT:等待足够的时间以确保远程TCP接收到连接中断请求的确认
CLOSED:没有任何连接状态
实例2:列出所有端口
命令:
netstat
-a
输出:
[root@localhost ~]# netstat -a
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 0 localhost:smux *:* LISTEN
tcp 0 0 *:svn *:* LISTEN
tcp 0 0 *:ssh *:* LISTEN
tcp 0 284 192.168.120.204:ssh 10.2.0.68:62420 ESTABLISHED
udp 0 0 localhost:syslog *:*
udp 0 0 *:snmp *:*
Active UNIX domain sockets (servers and established)
Proto RefCnt Flags Type State I-Node Path
unix 2 [ ACC ] STREAM LISTENING 708833 /tmp/ssh-yKnDB15725/agent.15725
unix 2 [ ACC ] STREAM LISTENING 7296 /var/run/audispd_events
unix 2 [ ] DGRAM 1491 @/org/kernel/udev/udevd
unix 4 [ ] DGRAM 7337 /dev/log
unix 2 [ ] DGRAM 708823
unix 2 [ ] DGRAM 7539
unix 3 [ ] STREAM CONNECTED 7287
unix 3 [ ] STREAM CONNECTED 7286
[root@localhost ~]#
说明:
显示一个所有的有效连接信息列表,包括已建立的连接(ESTABLISHED),也包括监听连接请(LISTENING)的那些连接。
实例3:显示当前UDP连接状况
命令:
netstat
-nu
输出:
[root@andy ~]# netstat -nu
Active Internet connections (w/o servers)
Proto Recv-Q Send-Q Local Address Foreign Address State
udp 0 0 ::ffff:192.168.12:53392 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:56723 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:56480 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:58154 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:44227 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:36954 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:53984 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:57703 ::ffff:192.168.9.120:10000 ESTABLISHED
udp 0 0 ::ffff:192.168.12:53613 ::ffff:192.168.9.120:10000 ESTABLISHED
[root@andy ~]#
说明:
实例4:显示UDP端口号的使用情况
命令:
netstat
-apu
输出:
[root@andy ~]# netstat -apu
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
udp 0 0 *:57604 *:* 28094/java
udp 0 0 *:40583 *:* 21220/java
udp 0 0 *:45451 *:* 14583/java
udp 0 0 ::ffff:192.168.12:53392 ::ffff:192.168.9.120:ndmp ESTABLISHED 19327/java
udp 0 0 *:52370 *:* 15841/java
udp 0 0 ::ffff:192.168.12:56723 ::ffff:192.168.9.120:ndmp ESTABLISHED 15841/java
udp 0 0 *:44182 *:* 31757/java
udp 0 0 *:48155 *:* 5476/java
udp 0 0 *:59808 *:* 17333/java
udp 0 0 ::ffff:192.168.12:56480 ::ffff:192.168.9.120:ndmp ESTABLISHED 28094/java
udp 0 0 ::ffff:192.168.12:58154 ::ffff:192.168.9.120:ndmp ESTABLISHED 15429/java
udp 0 0 *:36780 *:* 10091/java
udp 0 0 *:36795 *:* 24594/java
udp 0 0 *:41922 *:* 20506/java
udp 0 0 ::ffff:192.168.12:44227 ::ffff:192.168.9.120:ndmp ESTABLISHED 17333/java
udp 0 0 *:34258 *:* 8866/java
udp 0 0 *:55508 *:* 11667/java
udp 0 0 *:36055 *:* 12425/java
udp 0 0 ::ffff:192.168.12:36954 ::ffff:192.168.9.120:ndmp ESTABLISHED 16532/java
udp 0 0 ::ffff:192.168.12:53984 ::ffff:192.168.9.120:ndmp ESTABLISHED 20506/java
udp 0 0 ::ffff:192.168.12:57703 ::ffff:192.168.9.120:ndmp ESTABLISHED 31757/java
udp 0 0 ::ffff:192.168.12:53613 ::ffff:192.168.9.120:ndmp ESTABLISHED 3199/java
udp 0 0 *:56309 *:* 15429/java
udp 0 0 *:54007 *:* 16532/java
udp 0 0 *:39544 *:* 3199/java
udp 0 0 *:43900 *:* 19327/java
[root@andy ~]#
说明:
实例5:显示网卡列表
命令:
netstat
-i
输出:
[root@andy ~]# netstat -i
Kernel Interface table
Iface MTU Met RX-OK RX-ERR RX-DRP RX-OVR TX-OK TX-ERR TX-DRP TX-OVR Flg
eth0 1500 0 151818887 0 0 0 198928403 0 0 0 BMRU
lo 16436 0 107235 0 0 0 107235 0 0 0 LRU
[root@andy ~]#
说明:
实例6:显示组播组的关系
命令:
netstat
-g
输出:
[root@andy ~]# netstat -g
IPv6/IPv4 Group Memberships
Interface RefCnt Group
--------------- ------ ---------------------
lo 1 all-systems.mcast.net
eth0 1 all-systems.mcast.net
lo 1 ff02::1
eth0 1 ff02::1:ffff:9b0c
eth0 1 ff02::1
[root@andy ~]#
说明:
实例7:显示网络统计信息
命令:
netstat
-s
输出:
[root@localhost ~]# netstat -s
Ip:
530999 total packets received
0 forwarded
0 incoming packets discarded
530999 incoming packets delivered
8258 requests sent out
1 dropped because of missing route
Icmp:
90 ICMP messages received
0 input ICMP message failed.
ICMP input histogram:
destination unreachable: 17
echo requests: 1
echo replies: 72
106 ICMP messages sent
0 ICMP messages failed
ICMP output histogram:
destination unreachable: 8
echo request: 97
echo replies: 1
IcmpMsg:
InType0: 72
InType3: 17
InType8: 1
OutType0: 1
OutType3: 8
OutType8: 97
Tcp:
8 active connections openings
15 passive connection openings
8 failed connection attempts
3 connection resets received
1 connections established
3132 segments received
2617 segments send out
53 segments retransmited
0 bad segments received.
252 resets sent
Udp:
0 packets received
0 packets to unknown port received.
0 packet receive errors
5482 packets sent
TcpExt:
1 invalid SYN cookies received
1 TCP sockets finished time wait in fast timer
57 delayed acks sent
Quick ack mode was activated 50 times
60 packets directly queued to recvmsg prequeue.
68 packets directly received from backlog
4399 packets directly received from prequeue
520 packets header predicted
51 packets header predicted and directly queued to user
1194 acknowledgments not containing data received
21 predicted acknowledgments
0 TCP data loss events
1 timeouts after reno fast retransmit
9 retransmits in slow start
42 other TCP timeouts
3 connections aborted due to timeout
IpExt:
InBcastPkts: 527777
说明:
按照各个协议分别显示其统计数据。如果我们的应用程序(如Web浏览器)运行速度比较慢,或者不能显示Web页之类的数据,那么我们就可以用本选项来查看一下所显示的信息。我们需要仔细查看统计数据的各行,找到出错的关键字,进而确定问题所在。
实例8:显示监听的套接口
命令:
netstat
-l
输出:
[root@localhost ~]# netstat -l
Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 0 localhost:smux *:* LISTEN
tcp 0 0 *:svn *:* LISTEN
tcp 0 0 *:ssh *:* LISTEN
udp 0 0 localhost:syslog *:*
udp 0 0 *:snmp *:*
Active UNIX domain sockets (only servers)
Proto RefCnt Flags Type State I-Node Path
unix 2 [ ACC ] STREAM LISTENING 708833 /tmp/ssh-yKnDB15725/agent.15725
unix 2 [ ACC ] STREAM LISTENING 7296 /var/run/audispd_events
[root@localhost ~]#
说明:
实例9:显示所有已建立的有效连接
命令:
netstat
-n
输出:
[root@localhost ~]# netstat -n
Active Internet connections (w/o servers)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 268 192.168.120.204:22 10.2.0.68:62420 ESTABLISHED
Active UNIX domain sockets (w/o servers)
Proto RefCnt Flags Type State I-Node Path
unix 2 [ ] DGRAM 1491 @/org/kernel/udev/udevd
unix 4 [ ] DGRAM 7337 /dev/log
unix 2 [ ] DGRAM 708823
unix 2 [ ] DGRAM 7539
unix 3 [ ] STREAM CONNECTED 7287
unix 3 [ ] STREAM CONNECTED 7286
[root@localhost ~]#
说明:
实例10:显示关于以太网的统计数据
命令:
netstat
-e
输出:
[root@localhost ~]# netstat -e
Active Internet connections (w/o servers)
Proto Recv-Q Send-Q Local Address Foreign Address State User Inode
tcp 0 248 192.168.120.204:ssh 10.2.0.68:62420 ESTABLISHED root 708795
Active UNIX domain sockets (w/o servers)
Proto RefCnt Flags Type State I-Node Path
unix 2 [ ] DGRAM 1491 @/org/kernel/udev/udevd
unix 4 [ ] DGRAM 7337 /dev/log
unix 2 [ ] DGRAM 708823
unix 2 [ ] DGRAM 7539
unix 3 [ ] STREAM CONNECTED 7287
unix 3 [ ] STREAM CONNECTED 7286
[root@localhost ~]#
说明:
用于显示关于以太网的统计数据。它列出的项目包括传送的数据报的总字节数、错误数、删除数、数据报的数量和广播的数量。这些统计数据既有发送的数据报数量,也有接收的数据报数量。这个选项可以用来统计一些基本的网络流量)
实例11:显示关于路由表的信息
命令:
netstat
-r
输出:
[root@localhost ~]# netstat -r
Kernel IP routing table
Destination Gateway Genmask Flags MSS Window irtt Iface
192.168.120.0 * 255.255.255.0 U 0 0 0 eth0
192.168.0.0 192.168.120.1 255.255.0.0 UG 0 0 0 eth0
10.0.0.0 192.168.120.1 255.0.0.0 UG 0 0 0 eth0
default 192.168.120.240 0.0.0.0 UG 0 0 0 eth0
[root@localhost ~]#
说明:
实例12:列出所有
tcp
端口
命令:
netstat
-at
输出:
[root@localhost ~]# netstat -at
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 0 localhost:smux *:* LISTEN
tcp 0 0 *:svn *:* LISTEN
tcp 0 0 *:ssh *:* LISTEN
tcp 0 284 192.168.120.204:ssh 10.2.0.68:62420 ESTABLISHED
[root@localhost ~]#
说明:
实例13:统计机器中网络连接各个状态个数
命令:
netstat
-a | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
输出:
[root@localhost ~]# netstat -a | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}'
ESTABLISHED 1
LISTEN 3
[root@localhost ~]#
说明:
实例14:把状态全都取出来后使用uniq
-c统计后再进行排序
命令:
netstat
-nat |awk '{print $6}'|sort|uniq -c
输出:
[root@andy ~]# netstat -nat |awk '{print $6}'|sort|uniq -c
14 CLOSE_WAIT
1 established)
578 ESTABLISHED
1 Foreign
43 LISTEN
5 TIME_WAIT
[root@andy ~]# netstat -nat |awk '{print $6}'|sort|uniq -c|sort -rn
576 ESTABLISHED
43 LISTEN
14 CLOSE_WAIT
5 TIME_WAIT
1 Foreign
1 established)
[root@andy ~]#
说明:
实例15:查看连接某服务端口最多的的IP地址
命令:
netstat
-nat | grep "192.168.120.20:16067" |awk '{print $5}'|awk
-F: '{print $4}'|sort|uniq -c|sort -nr|head -20
输出:
[root@andy ~]# netstat -nat | grep "192.168.120.20:16067" |awk '{print $5}'|awk -F: '{print $4}'|sort|uniq -c|sort -nr|head -20
8 10.2.1.68
7 192.168.119.13
6 192.168.119.201
6 192.168.119.20
6 192.168.119.10
4 10.2.1.199
3 10.2.1.207
2 192.168.120.20
2 192.168.120.15
2 192.168.119.197
2 192.168.119.11
2 10.2.1.206
2 10.2.1.203
2 10.2.1.189
2 10.2.1.173
1 192.168.120.18
1 192.168.119.19
1 10.2.2.227
1 10.2.2.138
1 10.2.1.208
[root@andy ~]#
说明:
实例16:找出程序运行的端口
命令:
netstat
-ap | grep ssh
输出:
[root@andy ~]# netstat -ap | grep ssh
tcp 0 0 *:ssh *:* LISTEN 2570/sshd
tcp 0 0 ::ffff:192.168.120.206:ssh ::ffff:10.2.1.205:54508 ESTABLISHED 13883/14
tcp 0 0 ::ffff:192.168.120.206:ssh ::ffff:10.2.0.68:62886 ESTABLISHED 20900/6
tcp 0 0 ::ffff:192.168.120.206:ssh ::ffff:10.2.2.131:52730 ESTABLISHED 20285/sshd: root@no
unix 2 [ ACC ] STREAM LISTENING 194494461 20900/6 /tmp/ssh-cXIJj20900/agent.20900
unix 3 [ ] STREAM CONNECTED 194307443 20285/sshd: root@no
unix 3 [ ] STREAM CONNECTED 194307441 20285/sshd: root@no
[root@andy ~]#
说明:
实例17:在
netstat
输出中显示 PID
和进程名称
命令:
netstat
-pt
输出:
[root@localhost ~]# netstat -pt
Active Internet connections (w/o servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 248 192.168.120.204:ssh 10.2.0.68:62420 ESTABLISHED 15725/0
[root@localhost ~]#
说明:
netstat
-p 可以与其它开关一起使用,就可以添加
“PID/进程名称”
到 netstat
输出中,这样 debugging
的时候可以很方便的发现特定端口运行的程序。
实例18:找出运行在指定端口的进程
命令:
netstat
-anpt | grep ':16064'
输出:
[root@andy ~]# netstat -anpt | grep ':16064'
tcp 0 0 :::16064 :::* LISTEN 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:192.168.119.201:6462 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:192.168.119.20:26341 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:192.168.119.20:32208 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:192.168.119.20:32207 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:51303 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:51302 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:50020 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:50019 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:56155 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:50681 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:50680 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:52136 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:56989 ESTABLISHED 24594/java
tcp 0 0 ::ffff:192.168.120.20:16064 ::ffff:10.2.1.68:56988 ESTABLISHED 24594/java
[root@andy ~]#
说明:
运行在端口16064的进程id为24596,再通过ps命令就可以找到具体的应用程序了。
ss是Socket
Statistics的缩写。顾名思义,ss命令可以用来获取socket统计信息,它可以显示和netstat类似的内容。但ss的优势在于它能够显示更多更详细的有关TCP和连接状态的信息,而且比netstat更快速更高效。
当 服务器的socket连接数量变得非常大时,无论是使用netstat命令还是直接cat
/proc/net/tcp,执行速度都会很慢。可能你不会有
切身的感受,但请相信我,当服务器维持的连接达到上万个的时候,使用netstat等于浪费
生命,而用ss才是节省时间。
天
下武功唯快不破。ss快的秘诀在于,它利用到了TCP协议栈中tcp_diag。tcp_diag是一个用于分析统计的模块,可以获得Linux
内核中
第一手的信息,这就确保了ss的快捷高效。当然,如果你的系统中没有tcp_diag,ss也可以正常运行,只是效率会变得稍慢。(但仍然
比 netstat要快。)
1.命令格式:
ss
[参数]
ss
[参数]
[过滤]
2.命令功能:
ss(Socket
Statistics 的缩写)命令可以用来获取
socket统计信息,此命令输出的结果类似于
netstat输出的内容,但它能显示更多更详细的
TCP连接状态的信息,
且比 netstat
更快速高效。它使用了
TCP协议栈中
tcp_diag(是一个用于分析统计的模块),能直接从获得第一手内核信息,这就使
得 ss命令快捷高效。在没有
tcp_diag,ss也可以正常运行。
3.命令参数:
-h,
--help 帮助信息
-V,
--version 程序版本信息
-n,
--numeric 不解析服务名称
-r,
--resolve 解析主机名
-a,
--all 显示所有套接字(sockets)
-l,
--listening 显示监听状态的套接字(sockets)
-o,
--options 显示计时器信息
-e,
--extended 显示详细的套接字(sockets)信息
-m,
--memory 显示套接字(socket)的内存使用情况
-p,
--processes 显示使用套接字(socket)的进程
-i,
--info 显示 TCP内部信息
-s,
--summary 显示套接字(socket)使用概况
-4,
--ipv4 仅显示IPv4的套接字(sockets)
-6,
--ipv6 仅显示IPv6的套接字(sockets)
-0,
--packet 显示 PACKET
套接字(socket)
-t,
--tcp 仅显示 TCP套接字(sockets)
-u,
--udp 仅显示 UCP套接字(sockets)
-d,
--dccp 仅显示 DCCP套接字(sockets)
-w,
--raw 仅显示 RAW套接字(sockets)
-x,
--unix 仅显示 Unix套接字(sockets)
-f,
--family=FAMILY 显示
FAMILY类型的套接字(sockets),FAMILY可选,支持
unix,
inet, inet6, link, netlink
-A,
--query=QUERY, --socket=QUERY
QUERY
:= {all|inet|tcp|udp|raw|unix|packet|netlink}[,QUERY]
-D,
--diag=FILE 将原始TCP套接字(sockets)信息转储到文件
-F,
--filter=FILE 从文件中都去过滤器信息
FILTER
:= [ state TCP-STATE ] [ EXPRESSION ]
4.使用实例:
实例1:显示TCP连接
命令:
ss -t
-a
输出:
[root@localhost ~]# ss -t -a
State Recv-Q Send-Q Local Address:Port Peer Address:Port
LISTEN 0 0 127.0.0.1:smux *:*
LISTEN 0 0 *:3690 *:*
LISTEN 0 0 *:ssh *:*
ESTAB 0 0 192.168.120.204:ssh 10.2.0.68:49368
[root@localhost ~]#
说明:
实例2:显示
Sockets
摘要
命令:
ss -s
输出:
[root@localhost ~]# ss -s
Total: 34 (kernel 48)
TCP: 4 (estab 1, closed 0, orphaned 0, synrecv 0, timewait 0/0), ports 3
Transport Total IP IPv6
* 48 - -
RAW 0 0 0
UDP 5 5 0
TCP 4 4 0
INET 9 9 0
FRAG 0 0 0
[root@localhost ~]#
说明:
列出当前的established,
closed, orphaned and waiting TCP sockets
实例3:列出所有打开的网络连接端口
命令:
ss -l
输出:
[root@localhost ~]# ss -l
Recv-Q Send-Q Local Address:Port Peer Address:Port
0 0 127.0.0.1:smux *:*
0 0 *:3690 *:*
0 0 *:ssh *:*
[root@localhost ~]#
说明:
实例4:查看进程使用的socket
命令:
ss -pl
输出:
[root@localhost ~]# ss -pl
Recv-Q Send-Q Local Address:Port Peer Address:Port
0 0 127.0.0.1:smux *:* users:(("snmpd",2716,8))
0 0 *:3690 *:* users:(("svnserve",3590,3))
0 0 *:ssh *:* users:(("sshd",2735,3))
[root@localhost ~]#
说明:
实例5:找出打开套接字/端口应用程序
命令:
ss -lp
| grep 3306
输出:
[root@localhost ~]# ss -lp|grep 1935
0 0 *:1935 *:* users:(("fmsedge",2913,18))
0 0 127.0.0.1:19350 *:* users:(("fmsedge",2913,17))
[root@localhost ~]# ss -lp|grep 3306
0 0 *:3306 *:* users:(("mysqld",2871,10))
[root@localhost ~]#
说明:
实例6:显示所有UDP
Sockets
命令:
ss -u
-a
输出:
[root@localhost ~]# ss -u -a
State Recv-Q Send-Q Local Address:Port Peer Address:Port
UNCONN 0 0 127.0.0.1:syslog *:*
UNCONN 0 0 *:snmp *:*
ESTAB 0 0 192.168.120.203:39641 10.58.119.119:domain
[root@localhost ~]#
说明:
实例7:显示所有状态为established的SMTP连接
命令:
ss -o
state established '( dport = :smtp or sport = :smtp )'
输出:
[root@localhost ~]# ss -o state established '( dport = :smtp or sport = :smtp )'
Recv-Q Send-Q Local Address:Port Peer Address:Port
[root@localhost ~]#
说明:
实例8:显示所有状态为Established的HTTP连接
命令:
ss -o
state established '( dport = :http or sport = :http )'
输出:
[root@localhost ~]# ss -o state established '( dport = :http or sport = :http )'
Recv-Q Send-Q Local Address:Port Peer Address:Port
0 0 75.126.153.214:2164 192.168.10.42:http
[root@localhost ~]#
说明:
实例9:列举出处于
FIN-WAIT-1状态的源端口为
80或者
443,目标网络为
193.233.7/24所有
tcp套接字
命令:
ss -o
state fin-wait-1 '( sport = :http or sport = :https )' dst
193.233.7/24
输出:
说明:
实例10:用TCP
状态过滤Sockets:
命令:
ss -4
state FILTER-NAME-HERE
ss -6
state FILTER-NAME-HERE
输出:
[root@localhost ~]#ss -4 state closing
Recv-Q Send-Q Local Address:Port Peer Address:Port
1 11094 75.126.153.214:http 192.168.10.42:4669
说明:
FILTER-NAME-HERE
可以代表以下任何一个:
established
syn-sent
syn-recv
fin-wait-1
fin-wait-2
time-wait
closed
close-wait
last-ack
listen
closing
all :
所有以上状态
connected
: 除了listen
and closed的所有状态
synchronized
:所有已连接的状态除了syn-sent
bucket
: 显示状态为maintained
as minisockets,如:time-wait和syn-recv.
big :
和bucket相反.
实例11:匹配远程地址和端口号
命令:
ss dst
ADDRESS_PATTERN
ss
dst 192.168.1.5
ss dst
192.168.119.113:http
ss dst
192.168.119.113:smtp
ss dst
192.168.119.113:443
输出:
[root@localhost ~]# ss dst 192.168.119.113
State Recv-Q Send-Q Local Address:Port Peer Address:Port
ESTAB 0 0 192.168.119.103:16014 192.168.119.113:20229
ESTAB 0 0 192.168.119.103:16014 192.168.119.113:61056
ESTAB 0 0 192.168.119.103:16014 192.168.119.113:61623
ESTAB 0 0 192.168.119.103:16014 192.168.119.113:60924
ESTAB 0 0 192.168.119.103:16050 192.168.119.113:43701
ESTAB 0 0 192.168.119.103:16073 192.168.119.113:32930
ESTAB 0 0 192.168.119.103:16073 192.168.119.113:49318
ESTAB 0 0 192.168.119.103:16014 192.168.119.113:3844
[root@localhost ~]# ss dst 192.168.119.113:http
State Recv-Q Send-Q Local Address:Port Peer Address:Port
[root@localhost ~]# ss dst 192.168.119.113:3844
State Recv-Q Send-Q Local Address:Port Peer Address:Port
ESTAB 0 0 192.168.119.103:16014 192.168.119.113:3844
[root@localhost ~]#
说明:
实例12:匹配本地地址和端口号
命令:
ss src
ADDRESS_PATTERN
ss src
192.168.119.103
ss src
192.168.119.103:http
ss src
192.168.119.103:80
ss src
192.168.119.103:smtp
ss src
192.168.119.103:25
输出:
[root@localhost ~]# ss src 192.168.119.103:16021
State Recv-Q Send-Q Local Address:Port Peer Address:Port
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:63054
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:62894
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:63055
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:2274
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:44784
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:7233
ESTAB 0 0 192.168.119.103:16021 192.168.119.103:58660
ESTAB 0 0 192.168.119.103:16021 192.168.119.201:44822
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:56737
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:57487
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:56736
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:64652
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:56586
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:64653
ESTAB 0 0 192.168.119.103:16021 10.2.1.206:56587
[root@localhost ~]#
说明:
实例13:将本地或者远程端口和一个数比较
命令:
ss
dport OP PORT
ss
sport OP PORT
输出:
[root@localhost ~]# ss sport = :http
[root@localhost ~]# ss dport = :http
[root@localhost ~]# ss dport \> :1024
[root@localhost ~]# ss sport \> :1024
[root@localhost ~]# ss sport \< :32000
[root@localhost ~]# ss sport eq :22
[root@localhost ~]# ss dport != :22
[root@localhost ~]# ss state connected sport = :http
[root@localhost ~]# ss \( sport = :http or sport = :https \)
[root@localhost ~]# ss -o state fin-wait-1 \( sport = :http or sport = :https \) dst 192.168.1/24
说明:
ss
dport OP PORT 远程端口和一个数比较;ss
sport OP PORT 本地端口和一个数比较。
OP
可以代表以下任意一个:
<=
or le : 小于或等于端口号
>=
or ge : 大于或等于端口号
== or
eq : 等于端口号
!= or
ne : 不等于端口号
<
or gt : 小于端口号
>
or lt : 大于端口号
实例14:ss
和 netstat
效率对比
命令:
time
netstat -at
time
ss
输出:
[root@localhost ~]# time ss
real 0m0.739s
user 0m0.019s
sys 0m0.013s
[root@localhost ~]#
[root@localhost ~]# time netstat -at
real 2m45.907s
user 0m0.063s
sys 0m0.067s
[root@localhost ~]#
说明:
用time
命令分别获取通过netstat和ss命令获取程序和概要占用资源所使用的时间。在服务器连接数比较多的时候,netstat的效率完全没法和ss比。
telnet
命令通常用来远程登录。telnet程序是基于TELNET协议的远程登录客户端程序。Telnet协议是TCP/IP协议族中的一员,是
Internet远程登陆服务的标准协议和主要方式。它为用户提供了在本地计算机上完成远程主机工作的
能力。在终端使用者的电脑上使用telnet程
序,用它连接到服务器。终端使用者可以在telnet程序中输入命令,这些命令会在服务器上运行,就像直接在服务器的控制台上输入一样。可以在本地就能控
制服务器。要开始一个
telnet会话,必须输入用户名和密码来登录服务器。Telnet是常用的远程控制Web服务器的方法。
但是,telnet因为采用明文传送报文,安全性不好,很多Linux服务器都不开放telnet服务,而改用更安全的ssh方式了。但仍然有很多别的系统可能采用了telnet方式来提供远程登录,因此弄清楚telnet客户端的使用方式仍是很有必要的。
telnet命令还可做别的用途,比如确定远程服务的状态,比如确定远程服务器的某个端口是否能访问。
1.命令格式:
telnet[参数][主机]
2.命令功能:
执行telnet指令开启终端机阶段作业,并登入远端主机。
3.命令参数:
-8
允许使用8位字符资料,包括输入与输出。
-a
尝试自动登入远端系统。
-b<主机别名>
使用别名指定远端主机名称。
-c
不读取用户专属目录里的.telnetrc文件。
-d
启动排错模式。
-e<脱离字符>
设置脱离字符。
-E
滤除脱离字符。
-f
此参数的效果和指定"-F"参数相同。
-F
使用Kerberos
V5认证时,加上此参数可把本地主机的认证数据上传到远端主机。
-k<域名>
使用Kerberos认证时,加上此参数让远端主机采用指定的领域名,而非该主机的域名。
-K
不自动登入远端主机。
-l<用户名称>
指定要登入远端主机的用户名称。
-L
允许输出8位字符资料。
-n<记录文件>
指定文件记录相关信息。
-r
使用类似rlogin指令的用户界面。
-S<服务类型>
设置telnet连线所需的IP
TOS信息。
-x
假设主机有支持数据加密的功能,就使用它。
-X<认证形态>
关闭指定的认证形态。
4.使用实例:
实例1:远程服务器无法访问
命令:
telnet
192.168.120.206
输出:
[root@localhost ~]# telnet 192.168.120.209
Trying 192.168.120.209...
telnet: connect to address 192.168.120.209: No route to host
telnet: Unable to connect to remote host: No route to host
[root@localhost ~]#
说明:
处理这种情况方法:
(1)确认ip地址是否正确?
(2)确认ip地址对应的主机是否已经开机?
(3)如果主机已经启动,确认路由设置是否设置正确?(使用route命令查看)
(4)如果主机已经启动,确认主机上是否开启了telnet服务?(使用netstat命令查看,TCP的23端口是否有LISTEN状态的行)
(5)如果主机已经启动telnet服务,确认防火墙是否放开了23端口的访问?(使用iptables-save查看)
实例2:域名无法解析
命令:
telnet
www.baidu.com
输出:
[root@localhost ~]# telnet www.baidu.com
www.baidu.com/telnet: Temporary failure in name resolution
[root@localhost ~]#
说明:
处理这种情况方法:
(1)确认域名是否正确
(2)确认本机的域名解析有关的设置是否正确(/etc/resolv.conf中nameserver的设置是否正确,如果没有,可以使用nameserver
8.8.8.8)
(3)确认防火墙是否放开了UDP53端口的访问(DNS使用UDP协议,端口53,使用iptables-save查看)
实例3:
命令:
输出:
[root@localhost ~]# telnet 192.168.120.206
Trying 192.168.120.206...
telnet: connect to address 192.168.120.206: Connection refused
telnet: Unable to connect to remote host: Connection refused
[root@localhost ~]#
说明:
处理这种情况:
(1)确认ip地址或者主机名是否正确?
(2)确认端口是否正确,是否默认的23端口
实例4:启动telnet服务
命令:
service
xinetd restart
输出:
[root@localhost ~]# cd /etc/xinetd.d/
[root@localhost xinetd.d]# ll
总计 124
-rw-r--r-- 1 root root 1157 2011-05-31 chargen-dgram
-rw-r--r-- 1 root root 1159 2011-05-31 chargen-stream
-rw-r--r-- 1 root root 523 2009-09-04 cvs
-rw-r--r-- 1 root root 1157 2011-05-31 daytime-dgram
-rw-r--r-- 1 root root 1159 2011-05-31 daytime-stream
-rw-r--r-- 1 root root 1157 2011-05-31 discard-dgram
-rw-r--r-- 1 root root 1159 2011-05-31 discard-stream
-rw-r--r-- 1 root root 1148 2011-05-31 echo-dgram
-rw-r--r-- 1 root root 1150 2011-05-31 echo-stream
-rw-r--r-- 1 root root 323 2004-09-09 eklogin
-rw-r--r-- 1 root root 347 2005-09-06 ekrb5-telnet
-rw-r--r-- 1 root root 326 2004-09-09 gssftp
-rw-r--r-- 1 root root 310 2004-09-09 klogin
-rw-r--r-- 1 root root 323 2004-09-09 krb5-telnet
-rw-r--r-- 1 root root 308 2004-09-09 kshell
-rw-r--r-- 1 root root 317 2004-09-09 rsync
-rw-r--r-- 1 root root 1212 2011-05-31 tcpmux-server
-rw-r--r-- 1 root root 1149 2011-05-31 time-dgram
-rw-r--r-- 1 root root 1150 2011-05-31 time-stream
[root@localhost xinetd.d]# cat krb5-telnet
# default: off
# description: The kerberized telnet server accepts normal telnet sessions, \
# but can also use Kerberos 5 authentication.
service telnet
{
flags = REUSE
socket_type = stream
wait = no
user = root
server = /usr/kerberos/sbin/telnetd
log_on_failure += USERID
disable = yes
}
[root@localhost xinetd.d]#
说明:
配置参数,通常的配置如下:
service
telnet
{
disable
= no #启用
flags
= REUSE #socket可重用
socket_type
= stream #连接方式为TCP
wait =
no #为每个请求启动一个进程
user =
root #启动服务的用户为root
server
= /usr/sbin/in.telnetd #要激活的进程
log_on_failure
+= USERID #登录失败时记录登录用户名
}
如果要配置允许登录的客户端列表,加入
only_from
= 192.168.0.2 #只允许192.168.0.2登录
如果要配置禁止登录的客户端列表,加入
no_access
= 192.168.0.{2,3,4} #禁止192.168.0.2、192.168.0.3、192.168.0.4登录
如果要设置开放时段,加入
access_times
= 9:00-12:00 13:00-17:00 # 每天只有这两个时段开放服务(我们的上班时间:P)
如果你有两个IP地址,一个是私网的IP地址如192.168.0.2,一个是公网的IP地址如218.75.74.83,如果你希望用户只能从私网来登录telnet服务,那么加入
bind =
192.168.0.2
各配置项具体的含义和语法可参考xined配置文件属性说明(man
xinetd.conf)
配置端口,修改services文件:
# vi
/etc/services
找到以下两句
telnet
23/tcp
telnet
23/udp
如
果前面有#字符,就去掉它。telnet的默认端口是23,这个端口也是黑客端口扫描的主要对象,因此最好将这个端口修改掉,修改的方法很简单,就是将
23这个数字修改掉,改成大一点的数字,比如61123。注意,1024以下的端口号是internet保留的端口号,因此最好不要用,还应该注意不要与
其它服务的端口冲突。
启动服务:
service
xinetd restart
实例5:正常telnet
命令:
telnet
192.168.120.204
输出:
[root@andy ~]# telnet 192.168.120.204
Trying 192.168.120.204...
Connected to 192.168.120.204 (192.168.120.204).
Escape character is '^]'.
localhost (Linux release 2.6.18-274.18.1.el5 #1 SMP Thu Feb 9 12:45:44 EST 2012) (1)
login: root
Password:
Login incorrect
说明:
一般情况下不允许root从远程登录,可以先用普通账号登录,然后再用su
-切到root用户。
rcp代表“remote
file
copy”(远程文件拷贝)。该命令用于在计算机之间拷贝文件。rcp命令有两种格式。第一种格式用于文件到文件的拷贝;第二种格式用于把文件或目录拷贝到另一个目录中。
1.命令格式:
rcp
[参数]
[源文件]
[目标文件]
2.命令功能:
rcp命令用在远端复制文件或目录,如同时指定两个以上的文件或目录,且最后的目的地是一个已经存在的目录,则它会把前面指定的所有文件或目录复制到该目录中。
3.命令参数:
各选项含义:
-r
递归地把源目录中的所有内容拷贝到目的目录中。要使用这个选项,目的必须是一个目录。
-p
试图保留源文件的修改时间和模式,忽略umask。
-k
请求rcp获得在指定区域内的远程主机的Kerberos
许可,而不是获得由krb_relmofhost⑶确定的远程主机区域内的远程主机的Kerberos许可。
-x
为
传送的所有数据打开DES加密。这会影响响应时间和CPU利用率,但是可以提高安全性。如果在文件名中指定的路径不是完整的路径名,那么这个路径被解释为
相对远程机上同名用户的主目录。如果没有给出远程用户名,就使用当前用户名。如果远程机上的路径包含特殊shell字符,需要用反斜线(\\)、双引号
(”)或单引号(’)括起来,使所有的shell元字符都能被远程地解释。需要说明的是,rcp不提示输入口令,它通过rsh命令来执行拷贝。
directory
每个文件或目录参数既可以是远程文件名也可以是本地文件名。远程文件名具有如下形式:rname@rhost:path,其中rname是远程用户名,rhost是远程计算机名,path是这个文件的路径。
4.使用实例:
要使用
rcp,需要具备以下条件:
如果系统中有
/etc/hosts
文件,系统管理员应确保该文件包含要与之进行通信的远程主机的项。
/etc/hosts
文件中有一行文字,其中包含每个远程系统的以下信息:
internet_address
official_name alias
例如:
9.186.10.***
webserver1.com.58.webserver
.rhosts
文件
.rhosts
文件位于远程系统的主目录下,其中包含本地系统的名称和本地登录名。
例如,远程系统的
.rhosts
文件中的项可能是:
webserver1
root
其中,webserver1
是本地系统的名称,root
是本地登录名。这样,webserver1
上的
root
即可在包含
.rhosts
文件的远程系统中来回复制文件。
配置过程:
只对root用户生效
1.
在双方root用户根目录下建立.rhosts文件,并将双方的hostname加进去.在此之前应在双方的
/etc/hosts文件中加入对方的IP和hostname
2.
把rsh服务启动起来,redhat默认是不启动的。
方法:用执行ntsysv命令,在rsh选项前用空格键选中,确定退出。然后执行:
service
xinetd restart即可。
3.
到/etc/pam.d/目录下,把rsh文件中的auth
required /lib/security/pam_securetty.so
一行用“#”注释掉即可。(只有注释掉这一行,才能用root用户登录)
命令使用:
将文件复制到远程系统
要将本地系统中的文件复制到远程系统,请使用以下命令:
Rcp
local_fileremote_hostname:remote_fileEnter
注意,如果当前目录下没有
local_file,则除本地文件名外,还需要提供相对路径(自当前目录开始)或绝对路径名(自
/
开始)。
仅当希望将
remote_hostname
上的
remote_file
放到其他目录(远程主目录除外)下时,才需要为其指定完整的(绝对)路径。
使用实例1:将当前目录下的
test1
复制到名为
webserver1的远程系统
命令:
rcp
test1 webserver1:/home/root/test3
说明:
在这种情况下,test1
被复制到远程子目录
test3下,名称仍为
test1
。如果仅提供了远程主机名,rcp
将把
test1
复制到远程主目录下,名称仍为
test1
。
还可以在目的目录中包含文件名。例如,将文件复制到名为
webserver1的系统中:
rcp
test1 webserver1:/home/root/test3
在这种情况下,将
test1
复制到远程目录root
下并将其命名为
test3。
使用实例2:从远程系统复制文件:要将远程系统中的文件复制到本地目录下
命令:
rcp
remote_hostname:remote_file local_fileEnter
使用实例:3:将远程系统
webserver1中的
test2
复制到当前目录:
命令:
rcp
webserver1:/home/root/test2 .Enter
说明:
点
(.)
是“当前目录”的简写形式。在这种情况下,远程目录中的
test2
被复制到当前目录下,名称仍为
test2
。
如果希望用新名称复制文件,请提供目标文件名。
如果希望将
test2
复制到本地系统中的其他目录下,请使用以下绝对或相对路径名:
rcp
webserver1:/home/root/test2 otherdir/ Enter
或者,如果希望用其他文件名将文件复制到其他目录下:
rcp
webserver1:/home/root/test2 otherdir/otherfile Enter
使用实例4:将目录复制到远程系统:要将本地目录及其文件和子目录复制到远程系统,请同时使用
rcp
和
-r(递归)选项。
命令:
rcp
–r local_dir remote_hostname:remote_dir Enter
说明:
如
果当前目录下没有
local_dir,则除本地目录名外,还需要提供相对路径名(自当前目录开始)或绝对路径名(自
/
*目录开始)。另外,如果主
目录下没有 remote_dir,则
remote_dir
将需要一个相对路径(自主目录开始)或绝对路径(自
/
开始)。
使用实例5:
要将名为
work
的子目录完整地复制到
webserver1远程计算机中的主目录下名为
products
的目录,请键入以下内容:
rcp
–r work webserver1:/home/root/products Enter
此命令在
webserver1:/home/root/products
下创建名为
work
的目录及其全部内容(假定
/home/root/products
已存在于
webserver1中)。
本示例假定用户处于包含
work
的本地目录下。否则,必须提供该目录的相对或绝对路径,如
/home/root/work。
使用实例6:从远程系统复制目录:
要将远程目录及其所有文件和子目录复制到本地目录,请在以下语法中使用
rcp
和
-r(递归)选项。
命令:
rcp
–r remote_hostname:remote_dir local_dir Enter
要将名为
work
的远程目录复制到当前目录,请键入以下内容:z
rcp
–r webserver1:/home/root/work .Enter
点
(.)
表示当前目录。将在此目录下创建
work
目录。
scp
是secure
copy的简写,用于在Linux下进行远程拷贝文件的命令,和它类似的命令有cp,不过cp只是在本机进行拷贝不能跨服务器,而且
scp传输是加密的。可能会稍微影响一下速度。当你服务器硬盘变为只读
read
only system时,用scp可以帮你把文件移出来。另
外,scp还非常不占资源,不会提高多少系统负荷,在这一点上,rsync就远远不及它了。虽然
rsync比scp会快一点,但当小文件众多的情况
下,rsync会导致硬盘I/O非常高,而scp基本不影响系统正常使用。
1.命令格式:
scp [参数] [原路径] [目标路径]
2.命令功能:
scp是
secure
copy的缩写,
scp是linux系统下基于ssh登陆进行安全的远程文件拷贝命令。linux的scp命令可以在linux服务器之间复制文件和目录。
3.命令参数:
-1
强制scp命令使用协议ssh1
-2
强制scp命令使用协议ssh2
-4
强制scp命令只使用IPv4寻址
-6
强制scp命令只使用IPv6寻址
-B
使用批处理模式(传输过程中不询问传输口令或短语)
-C
允许压缩。(将-C标志传递给ssh,从而打开压缩功能)
-p
保留原文件的修改时间,访问时间和访问权限。
-q
不显示传输进度条。
-r
递归复制整个目录。
-v
详细方式显示输出。scp和ssh(1)会显示出整个过程的调试信息。这些信息用于调试连接,验证和配置问题。
-c
cipher 以cipher将数据传输进行加密,这个选项将直接传递给ssh。
-F
ssh_config 指定一个替代的ssh配置文件,此参数直接传递给ssh。
-i
identity_file 从指定文件中读取传输时使用的密钥文件,此参数直接传递给ssh。
-l
limit 限定用户所能使用的带宽,以Kbit/s为单位。
-o
ssh_option 如果习惯于使用ssh_config(5)中的参数传递方式,
-P
port 注意是大写的P,
port是指定数据传输用到的端口号
-S
program 指定加密传输时所使用的程序。此程序必须能够理解ssh(1)的选项。
4.使用实例:
scp命令的实际应用概述:
从本地服务器复制到远程服务器:
(1)
复制文件:
命令格式:
scp
local_file remote_username@remote_ip:remote_folder
或者
scp
local_file remote_username@remote_ip:remote_file
或者
scp
local_file remote_ip:remote_folder
或者
scp
local_file remote_ip:remote_file
第1,2个指定了用户名,命令执行后需要输入用户密码,第1个仅指定了远程的目录,文件名字不变,第2个指定了文件名
第3,4个没有指定用户名,命令执行后需要输入用户名和密码,第3个仅指定了远程的目录,文件名字不变,第4个指定了文件名
(2)
复制目录:
命令格式:
scp -r
local_folder remote_username@remote_ip:remote_folder
或者
scp -r
local_folder remote_ip:remote_folder
第1个指定了用户名,命令执行后需要输入用户密码;
第2个没有指定用户名,命令执行后需要输入用户名和密码;
从远程服务器复制到本地服务器:
从远程复制到本地的scp命令与上面的命令雷同,只要将从本地复制到远程的命令后面2个参数互换顺序就行了。
实例1:从远处复制文件到本地目录
命令:
scp
root@192.168.120.204:/opt/soft/nginx-0.5.38.tar.gz /opt/soft/
输出:
[root@localhost ~]# cd /opt/soft/
[root@localhost soft]# ll
总计 80072
drwxr-xr-x 12 root root 4096 09-21 18:40 fms3.5
drwxr-xr-x 3 root root 4096 09-21 17:58 fms4.5
drwxr-xr-x 10 root root 4096 10-30 17:15 jdk1.6.0_16
drwxr-xr-x 10 root root 4096 09-17 19:27 jdk1.6.0_16.bak
-rwxr-xr-x 1 root root 81871260 2009-12-21 jdk-6u16-linux-x64.bin
drwxrwxrwx 2 root root 4096 09-21 01:16 mysql
drwxr-xr-x 3 root root 4096 09-21 18:40 setup_file
drwxr-xr-x 9 root root 4096 09-17 19:23 tomcat6.0.32
drwxr-xr-x 9 root root 4096 2012-08-14 tomcat_7.0
[root@localhost soft]# scp root@192.168.120.204:/opt/soft/nginx-0.5.38.tar.gz /opt/soft/
root@192.168.120.204's password:
nginx-0.5.38.tar.gz 100% 479KB 478.7KB/s 00:00
[root@localhost soft]# ll
总计 80556
drwxr-xr-x 12 root root 4096 09-21 18:40 fms3.5
drwxr-xr-x 3 root root 4096 09-21 17:58 fms4.5
drwxr-xr-x 10 root root 4096 10-30 17:15 jdk1.6.0_16
drwxr-xr-x 10 root root 4096 09-17 19:27 jdk1.6.0_16.bak
-rwxr-xr-x 1 root root 81871260 2009-12-21 jdk-6u16-linux-x64.bin
drwxrwxrwx 2 root root 4096 09-21 01:16 mysql
-rw-r--r-- 1 root root 490220 03-15 09:11 nginx-0.5.38.tar.gz
drwxr-xr-x 3 root root 4096 09-21 18:40 setup_file
drwxr-xr-x 9 root root 4096 09-17 19:23 tomcat6.0.32
drwxr-xr-x 9 root root 4096 2012-08-14 tomcat_7.0
[root@localhost soft]#
说明:
从192.168.120.204机器上的/opt/soft/的目录中下载nginx-0.5.38.tar.gz
文件到本地/opt/soft/目录中
实例2:从远处复制到本地
命令:
scp -r
root@192.168.120.204:/opt/soft/mongodb /opt/soft/
输出:
[root@localhost soft]# ll
总计 80556
drwxr-xr-x 12 root root 4096 09-21 18:40 fms3.5
drwxr-xr-x 3 root root 4096 09-21 17:58 fms4.5
drwxr-xr-x 10 root root 4096 10-30 17:15 jdk1.6.0_16
drwxr-xr-x 10 root root 4096 09-17 19:27 jdk1.6.0_16.bak
-rwxr-xr-x 1 root root 81871260 2009-12-21 jdk-6u16-linux-x64.bin
drwxrwxrwx 2 root root 4096 09-21 01:16 mysql
-rw-r--r-- 1 root root 490220 03-15 09:11 nginx-0.5.38.tar.gz
drwxr-xr-x 3 root root 4096 09-21 18:40 setup_file
drwxr-xr-x 9 root root 4096 09-17 19:23 tomcat6.0.32
drwxr-xr-x 9 root root 4096 2012-08-14 tomcat_7.0
[root@localhost soft]# scp -r root@192.168.120.204:/opt/soft/mongodb /opt/soft/
root@192.168.120.204's password:
mongodb-linux-i686-static-1.8.5.tgz 100% 28MB 28.3MB/s 00:01
README 100% 731 0.7KB/s 00:00
THIRD-PARTY-NOTICES 100% 7866 7.7KB/s 00:00
mongorestore 100% 7753KB 7.6MB/s 00:00
mongod 100% 7760KB 7.6MB/s 00:01
mongoexport 100% 7744KB 7.6MB/s 00:00
bsondump 100% 7737KB 7.6MB/s 00:00
mongofiles 100% 7748KB 7.6MB/s 00:01
mongostat 100% 7808KB 7.6MB/s 00:00
mongos 100% 5262KB 5.1MB/s 00:01
mongo 100% 3707KB 3.6MB/s 00:00
mongoimport 100% 7754KB 7.6MB/s 00:00
mongodump 100% 7773KB 7.6MB/s 00:00
GNU-AGPL-3.0 100% 34KB 33.7KB/s 00:00
[root@localhost soft]# ll
总计 80560
drwxr-xr-x 12 root root 4096 09-21 18:40 fms3.5
drwxr-xr-x 3 root root 4096 09-21 17:58 fms4.5
drwxr-xr-x 10 root root 4096 10-30 17:15 jdk1.6.0_16
drwxr-xr-x 10 root root 4096 09-17 19:27 jdk1.6.0_16.bak
-rwxr-xr-x 1 root root 81871260 2009-12-21 jdk-6u16-linux-x64.bin
drwxr-xr-x 3 root root 4096 03-15 09:18 mongodb
drwxrwxrwx 2 root root 4096 09-21 01:16 mysql
-rw-r--r-- 1 root root 490220 03-15 09:11 nginx-0.5.38.tar.gz
drwxr-xr-x 3 root root 4096 09-21 18:40 setup_file
drwxr-xr-x 9 root root 4096 09-17 19:23 tomcat6.0.32
drwxr-xr-x 9 root root 4096 2012-08-14 tomcat_7.0
[root@localhost soft]#
说明:
从192.168.120.204机器上的/opt/soft/中下载mongodb
目录到本地的/opt/soft/目录来。
实例3:上传本地文件到远程机器指定目录
命令:
scp
/opt/soft/nginx-0.5.38.tar.gz root@192.168.120.204:/opt/soft/scptest
输出:
上传前目标机器的目标目录:
[root@localhost soft]# cd scptest/
[root@localhost scptest]# ll
总计 0
[root@localhost scptest]# ll
本地机器上传:
[root@localhost soft]# scp /opt/soft/nginx-0.5.38.tar.gz root@192.168.120.204:/opt/soft/scptest
root@192.168.120.204's password:
nginx-0.5.38.tar.gz 100% 479KB 478.7KB/s 00:00
[root@localhost soft]#
上传后目标机器的目标目录:
[root@localhost scptest]# ll
总计 484
-rw-r--r-- 1 root root 490220 03-15 09:25 nginx-0.5.38.tar.gz
[root@localhost scptest]#
说明:
复制本地opt/soft/目录下的文件nginx-0.5.38.tar.gz 到远程机器192.168.120.204的opt/soft/scptest目录
实例4:上传本地目录到远程机器指定目录
命令:
scp -r
/opt/soft/mongodb root@192.168.120.204:/opt/soft/scptest
输出:
上传前目标机器的目标目录:
[root@localhost ~]# cd /opt/soft/scptest/
[root@localhost scptest]# ll
总计 484
-rw-r--r-- 1 root root 490220 03-15 09:25 nginx-0.5.38.tar.gz
[root@localhost scptest]#
本地机器上传:
[root@localhost ~]# scp -r /opt/soft/mongodb root@192.168.120.204:/opt/soft/scptest
root@192.168.120.204's password:
mongodb-linux-i686-static-1.8.5.tgz 100% 28MB 28.3MB/s 00:01
README 100% 731 0.7KB/s 00:00
THIRD-PARTY-NOTICES 100% 7866 7.7KB/s 00:00
mongorestore 100% 7753KB 7.6MB/s 00:00
mongod 100% 7760KB 7.6MB/s 00:01
mongoexport 100% 7744KB 7.6MB/s 00:00
bsondump 100% 7737KB 7.6MB/s 00:00
mongofiles 100% 7748KB 7.6MB/s 00:00
mongostat 100% 7808KB 7.6MB/s 00:01
mongos 100% 5262KB 5.1MB/s 00:00
mongo 100% 3707KB 3.6MB/s 00:00
mongoimport 100% 7754KB 7.6MB/s 00:01
mongodump 100% 7773KB 7.6MB/s 00:00
GNU-AGPL-3.0 100% 34KB 33.7KB/s 00:00
[root@localhost ~]#
上传后目标机器的目标目录:
[root@localhost scptest]# ll
总计 488
drwxr-xr-x 3 root root 4096 03-15 09:33 mongodb
-rw-r--r-- 1 root root 490220 03-15 09:25 nginx-0.5.38.tar.gz
[root@localhost scptest]#
说明:
上传本地目录
/opt/soft/mongodb到远程机器192.168.120.204上/opt/soft/scptest的目录中去
Linux系统中的wget是一个下载文件的工具,它用在命令行下。对于Linux用户是必不可少的工具,我们经常要下载一些软件或从远程服务器恢复备份到本地服务器。wget支持HTTP,HTTPS和FTP协议,可以使用HTTP代理。所谓的自动下载是指,wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统,启动一个wget下载任务,然后退出系统,wget将在后台执行直到任务完成,相对于其它大部分浏览器在下载大量数据时需要用户一直的参与,这省去了极大的麻烦。
wget
可
以跟踪HTML页面上的链接依次下载来创建远程服务器的本地版本,完全重建原始站点的目录结构。这又常被称作”递归下载”。在递归下载的时
候,wget
遵循Robot
Exclusion标准(/robots.txt).
wget可以在下载的同时,将链接转换成指向本地文件,以方便离线
浏览。
wget
非常稳定,它在带宽很窄的情况下和不稳定网络中有很强的适应性.如果是由于网络的原因下载失败,wget会不断的尝试,直到整个文件下载完毕。如果是服务器打断下载过程,它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。
1.命令格式:
wget
[参数]
[URL地址]
2.命令功能:
用于从网络上下载资源,没有指定目录,下载资源回默认为当前目录。wget虽然功能强大,但是使用起来还是比较简单:
1)支持断点下传功能;这一点,也是网络蚂蚁和FlashGet当年最大的卖点,现在,Wget也可以使用此功能,那些网络不是太好的用户可以放心了;
2)同时支持FTP和HTTP下载方式;尽管现在大部分软件可以使用HTTP方式下载,但是,有些时候,仍然需要使用FTP方式下载软件;
3)支持代理服务器;对安全强度很高的系统而言,一般不会将自己的系统直接暴露在互联网上,所以,支持代理是下载软件必须有的功能;
4)设置方便简单;可能,习惯图形界面的用户已经不是太习惯命令行了,但是,命令行在设置上其实有更多的优点,最少,鼠标可以少点很多次,也不要担心是否错点鼠标;
5)程序小,完全免费;程序小可以考虑不计,因为现在的硬盘实在太大了;完全免费就不得不考虑了,即使网络上有很多所谓的免费软件,但是,这些软件的广告却不是我们喜欢的。
3.命令参数:
启动参数:
-V,
–version 显示wget的版本后退出
-h,
–help 打印语法帮助
-b,
–background 启动后转入后台执行
-e,
–execute=COMMAND 执行`.wgetrc’格式的命令,wgetrc格式参见/etc/wgetrc或~/.wgetrc
记录和输入文件参数:
-o,
–output-file=FILE 把记录写到FILE文件中
-a,
–append-output=FILE 把记录追加到FILE文件中
-d,
–debug 打印调试输出
-q,
–quiet 安静模式(没有输出)
-v,
–verbose 冗长模式(这是缺省设置)
-nv,
–non-verbose 关掉冗长模式,但不是安静模式
-i,
–input-file=FILE 下载在FILE文件中出现的URLs
-F,
–force-html 把输入文件当作HTML格式文件对待
-B,
–base=URL 将URL作为在-F
-i参数指定的文件中出现的相对链接的前缀
–sslcertfile=FILE
可选客户端证书
–sslcertkey=KEYFILE
可选客户端证书的KEYFILE
–egd-file=FILE
指定EGD
socket的文件名
下载参数:
–bind-address=ADDRESS
指定本地使用地址(主机名或IP,当本地有多个IP或名字时使用)
-t,
–tries=NUMBER 设定最大尝试链接次数(0
表示无限制).
-O
–output-document=FILE 把文档写到FILE文件中
-nc,
–no-clobber 不要覆盖存在的文件或使用.#前缀
-c,
–continue 接着下载没下载完的文件
–progress=TYPE
设定进程条标记
-N,
–timestamping 不要重新下载文件除非比本地文件新
-S,
–server-response 打印服务器的回应
–spider
不下载任何东西
-T,
–timeout=SECONDS 设定响应超时的秒数
-w,
–wait=SECONDS 两次尝试之间间隔SECONDS秒
–waitretry=SECONDS
在重新链接之间等待1…SECONDS秒
–random-wait
在下载之间等待0…2*WAIT秒
-Y,
–proxy=on/off 打开或关闭代理
-Q,
–quota=NUMBER 设置下载的容量限制
–limit-rate=RATE
限定下载输率
目录参数:
-nd
–no-directories 不创建目录
-x,
–force-directories 强制创建目录
-nH,
–no-host-directories 不创建主机目录
-P,
–directory-prefix=PREFIX 将文件保存到目录
PREFIX/…
–cut-dirs=NUMBER
忽略
NUMBER层远程目录
HTTP
选项参数:
–http-user=USER
设定HTTP用户名为
USER.
–http-passwd=PASS
设定http密码为
PASS
-C,
–cache=on/off 允许/不允许服务器端的数据缓存
(一般情况下允许)
-E,
–html-extension 将所有text/html文档以.html扩展名保存
–ignore-length
忽略
`Content-Length’头域
–header=STRING
在headers中插入字符串
STRING
–proxy-user=USER
设定代理的用户名为
USER
–proxy-passwd=PASS
设定代理的密码为
PASS
–referer=URL
在HTTP请求中包含
`Referer:
URL’头
-s,
–save-headers 保存HTTP头到文件
-U,
–user-agent=AGENT 设定代理的名称为
AGENT而不是
Wget/VERSION
–no-http-keep-alive
关闭
HTTP活动链接
(永远链接)
–cookies=off
不使用
cookies
–load-cookies=FILE
在开始会话前从文件
FILE中加载cookie
–save-cookies=FILE
在会话结束后将
cookies保存到
FILE文件中
FTP
选项参数:
-nr,
–dont-remove-listing 不移走
`.listing’文件
-g,
–glob=on/off 打开或关闭文件名的
globbing机制
–passive-ftp
使用被动传输模式
(缺省值).
–active-ftp
使用主动传输模式
–retr-symlinks
在递归的时候,将链接指向文件(而不是目录)
递归下载参数:
-r,
–recursive 递归下载--慎用!
-l,
–level=NUMBER 最大递归深度
(inf
或
0
代表无穷)
–delete-after
在现在完毕后局部删除文件
-k,
–convert-links 转换非相对链接为相对链接
-K,
–backup-converted 在转换文件X之前,将之备份为
X.orig
-m,
–mirror 等价于
-r
-N -l inf -nr
-p,
–page-requisites 下载显示HTML文件的所有图片
递归下载中的包含和不包含(accept/reject):
-A,
–accept=LIST 分号分隔的被接受扩展名的列表
-R,
–reject=LIST 分号分隔的不被接受的扩展名的列表
-D,
–domains=LIST 分号分隔的被接受域的列表
–exclude-domains=LIST
分号分隔的不被接受的域的列表
–follow-ftp
跟踪HTML文档中的FTP链接
–follow-tags=LIST
分号分隔的被跟踪的HTML标签的列表
-G,
–ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表
-H,
–span-hosts 当递归时转到外部主机
-L,
–relative 仅仅跟踪相对链接
-I,
–include-directories=LIST 允许目录的列表
-X,
–exclude-directories=LIST 不被包含目录的列表
-np,
–no-parent 不要追溯到父目录
wget
-S –spider url 不下载只显示过程
4.使用实例:
实例1:使用wget下载单个文件
命令:
wget
http://www.minjieren.com/wordpress-3.1-zh_CN.zip
说明:
以下的例子是从网络下载一个文件并保存在当前目录,在下载的过程中会显示进度条,包含(下载完成百分比,已经下载的字节,当前下载速度,剩余下载时间)。
实例2:使用wget
-O下载并以不同的文件名保存
命令:
:
wget -O wordpress.zip http://www.minjieren.com/download.aspx?id=1080
说明:
wget默认会以最后一个符合”/”的后面的字符来命令,对于动态链接的下载通常文件名会不正确。
错误:下面的例子会下载一个文件并以名称download.aspx?id=1080保存
wget
http://www.minjieren.com/download?id=1
即使下载的文件是zip格式,它仍然以download.php?id=1080命令。
正确:为了解决这个问题,我们可以使用参数-O来指定一个文件名:
wget
-O wordpress.zip http://www.minjieren.com/download.aspx?id=1080
实例3:使用wget
–limit -rate限速下载
命令:
wget
--limit-rate=300k http://www.minjieren.com/wordpress-3.1-zh_CN.zip
说明:
当你执行wget的时候,它默认会占用全部可能的宽带下载。但是当你准备下载一个大文件,而你还需要下载其它文件时就有必要限速了。
实例4:使用wget
-c断点续传
命令:
wget
-c http://www.minjieren.com/wordpress-3.1-zh_CN.zip
说明:
使用wget
-c重新启动下载中断的文件,对于我们下载大文件时突然由于网络等原因中断非常有帮助,我们可以继续接着下载而不是重新下载一个文件。需要继续中断的下载时可以使用-c参数。
实例5:使用wget
-b后台下载
命令:
wget
-b http://www.minjieren.com/wordpress-3.1-zh_CN.zip
说明:
对于下载非常大的文件的时候,我们可以使用参数-b进行后台下载。
wget
-b http://www.minjieren.com/wordpress-3.1-zh_CN.zip
Continuing
in background, pid 1840.
Output
will be written to `wget-log'.
你可以使用以下命令来察看下载进度:
tail
-f wget-log
实例6:伪装代理名称下载
命令:
wget
--user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US)
AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204
Safari/534.16" http://www.minjieren.com/wordpress-3.1-zh_CN.zip
说明:
有些网站能通过根据判断代理名称不是浏览器而拒绝你的下载请求。不过你可以通过–user-agent参数伪装。
实例7:使用wget
–spider测试下载链接
命令:
wget
--spider URL
说明:
当你打算进行定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加–spider参数进行检查。
wget
--spider URL
如果下载链接正确,将会显示
wget
--spider URL
Spider
mode enabled. Check if remote file exists.
HTTP
request sent, awaiting response... 200 OK
Length:
unspecified [text/html]
Remote
file exists and could contain further links,
but
recursion is disabled -- not retrieving.
这保证了下载能在预定的时间进行,但当你给错了一个链接,将会显示如下错误
wget
--spider url
Spider
mode enabled. Check if remote file exists.
HTTP
request sent, awaiting response... 404 Not Found
Remote
file does not exist -- broken link!!!
你可以在以下几种情况下使用spider参数:
定时下载之前进行检查
间隔检测网站是否可用
检查网站页面的死链接
实例8:使用wget
–tries增加重试次数
命令:
wget
--tries=40 URL
说明:
如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次连接下载文件。如果需要,你可以使用–tries增加重试次数。
实例9:使用wget
-i下载多个文件
命令:
wget
-i filelist.txt
说明:
首先,保存一份下载链接文件
cat
> filelist.txt
url1
url2
url3
url4
接着使用这个文件和参数-i下载
实例10:使用wget
–mirror镜像网站
命令:
wget
--mirror -p --convert-links -P ./LOCAL URL
说明:
下载整个网站到本地。
–miror:开户镜像下载
-p:下载所有为了html页面显示正常的文件
–convert-links:下载后,转换成本地的链接
-P
./LOCAL:保存所有文件和目录到本地指定目录
实例11:使用wget
–reject过滤指定格式下载
命令:
wget
--reject=gif ur
说明:
下载一个网站,但你不希望下载图片,可以使用以下命令。
实例12:使用wget
-o把下载信息存入日志文件
命令:
wget
-o download.log URL
说明:
不希望下载信息直接显示在终端而是在一个日志文件,可以使用
实例13:使用wget
-Q限制总下载文件大小
命令:
wget
-Q5m -i filelist.txt
说明:
当你想要下载的文件超过5M而退出下载,你可以使用。注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。
实例14:使用wget
-r -A下载指定格式文件
命令:
wget
-r -A.pdf url
说明:
可以在以下情况使用该功能:
下载一个网站的所有图片
下载一个网站的所有视频
下载一个网站的所有PDF文件
实例15:使用wget
FTP下载
命令:
wget
ftp-url
wget
--ftp-user=USERNAME --ftp-password=PASSWORD url
说明:
可以使用wget来完成ftp链接的下载。
使用wget匿名ftp下载:
wget
ftp-url
使用wget用户名和密码认证的ftp下载
wget
--ftp-user=USERNAME --ftp-password=PASSWORD url
备注:编译安装
使用如下命令编译安装:
#
tar zxvf wget-1.9.1.tar.gz
#
cd wget-1.9.1
#
./configure
#
make
#
make install
-
ssh 命令:
ssh
10.16.51.113 连接到指定服务器
WFT命令用来维护服务:
用法:
WFT { start | stop | state | show } [<标识>]
start:
启动服务
stop:
终止服务
state:
显示状态
show:
显示进程
linux
是一个很能自动产生文件的系统,日志、邮件、备份等。虽然现在硬盘廉价,我们可以有很多硬盘空间供这些文件浪费,让系统定时清理一些不需要的文件很有一种
爽快的事情。不用你去每天惦记着是否需要清理日志,不用每天收到硬盘空间不足的报警短信,想好好休息的话,让我们把这个事情交给机器定时去执行吧。
1.删除文件命令:
find
对应目录
-mtime
+天数
-name
"文件名"
-exec rm -rf {} \;
实例命令:
find
/opt/soft/log/ -mtime +30 -name "*.log" -exec rm -rf {} \;
说明:
将/opt/soft/log/目录下所有30天前带".log"的文件删除。具体参数说明如下:
find:linux的查找命令,用户查找指定条件的文件;
/opt/soft/log/:想要进行清理的任意目录;
-mtime:标准语句写法;
+30:查找30天前的文件,这里用数字代表天数;
"*.log":希望查找的数据类型,"*.jpg"表示查找扩展名为jpg的所有文件,"*"表示查找所有文件,这个可以灵活运用,举一反三;
-exec:固定写法;
rm
-rf:强制删除文件,包括目录;
{}
\; :固定写法,一对大括号+空格+\+;
2.计划任务:
若嫌每次手动执行语句太麻烦,可以将这小语句写到一个可执行shell脚本文件中,再设置cron调度执行,那就可以让系统自动去清理相关文件。
2.1创建shell:
touch
/opt/soft/bin/auto-del-30-days-ago-log.sh
chmod
+x auto-del-30-days-ago-log.sh
新建一个可执行文件auto-del-30-days-ago-log.sh,并分配可运行权限
2.2编辑shell脚本:
vi
auto-del-30-days-ago-log.sh
编辑auto-del-30-days-ago-log.sh文件如下:
#!/bin/sh
find
/opt/soft/log/ -mtime +30 -name "*.log" -exec rm -rf {} \;
ok,保存退出(:wq)。
2.3计划任务:
#crontab
-e
将auto-del-30-days-ago-log.sh执行脚本加入到系统计划任务,到点自动执行
输入:
10
0 * * * /opt/soft/log/auto-del-7-days-ago-log.sh >/dev/null 2>&1
这里的设置是每天凌晨0点10分执行auto-del-7-days-ago-log.sh文件进行数据清理任务了。
完成以上三步,你就再也不每天惦记是否硬盘空间满了,该清理日志文件了,再也不会受到服务器硬盘空间不足的报警信息了,放心的去看书喝咖啡去吧!
Linux中的文件和目录管理
df命令:
linux中df命令的功能是用来检查linux服务器的文件系统的磁盘空间占用情况。可以利用该命令来获取硬盘被占用了多少空间,目前还剩下多少空间等信息。
功能:磁盘与目录的容量
常用选项说明:
-h
以GB,MB,KB易读的格式显示出来
-I
不用硬盘的容量,而以inode的数量显示
格式
df
[-ahikhTm] xyz 文件或者目录(dirname/filename)
【例】将系统内所的分区都列出来
[root@dsetl
/]# df
Filesystem
1K-blocks Used Available Use% Mounted
on
/dev/mapper/VolGroup-lv_root
51606140 29317580 19667120 60% /
tmpfs
7601684 236 7601448 1%
/dev/shm
/dev/sda1
495844 38679 431565 9% /boot
/dev/mapper/VolGroup-lv_home
459882608 1 73166096 263355796 40% /home
【例】将系统容量结果以易读的容量格式显示出来
[root@dsetl
/]# df -h
Filesystem
1K-blocks Used Available Use% Mounted
on
/dev/mapper/VolGroup-lv_root
50G 28G 19G 60% /
tmpfs
7.3G 236K 7.3G 1%
/dev/shm
/dev/sda1
485M 38M 422M 9% /boot
/dev/mapper/VolGroup-lv_home
439G 166G 252G 40% /home
【例】将系统内的所有特殊文件格式及名称都列出来
[root@dsetl
/]# df -aT
Filesystem
Type 1K-blocks Used Available Use% Mounted
on
/dev/mapper/VolGroup-lv_root
ext4 51606140 29318060 19666640 60% /
proc
proc 0 0 0 -
/proc
sysfs
sysfs 0 0 0 -
/sys
devpts
devpts 0 0 0 -
/dev/pts
tmpfs
tmpfs 7601684 236 7601448 1%
/dev/shm
/dev/sda1
ext4 495844 38679 431565 9%
/boot
/dev/mapper/VolGroup-lv_home
ext4 459882608 173166228 263355664 40% /home
注意:系统里其实还有很多的特殊系统在运行,不过,那些比较特殊的文件系统都几乎在内存中,例如/proc载入点。
因此这些特殊的文件系统都不会占用磁盘空间
【例】将/etc下面可用的磁盘容量以易读的容量格式显示出来,可以知道某个目录下面还有多少容量可以使用
[root@dsetl
/]# df -h /etc
Filesystem
Size Used Avail Use% Mounted on
/dev/mapper/VolGroup-lv_root
50G 28G 19G 60% /
【例】将当前各个分区中可用的inode数量列出来
[root@dsetl
/]# df -ih
Filesystem
Inodes IUsed IFree IUse% Mounted on
/dev/mapper/VolGroup-lv_root
3.2M 555K 2.6M 18% /
tmpfs
1.9M 8 1.9M 1% /dev/shm
/dev/sda1
126K 43 125K 1% /boot
/dev/mapper/VolGroup-lv_home
28M 5.1K 28M 1% /home
du命令:
功能:磁盘与目录的容量
常用选项说明:
-h
以GB,MB,KB易读的格式显示出来
-I
不用硬盘的容量,而以inode的数量显示
格式
du
[-ahskm] 文件或者目录(dirname/filename)
范例一:列出当前目录下的所有文件的总容量
[root@dsetl
tmp]# du
4 ./pulse-5jkObmcfehgL
4 ./informationServer/ReportingdsetlNode01server1/engine/JREPORT/temp
8 ./informationServer/ReportingdsetlNode01server1/engine/JREPORT
12 ./informationServer/ReportingdsetlNode01server1/engine
16 ./informationServer/ReportingdsetlNode01server1
20 ./informationServer
4 ./keyring-XoSvfl
4 ./orbit-gdm
4 ./.esd-602
61444 ./javasharedresources
范例二:列出当前目录下的所有文件的总容量,以易读的格式显示
[root@dsetl
tmp]# du -h
4.0K ./pulse-5jkObmcfehgL
4.0K ./informationServer/ReportingdsetlNode01server1/engine/JREPORT/temp
8.0K ./informationServer/ReportingdsetlNode01server1/engine/JREPORT
12K ./informationServer/ReportingdsetlNode01server1/engine
16K ./informationServer/ReportingdsetlNode01server1
20K ./informationServer
4.0K ./keyring-XoSvfl
4.0K ./orbit-gdm
4.0K ./.esd-602
范例三:检查根目录下面每个目录所占用的容量
[root@dsetl
tmp]# du -am /*
4.使用实例:
实例1:显示目录或者文件所占空间
命令:
du
输出:
[root@localhost test]# du
608 ./test6
308 ./test4
4 ./scf/lib
4 ./scf/service/deploy/product
4 ./scf/service/deploy/info
12 ./scf/service/deploy
16 ./scf/service
4 ./scf/doc
4 ./scf/bin
32 ./scf
8 ./test3
1288 .
[root@localhost test]#
说明:
只显示当前目录下面的子目录的目录大小和当前目录的总的大小,最下面的1288为当前目录的总大小
实例2:显示指定文件所占空间
命令:
du
log2012.log
输出:
[root@localhost test]# du log2012.log
300 log2012.log
[root@localhost test]#
说明:
实例3:查看指定目录的所占空间
命令:
du
scf
输出:
[root@localhost test]# du scf
4 scf/lib
4 scf/service/deploy/product
4 scf/service/deploy/info
12 scf/service/deploy
16 scf/service
4 scf/doc
4 scf/bin
32 scf
[root@localhost test]#
说明:
实例4:显示多个文件所占空间
命令:
du
log30.tar.gz log31.tar.gz
输出:
[root@localhost test]# du log30.tar.gz log31.tar.gz
4 log30.tar.gz
4 log31.tar.gz
[root@localhost test]#
说明:
实例5:只显示总和的大小
命令:
du
-s
输出:
[root@localhost test]# du -s
1288 .
[root@localhost test]# du -s scf
32 scf
[root@localhost test]# cd ..
[root@localhost soft]# du -s test
1288 test
[root@localhost soft]#
说明:
实例6:方便阅读的格式显示
命令:
du
-h test
输出:
[root@localhost soft]# du -h test
608K test/test6
308K test/test4
4.0K test/scf/lib
4.0K test/scf/service/deploy/product
4.0K test/scf/service/deploy/info
12K test/scf/service/deploy
16K test/scf/service
4.0K test/scf/doc
4.0K test/scf/bin
32K test/scf
8.0K test/test3
1.3M test
[root@localhost soft]#
说明:
实例7:文件和目录都显示
命令:
输出:
[root@localhost soft]# du -ah test
4.0K test/log31.tar.gz
4.0K test/test13.tar.gz
0 test/linklog.log
0 test/test6/log2014.log
300K test/test6/linklog.log
0 test/test6/log2015.log
4.0K test/test6/log2013.log
300K test/test6/log2012.log
0 test/test6/log2017.log
0 test/test6/log2016.log
608K test/test6
0 test/log2015.log
0 test/test4/log2014.log
4.0K test/test4/log2013.log
300K test/test4/log2012.log
308K test/test4
4.0K test/scf/lib
4.0K test/scf/service/deploy/product
4.0K test/scf/service/deploy/info
12K test/scf/service/deploy
16K test/scf/service
4.0K test/scf/doc
4.0K test/scf/bin
32K test/scf
4.0K test/log2013.log
300K test/log2012.log
0 test/log2017.log
0 test/log2016.log
4.0K test/log30.tar.gz
4.0K test/log.tar.bz2
4.0K test/log.tar.gz
0 test/test3/log2014.log
4.0K test/test3/log2013.log
8.0K test/test3
4.0K test/scf.tar.gz
1.3M test
[root@localhost soft]#
说明:
实例8:显示几个文件或目录各自占用磁盘空间的大小,还统计它们的总和
命令:
du
-c log30.tar.gz log31.tar.gz
输出:
[root@localhost test]# du -c log30.tar.gz log31.tar.gz
4 log30.tar.gz
4 log31.tar.gz
8 总计
[root@localhost test]#
说明:
加上-c选项后,du不仅显示两个目录各自占用磁盘空间的大小,还在最后一行统计它们的总和。
实例9:按照空间大小排序
命令:
du|sort
-nr|more
输出:
[root@localhost test]# du|sort -nr|more
1288 .
608 ./test6
308 ./test4
32 ./scf
16 ./scf/service
12 ./scf/service/deploy
8 ./test3
4 ./scf/service/deploy/product
4 ./scf/service/deploy/info
4 ./scf/lib
4 ./scf/doc
4 ./scf/bin
[root@localhost test]#
说明:
实例10:输出当前目录下各个子目录所使用的空间
命令:
du
-h --max-depth=1
输出:
[root@localhost test]# du -h --max-depth=1
608K ./test6
308K ./test4
32K ./scf
8.0K ./test3
1.3M .
[root@localhost test]#
说明:
ln
是linux中又一个非常重要命令,它的功能是为某一个文件在另外一个位置建立一个同步的链接.当我们需要在不同的目录,用到相同的文件时,我们不需要在
每一个需要的目录下都放一个必须相同的文件,我们只要在某个固定的目录,放上该文件,然后在
其它的目录下用ln命令链接(link)它就可以,不必重复
的占用磁盘空间。
1.命令格式:
ln
[参数][源文件或目录][目标文件或目录]
2.命令功能:
Linux文件系统中,有所谓的链接(link),我们可以将其视为档案的别名,而链接又可分为两种
:
硬链接(hard
link)与软链接(symbolic
link),硬链接的意思是一个档案可以有多个名称,而软链接的方式则是产生一个特殊的档案,该档案的内容是指向另一个档案的位置。硬链接是存在同一个文件系统中,而软链接却可以跨越不同的文件系统。
软链接:
1.软链接,以路径的形式存在。类似于Windows操作系统中的快捷方式
2.软链接可以
跨文件系统 ,硬链接不可以
3.软链接可以对一个不存在的文件名进行链接
4.软链接可以对目录进行链接
硬链接:
1.硬链接,以文件副本的形式存在。但不占用实际空间。
2.不允许给目录创建硬链接
3.硬链接只有在同一个文件系统中才能创建
这里有两点要注意:
第一,ln命令会保持每一处链接文件的同步性,也就是说,不论你改动了哪一处,其它的文件都会发生相同的变化;
第
二,ln的链接又分软链接和硬链接两种,软链接就是ln
–s 源文件
目标文件,它只会在你选定的位置上生成一个文件的镜像,不会占用磁盘空间,硬链
接 ln
源文件
目标文件,没有参数-s,
它会在你选定的位置上生成一个和源文件大小相同的文件,无论是软链接还是硬链接,文件都保持同步变化。
ln指令用在链接文件或目录,如同时指定两个以上的文件或目录,且最后的目的地是一个已经存在的目录,则会把前面指定的所有文件或目录复制到该目录中。若同时指定多个文件或目录,且最后的目的地并非是一个已存在的目录,则会出现错误信息。
3.命令参数:
必要参数:
-b
删除,覆盖以前建立的链接
-d
允许超级用户制作目录的硬链接
-f
强制执行
-i
交互模式,文件存在则提示用户是否覆盖
-n
把符号链接视为一般目录
-s
软链接(符号链接)
-v
显示详细的处理过程
选择参数:
-S
“-S<字尾备份字符串>
”或
“--suffix=<字尾备份字符串>”
-V
“-V<备份方式>”或“--version-control=<备份方式>”
--help
显示帮助信息
--version
显示版本信息
4.使用实例:
实例1:给文件创建软链接
命令:
ln
-s log2013.log link2013
输出:
[root@localhost test]# ll
-rw-r--r-- root bin - : log2013.log
[root@localhost test]# ln -s log2013.log link2013
[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : log2013.log
说明:
为log2013.log文件创建软链接link2013,如果log2013.log丢失,link2013将失效
实例2:给文件创建硬链接
命令:
ln
log2013.log ln2013
输出:
[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : log2013.log
[root@localhost test]# ln log2013.log ln2013
[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : ln2013
-rw-r--r-- root bin - : log2013.log
说明:
为log2013.log创建硬链接ln2013,log2013.log与ln2013的各项属性相同
实例3:接上面两实例,链接完毕后,删除和重建链接原文件
命令:
输出:
[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : ln2013
-rw-r--r-- root bin - : log2013.log
[root@localhost test]# rm -rf log2013.log
[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : ln2013
[root@localhost test]# touch log2013.log
[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : ln2013
---xrw-r-- root bin - : log2012.log
-rw-r--r-- root root - : log2013.log
[root@localhost test]# vi log2013.log
-
-
-
-
-
-
-
-
-
-
-
-[root@localhost test]# ll
lrwxrwxrwx root root - : link2013 -> log2013.log
-rw-r--r-- root bin - : ln2013
-rw-r--r-- root root - : log2013.log
[root@localhost test]# cat link2013
2013-01
2013-02
2013-03
2013-04
2013-05
2013-06
2013-07
2013-08
2013-09
2013-10
2013-11
2013-12
[root@localhost test]# cat ln2013
hostnamebaidu=baidu.com
hostnamesina=sina.com
hostnames=true
说明:
1.源文件被删除后,并没有影响硬链接文件;软链接文件在centos系统下不断的闪烁,提示源文件已经不存在
2.重建源文件后,软链接不在闪烁提示,说明已经链接成功,找到了链接文件系统;重建后,硬链接文件并没有受到源文件影响,硬链接文件的内容还是保留了删除前源文件的内容,说明硬链接已经失效
实例4:将文件链接为另一个目录中的相同名字
命令:
ln
log2013.log test3
输出:
[root@localhost test]# ln log2013.log test3
[root@localhost test]# ll
lrwxrwxrwx 1 root root 11 12-07 16:01 link2013 -> log2013.log
-rw-r--r-- 1 root bin 61 11-13 06:03 ln2013
-rw-r--r-- 2 root root 96 12-07 16:21 log2013.log
[root@localhost test]# cd test3
[root@localhost test3]# ll
-rw-r--r-- 2 root root 96 12-07 16:21 log2013.log
[root@localhost test3]# vi log2013.log
2013-01
2013-02
2013-03
2013-04
2013-05
2013-06
2013-07
2013-08
2013-09
2013-10[root@localhost test3]# ll
-rw-r--r-- 2 root root 80 12-07 16:36 log2013.log
[root@localhost test3]# cd ..
[root@localhost test]# ll
lrwxrwxrwx 1 root root 11 12-07 16:01 link2013 -> log2013.log
-rw-r--r-- 1 root bin 61 11-13 06:03 ln2013
-rw-r--r-- 2 root root 80 12-07 16:36 log2013.log
[root@localhost test]#
说明:
在test3目录中创建了log2013.log的硬链接,修改test3目录中的log2013.log文件,同时也会同步到源文件
实例5:给目录创建软链接
命令:
ln
-sv /opt/soft/test/test3 /opt/soft/test/test5
输出:
[root@localhost test]# ll
drwxr-xr-x 2 root root 4096 12-07 16:36 test3
drwxr-xr-x 2 root root 4096 12-07 16:57 test5
[root@localhost test]# cd test5
[root@localhost test5]# ll
lrwxrwxrwx 1 root root 5 12-07 16:57 test3 -> test3
[root@localhost test5]# cd test3
-bash: cd: test3: 符号连接的层数过多
[root@localhost test5]#
[root@localhost test5]#
[root@localhost test5]# ll
lrwxrwxrwx 1 root root 5 12-07 16:57 test3 -> test3
[root@localhost test5]# rm -rf test3
[root@localhost test5]# ll
[root@localhost test5]# ln -sv /opt/soft/test/test3 /opt/soft/test/test5
创建指向“/opt/soft/test/test3”的符号链接“/opt/soft/test/test5/test3”
[root@localhost test5]# ll
lrwxrwxrwx 1 root root 20 12-07 16:59 test3 -> /opt/soft/test/test3
[root@localhost test5]#
[root@localhost test5]# cd test3
[root@localhost test3]# ll
总计 4
-rw-r--r-- 2 root root 80 12-07 16:36 log2013.log
[root@localhost test3]# touch log2014.log
[root@localhost test3]# ll
总计 4
-rw-r--r-- 2 root root 80 12-07 16:36 log2013.log
-rw-r--r-- 1 root root 0 12-07 17:05 log2014.log
[root@localhost test3]# cd ..
[root@localhost test5]# cd ..
说明:
1.目录只能创建软链接
2.目录创建链接必须用绝对路径,相对路径创建会不成功,会提示:符号连接的层数过多
这样的错误
3.在链接目标目录中修改文件都会在源文件目录中同步变化
Linux中的ps命令是Process
Status的缩写。ps命令用来列出系统中当前运行的那些进程。ps命令列出的是当前那些进程的快照,就是执行ps命令的那个时刻的那些进程,如果想要动态的显示进程信息,就可以使用top命令。
要
对进程进行监测和控制,首先必须要了解当前进程的情况,也就是需要查看当前进程,而
ps
命令就是最基本同时也是非常强大的进程查看命令。使用该命令可
以确定有哪些进程正在运行和运行的状态、进程是否结束、进程有没有僵死、哪些进程占用了过多的资源等等。总之大部分信息都是可以通过执行该命令得到的。
ps
为我们提供了进程的一次性的查看,它所提供的查看结果并不动态连续的;如果想对进程时间监控,应该用
top
工具。
kill
命令用于杀死进程。
linux上进程有5种状态:
1.
运行(正在运行或在运行队列中等待)
2.
中断(休眠中,
受阻,
在等待某个条件的形成或接受到信号)
3.
不可中断(收到信号不唤醒和不可运行,
进程必须等待直到有中断发生)
4.
僵死(进程已终止,
但进程描述符存在,
直到父进程调用wait4()系统调用后释放)
5.
停止(进程收到SIGSTOP,
SIGSTP, SIGTIN, SIGTOU信号后停止运行运行)
ps工具标识进程的5种状态码:
D
不可中断
uninterruptible
sleep (usually IO)
R
运行
runnable
(on run queue)
S
中断
sleeping
T
停止
traced
or stopped
Z
僵死
a
defunct (”zombie”) process
1.命令格式:
ps[参数]
2.命令功能:
用来显示当前进程的状态
3.命令参数:
a
显示所有进程
-a
显示同一终端下的所有程序
-A
显示所有进程
c
显示进程的真实名称
-N
反向选择
-e
等于“-A”
e
显示环境变量
f
显示程序间的关系
-H
显示树状结构
r
显示当前终端的进程
T
显示当前终端的所有程序
u
指定用户的所有进程
-au
显示较详细的资讯
-aux
显示所有包含其他使用者的行程
-C<命令>
列出指定命令的状况
--lines<行数>
每页显示的行数
--width<字符数>
每页显示的字符数
--help
显示帮助信息
--version
显示版本显示
4.使用实例:
实例1:显示所有进程信息
命令:
ps
-A
输出:
[root@localhost test6]# ps -A
PID TTY TIME CMD
1 ? 00:00:00 init
2 ? 00:00:01 migration/0
3 ? 00:00:00 ksoftirqd/0
4 ? 00:00:01 migration/1
5 ? 00:00:00 ksoftirqd/1
6 ? 00:29:57 events/0
7 ? 00:00:00 events/1
8 ? 00:00:00 khelper
49 ? 00:00:00 kthread
54 ? 00:00:00 kblockd/0
55 ? 00:00:00 kblockd/1
56 ? 00:00:00 kacpid
217 ? 00:00:00 cqueue/0
……省略部分结果
说明:
实例2:显示指定用户信息
命令:
ps
-u root
输出:
[root@localhost test6]# ps -u root
PID TTY TIME CMD
1 ? 00:00:00 init
2 ? 00:00:01 migration/0
3 ? 00:00:00 ksoftirqd/0
4 ? 00:00:01 migration/1
5 ? 00:00:00 ksoftirqd/1
6 ? 00:29:57 events/0
7 ? 00:00:00 events/1
8 ? 00:00:00 khelper
49 ? 00:00:00 kthread
54 ? 00:00:00 kblockd/0
55 ? 00:00:00 kblockd/1
56 ? 00:00:00 kacpid
……省略部分结果
说明:
实例3:显示所有进程信息,连同命令行
命令:
ps
-ef
输出:
[root@localhost test6]# ps -ef
UID PID PPID C STIME TTY TIME CMD
root 1 0 0 Nov02 ? 00:00:00 init [3]
root 2 1 0 Nov02 ? 00:00:01 [migration/0]
root 3 1 0 Nov02 ? 00:00:00 [ksoftirqd/0]
root 4 1 0 Nov02 ? 00:00:01 [migration/1]
root 5 1 0 Nov02 ? 00:00:00 [ksoftirqd/1]
root 6 1 0 Nov02 ? 00:29:57 [events/0]
root 7 1 0 Nov02 ? 00:00:00 [events/1]
root 8 1 0 Nov02 ? 00:00:00 [khelper]
root 49 1 0 Nov02 ? 00:00:00 [kthread]
root 54 49 0 Nov02 ? 00:00:00 [kblockd/0]
root 55 49 0 Nov02 ? 00:00:00 [kblockd/1]
root 56 49 0 Nov02 ? 00:00:00 [kacpid]
……省略部分结果
说明:
实例4: ps
与grep
常用组合用法,查找特定进程
命令:
ps
-ef|grep ssh
输出:
[root@localhost test6]# ps -ef|grep ssh
root 2720 1 0 Nov02 ? 00:00:00 /usr/sbin/sshd
root 17394 2720 0 14:58 ? 00:00:00 sshd: root@pts/0
root 17465 17398 0 15:57 pts/0 00:00:00 grep ssh
说明:
实例5:将目前属于您自己这次登入的
PID
与相关信息列示出来
命令:
ps
-l
输出:
[root@localhost test6]# ps -l
F S UID PID PPID C PRI NI ADDR SZ WCHAN TTY TIME CMD
4 S 0 17398 17394 0 75 0 - 16543 wait pts/0 00:00:00 bash
4 R 0 17469 17398 0 77 0 - 15877 - pts/0 00:00:00 ps
说明:
各相关信息的意义:
F
代表这个程序的旗标
(flag),
4
代表使用者为
super
user
S
代表这个程序的状态
(STAT),关于各
STAT
的意义将在内文介绍
UID
程序被该
UID
所拥有
PID
就是这个程序的
ID
!
PPID
则是其上级父程序的ID
C
CPU 使用的资源百分比
PRI
这个是
Priority
(优先执行序)
的缩写,详细后面介绍
NI
这个是
Nice
值,在下一小节我们会持续介绍
ADDR
这个是
kernel
function,指出该程序在内存的那个部分。如果是个
running的程序,一般就是
"-"
SZ
使用掉的内存大小
WCHAN
目前这个程序是否正在运作当中,若为
-
表示正在运作
TTY
登入者的终端机位置
TIME
使用掉的
CPU
时间。
CMD
所下达的指令为何
在预设的情况下, ps 仅会列出与目前所在的 bash shell 有关的 PID 而已,所以, 当我使用 ps -l 的时候,只有三个 PID。
实例6:列出目前所有的正在内存当中的程序
命令:
ps
aux
输出:
[root@localhost test6]# ps aux
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
root 1 0.0 0.0 10368 676 ? Ss Nov02 0:00 init [3]
root 2 0.0 0.0 0 0 ? S< Nov02 0:01 [migration/0]
root 3 0.0 0.0 0 0 ? SN Nov02 0:00 [ksoftirqd/0]
root 4 0.0 0.0 0 0 ? S< Nov02 0:01 [migration/1]
root 5 0.0 0.0 0 0 ? SN Nov02 0:00 [ksoftirqd/1]
root 6 0.0 0.0 0 0 ? S< Nov02 29:57 [events/0]
root 7 0.0 0.0 0 0 ? S< Nov02 0:00 [events/1]
root 8 0.0 0.0 0 0 ? S< Nov02 0:00 [khelper]
root 49 0.0 0.0 0 0 ? S< Nov02 0:00 [kthread]
root 54 0.0 0.0 0 0 ? S< Nov02 0:00 [kblockd/0]
root 55 0.0 0.0 0 0 ? S< Nov02 0:00 [kblockd/1]
root 56 0.0 0.0 0 0 ? S< Nov02 0:00 [kacpid]
……省略部分结果
说明:
USER:该
process
属于那个使用者账号的
PID
:该
process
的号码
%CPU:该
process
使用掉的
CPU
资源百分比
%MEM:该
process
所占用的物理内存百分比
VSZ
:该
process
使用掉的虚拟内存量
(Kbytes)
RSS
:该
process
占用的固定的内存量
(Kbytes)
TTY
:该
process
是在那个终端机上面运作,若与终端机无关,则显示
?,另外,
tty1-tty6
是本机上面的登入者程序,若为
pts/0
等等的,则表示为由网络连接进主机的程序。
STAT:该程序目前的状态,主要的状态有
R
:该程序目前正在运作,或者是可被运作
S
:该程序目前正在睡眠当中
(可说是
idle
状态),但可被某些讯号
(signal)
唤醒。
T
:该程序目前正在侦测或者是停止了
Z
:该程序应该已经终止,但是其父程序却无法正常的终止他,造成
zombie
(疆尸)
程序的状态
START:该
process
被触发启动的时间
TIME
:该
process
实际使用
CPU
运作的时间
COMMAND:该程序的实际指令
实例7:列出类似程序树的程序显示
命令:
ps
-axjf
输出:
[root@localhost test6]# ps -axjf
Warning: bad syntax, perhaps a bogus '-'? See /usr/share/doc/procps-3.2.7/FAQ
PPID PID PGID SID TTY TPGID STAT UID TIME COMMAND
0 1 1 1 ? -1 Ss 0 0:00 init [3]
1 2 1 1 ? -1 S< 0 0:01 [migration/0]
1 3 1 1 ? -1 SN 0 0:00 [ksoftirqd/0]
1 4 1 1 ? -1 S< 0 0:01 [migration/1]
1 5 1 1 ? -1 SN 0 0:00 [ksoftirqd/1]
1 6 1 1 ? -1 S< 0 29:58 [events/0]
1 7 1 1 ? -1 S< 0 0:00 [events/1]
1 8 1 1 ? -1 S< 0 0:00 [khelper]
1 49 1 1 ? -1 S< 0 0:00 [kthread]
49 54 1 1 ? -1 S< 0 0:00 \_ [kblockd/0]
49 55 1 1 ? -1 S< 0 0:00 \_ [kblockd/1]
49 56 1 1 ? -1 S< 0 0:00 \_ [kacpid]
说明:
实例8:找出与
cron
与
syslog
这两个服务有关的
PID
号码
命令:
输出:
[root@localhost test6]# ps aux | egrep '(cron|syslog)'
root 2682 0.0 0.0 83384 2000 ? Sl Nov02 0:00 /sbin/rsyslogd -i /var/run/syslogd.pid -c 5
root 2735 0.0 0.0 74812 1140 ? Ss Nov02 0:00 crond
root 17475 0.0 0.0 61180 832 pts/0 S+ 16:27 0:00 egrep (cron|syslog)
[root@localhost test6]#
说明:
其他实例:
1.
可以用
|
管道和
more
连接起来分页查看
命令:
ps
-aux |more
2.
把所有进程显示出来,并输出到ps001.txt文件
命令:
ps
-aux > ps001.txt
3.
输出指定的字段
命令:
ps
-o pid,ppid,pgrp,session,tpgid,comm
输出:
[root@localhost test6]# ps -o pid,ppid,pgrp,session,tpgid,comm
PID PPID PGRP SESS TPGID COMMAND
17398 17394 17398 17398 17478 bash
17478 17398 17478 17398 17478 ps
[root@localhost test6]#
-
设置编码:
export LANG =”zh_CN.GBK”
–设置成为GBKexport
LNNG=C --设置成为英文
Linux 压缩与打包
compress 命令:
格式
compress
[-dcr] 文件或者目录
功能:压缩文件,解压缩文件
主选项:
-d创建新的档案文件。如果用户想备份一个目录或是一些文件,就要选择这个选项。相当于打包。
-r从档案文件中释放文件。相当于拆包。
-c列出档案文件的内容,查看已经备份了哪些文件。
范例一:压缩
[root@dsetl
~]# cd /tmp
[root@dsetl
tmp]# cp /etc/man.config .
[root@dsetl
tmp]# compress man.config
[root@dsetl
tmp]# ls
man.config.Z
--输出结果以.Z结尾的,压缩后的文件
范例二:解压缩
[root@dsetl
tmp]# compress -d man.config.Z --解压缩
范例三:压缩成另一个文件备份
[root@dsetl
tmp]# compress -c man.config > man.config.back.Z
注意:
--
-c参数比较有趣,它会将压缩过程的数据输出到屏幕上,而不是写入到file.Z文件。所以我们可以通过数据流重导向(>)的方法,将数据输出为另一个文件名。
[root@dsetl
tmp]# ll man.config*
-rw-r--r--
1 root root 4940 Feb 25 15:25 man.config
-rw-r--r--
1 root root 2873 Feb 25 15:39 man.config.back.Z
Gzip、zcat
格式
Gzip
[-cdt] 文件或者目录
zcat
文件名.gz
功能:压缩文件
主选项:
-c
:将压缩的数据输出到屏幕上,可通过数据流重导向来处理
-d
: 解压缩的参数。
-#
:压缩等级,-1最快,但压缩比最差,-9最慢,但是压缩比较好。默认是-6
范例一:压缩
[root@dsetl
~]# cd /tmp
[root@dsetl
tmp]# cp /etc/man.config .
[root@dsetl
tmp]# gzip man.config --压缩文件
[root@dsetl
tmp]# ll man.config*
-rw-r--r--
1 root root 2873 Feb 25 15:39 man.config.back.Z
-rw-r--r--
1 root root 2184 Feb 25 15:25 man.config.gz
范例二:解压缩
[root@dsetl
tmp]# gzip -d man.config.gz
范例三:将man.config用最佳的压缩比压缩,并保留原本man.config的文件。
[root@dsetl
tmp]# gzip -9 -c man.config > man.config.gz --
-9可以达到较佳的压缩比,却会损失一些速度。
范例四:使用zcat查看后缀为.gz的文件。
[root@dsetl
tmp]# zcat man.config.gz
Bzip2、bzcat
格式
Bzip2
[-cdt] 文件或者目录
bzcat文件名.bz2
功能:压缩文件
主选项:
-c
:将压缩的数据输出到屏幕上,可通过数据流重导向来处理
-d
: 解压缩的参数。
-z
: 压缩的参数
-#
:压缩等级,-1最快,但压缩比最差,-9最慢,但是压缩比较好。默认是-6
范例一:压缩
[root@dsetl
~]# cd /tmp
[root@dsetl
tmp]# cp /etc/man.config .
[root@dsetl
tmp]# bzip2 -z man.config --压缩成为后缀为.bz2
[root@dsetl
tmp]# ls
man.config.bz2
范例二:解压缩
[root@dsetl
tmp]# bzip2 -d man.config.bz2 ---解压缩
范例三:将man.config用最佳的压缩比压缩,并保留原本man.config的文件。
[root@dsetl
tmp]# bzip2 -c man.config > man.config.bz2
范例四:使用bzcat查看后缀为.bz2的文件。
[root@dsetl
tmp]# bzcat man.config.bz2
Tar
通过SSH访问服务器,难免会要用到压缩,解压缩,打包,解包等,这时候tar命令就是是必不可少的一个功能强大的工具。linux中最流行的tar是麻雀虽小,五脏俱全,功能强大。
tar
命令可以为linux的文件和目录创建档案。利用tar,可以为某一特定文件创建档案(备份文件),也可以在档案中改变文件,或者向档案中加入新的文件。
tar最初被用来在磁带上创建档案,现在,用户可以在任何设备上创建档案。利用tar命令,可以把一大堆的文件和目录全部打包成一个文件,这对于备份文件
或将几个文件组合成为一个文件以便于网络传输是非常有用的。
首先要弄清两个概念:打包和压缩。打包是指将一大堆文件或目录变成一个总的文件;压缩则是将一个大的文件通过一些压缩算法变成一个小文件。
为什么要区分这两个概念呢?这源于Linux中很多压缩程序只能针对一个文件进行压缩,这样当你想要压缩一大堆文件时,你得先将这一大堆文件先打成一个包(tar命令),然后再用压缩程序进行压缩(gzip
bzip2命令)。
linux下最常用的打包程序就是tar了,使用tar程序打出来的包我们常称为tar包,tar包文件的命令通常都是以.tar结尾的。生成tar包后,就可以用其它的程序来进行压缩。
格式
tar
[-cxtzjvfpPN] 文件或者目录
功能:打包
主选项:
-c
:建立压缩文件的参数命令(create)
-v:
压缩的过程中显示文件。
-f
: 使用文件名,在f之后要立即接文件名。不要加参数。
-z
是否同时具有gzip的属性?即是否需要用gzip压缩。
-j:是否同时具有bzip2的属性?即是否需要用bzip2压缩。
-x:解压文件的参数命令
范例一:打包
[root@dsetl
tmp]# cd lp
[root@dsetl
lp]# ls
test1.txt
test2.txt test3.txt test4.txt
[root@dsetl
lp]#
[root@dsetl
lp]# tar -cvf lp.tar *.txt ---打包,将后缀含有.txt的文件打包为lp.tar
test1.txt
test2.txt
test3.txt
test4.txt
[root@dsetl
lp]# ls
lp.tar
test1.txt test2.txt test3.txt test4.txt
范例二:打包后以gzip压缩
[root@dsetl
lp]# tar -zcvf lp.tar.gz *.txt --将后缀含有.txt的文件打包压缩为lp.tar.gz
test1.txt
test2.txt
test3.txt
test4.txt
[root@dsetl
lp]# ls
lp.tar
lp.tar.gz
test1.txt test2.txt test3.txt test4.txt
范例三:打包后以bzip2压缩
[root@dsetl
lp]# tar -jcvf lp.tar.bz2 *.txt ---将后缀含有.txt的文件打包压缩为lp.tar.bz2
test1.txt
test2.txt
test3.txt
test4.txt
[root@dsetl
lp]# ls
lp.tar
lp.tar.bz2
lp.tar.gz test1.txt test2.txt test3.txt test4.txt
解压
范例一
[root@dsetl
lp]# tar -xvf lp.tar
//解压
tar包
[root@dsetl
lp]# ls
lp.tar
lp.tar.bz2 lp.tar.gz lp1 test1.txt test2.txt test3.txt
test4.txt
范例二
[root@dsetl
lp]# tar -xzvf lp.tar.gz
//解压tar.gz
test1.txt
test2.txt
test3.txt
test4.txt
范例三
root@dsetl
lp]# tar -jxvf lp.tar.bz2//解压
tar.bz2
test1.txt
test2.txt
test3.txt
test4.txt
5.使用实例
实例1:将文件全部打包成tar包
命令:
tar
-cvf log.tar log2012.log
tar
-zcvf log.tar.gz log2012.log
tar
-jcvf
log.tar.bz2 log2012.log
输出:
[root@localhost test]# ls -al log2012.log
---xrw-r-- 1 root root 302108 11-13 06:03 log2012.log
[root@localhost test]# tar -cvf log.tar log2012.log
log2012.log
[root@localhost test]# tar -zcvf log.tar.gz log2012.log
log2012.log
[root@localhost test]# tar -jcvf log.tar.bz2 log2012.log
log2012.log
[root@localhost test]# ls -al *.tar*
-rw-r--r-- 1 root root 307200 11-29 17:54 log.tar
-rw-r--r-- 1 root root 1413 11-29 17:55 log.tar.bz2
-rw-r--r-- 1 root root 1413 11-29 17:54 log.tar.gz
说明:
tar
-cvf log.tar log2012.log仅打包,不压缩!
tar
-zcvf log.tar.gz log2012.log打包后,以
gzip
压缩
tar
-zcvf log.tar.bz2 log2012.log打包后,以
bzip2
压缩
在参数
f
之后的文件档名是自己取的,我们习惯上都用
.tar
来作为辨识。
如果加 z
参数,则以
.tar.gz
或
.tgz
来代表
gzip
压缩过的
tar包;
如果加 j
参数,则以
.tar.bz2
来作为tar包名。
实例2:查阅上述
tar包内有哪些文件
命令:
tar
-ztvf log.tar.gz
输出:
[root@localhost test]# tar -ztvf log.tar.gz
---xrw-r-- root/root 302108 2012-11-13 06:03:25 log2012.log
说明:
由于我们使用
gzip
压缩的log.tar.gz,所以要查阅log.tar.gz包内的文件时,就得要加上
z
这个参数了。
实例3:将tar
包解压缩
命令:
tar
-zxvf /opt/soft/test/log.tar.gz
输出:
[root@localhost test3]# ll
总计 0[root@localhost test3]# tar -zxvf /opt/soft/test/log.tar.gz
log2012.log
[root@localhost test3]# ls
log2012.log
[root@localhost test3]#
说明:
在预设的情况下,我们可以将压缩档在任何地方解开的
实例4:只将
/tar
内的
部分文件解压出来
命令:
tar
-zxvf /opt/soft/test/log30.tar.gz log2013.log
输出:
[root@localhost test]# tar -zcvf log30.tar.gz log2012.log log2013.log
log2012.log
log2013.log
[root@localhost test]# ls -al log30.tar.gz
-rw-r--r-- 1 root root 1512 11-30 08:19 log30.tar.gz
[root@localhost test]# tar -zxvf log30.tar.gz log2013.log
log2013.log
[root@localhost test]# ll
-rw-r--r-- 1 root root 1512 11-30 08:19 log30.tar.gz
[root@localhost test]# cd test3
[root@localhost test3]# tar -zxvf /opt/soft/test/log30.tar.gz log2013.log
log2013.log
[root@localhost test3]# ll
总计 4
-rw-r--r-- 1 root root 61 11-13 06:03 log2013.log
[root@localhost test3]#
说明:
我可以透过
tar
-ztvf 来查阅
tar
包内的文件名称,如果单只要一个文件,就可以透过这个方式来解压部分文件!
实例5:文件备份下来,并且保存其权限
命令:
tar
-zcvpf log31.tar.gz log2014.log log2015.log log2016.log
输出:
[root@localhost test]# ll
总计 0
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
-rw-r--r-- 1 root root 0 11-16 14:41 log2016.log
[root@localhost test]# tar -zcvpf log31.tar.gz log2014.log log2015.log log2016.log
log2014.log
log2015.log
log2016.log
[root@localhost test]# cd test6
[root@localhost test6]# ll
[root@localhost test6]# tar -zxvpf /opt/soft/test/log31.tar.gz
log2014.log
log2015.log
log2016.log
[root@localhost test6]# ll
总计 0
-rw-r--r-- 1 root root 0 11-13 06:03 log2014.log
-rw-r--r-- 1 root root 0 11-13 06:06 log2015.log
-rw-r--r-- 1 root root 0 11-16 14:41 log2016.log
[root@localhost test6]#
说明:
这个
-p
的属性是很重要的,尤其是当您要保留原本文件的属性时
实例6:在
文件夹当中,比某个日期新的文件才备份
命令:
tar
-N "2012/11/13" -zcvf log17.tar.gz test
输出:
[root@localhost soft]# tar -N "2012/11/13" -zcvf log17.tar.gz test
tar: Treating date `2012/11/13' as 2012-11-13 00:00:00 + 0 nanoseconds
test/test/log31.tar.gz
test/log2014.log
test/linklog.log
test/log2015.log
test/log2013.log
test/log2012.log
test/log2017.log
test/log2016.log
test/log30.tar.gz
test/log.tar
test/log.tar.bz2
test/log.tar.gz
说明:
实例7:备份文件夹内容是排除部分文件
命令:
tar
--exclude scf/service -zcvf scf.tar.gz scf/*
输出:
[root@localhost test]# tree scf
scf
|-- bin
|-- doc
|-- lib
`-- service
`-- deploy
|-- info
`-- product
7 directories, 0 files
[root@localhost test]# tar --exclude scf/service -zcvf scf.tar.gz scf/*
scf/bin/
scf/doc/
scf/lib/
[root@localhost test]#
学习shell脚本
Vi的使用:
Vi分为三种模式:一般模式,编辑模式,命令行命令模式。
Vi命令行的命令模式常用命令表
范例一:
使用Vi进入一般模式:
[root@dsetl
lp]# vi test1.txt
范例二:按下i键进入编辑模式,开始编辑文字
--
INSERT –
范例三:按下【ESC】键回到一般模式
范例四:在一般模式下按下
:wq保存后离开Vi
注意:如果文件权限不对,例如为-r--r--r--,可能无法写入,使用
:wq!多加一个叹号进行强制写入.
范例5:vi命令设置行号
[root@dsetl
lp]# cp /etc/man.config .
[root@dsetl
lp]# vi man.config
:set
nu – 设置行号
:set
nonu --取消行号
范例6:vi命令删除所在行
D或者d按两次
删除光标所在行
范例7:vi命令查找字串
/text
从光标位置往下找字串text
?text 从光标位置往上找字串textn
继续找下一个字串(在输入上面的寻找指令之后使用)N
继续向上找一个字符串(在输入上面的寻找指令之后使用)
范例8:vi命令移动光标
Ctrl+f
向下移动一页Ctrl+b
向上移动一页0
移动到这一行的最前面处$
移动到这一行的最后面字符处G移动到这个文件的最后一行
nG移动到这个文件的第n行。10G移动到这个文件的第10行
gg移动到这个文件的第1行
n<Enter>
光标向下移动n行。40
+ 向右箭头
范例8:vi命令搜索与替换(一般模式)
%表示整个文件,$从当前行到文件尾。s表示替换操作。
g放在命令末尾,表示对指定行的搜索字符串的每次出现进行替换;
不加g,表示支队指定行的搜索字符串的首次出现进行替换。
:%s/text1/text2/g
将各行的text1替换为text2:1,$s/
str1/ str2/g 用字符串str2替换所有出现的字符串str1:.,$s/
str1/ str2/g 用字符串str2替换正文当前行到末尾所有出现的字符串str1:1,$s/
str1/ str2/gc 用字符串str2替换所有出现的字符串str1,进行询问
范例8:vi命令删除、复制、粘贴(一般模式)
删除:
x为向后删除一个字符,X为向前删除一个字符。
dd
删除光标所在的那一整行,ndd,例如3dd删除向下的3行。
复制
yy表示复制光标所在的哪一行
nyy
:n为数字。复制光标所在的向下n行,例如20yy则是复制20行。yw
将光标所在单词拷入剪贴板y$
将光标至行尾的字符拷入剪贴板
粘贴:
p
:把粘贴到的数据粘贴到光标的下一行,P则为贴在光标的上一行。
范例9:复原操作与重做操作
u表示复原前一个操作,【Ctrl】+r表示重做上一个操作。
.
小数点,意思是重复前一个动作。如果想重复删除,重复粘贴,按下“.”就可以。Vi命令的使用练习:
Bash shell
的内置命令:(cd/umask)type
格式
type
[-tpa] name
主选项:
-t:加入
–t参数,将显示name的意义
File
:表示外部命令。
Alias:表示该命令为命令别名所设置的名称
Builtin:表示该命令为bash内置的命令功能。
-a:
在path变量定义的路径中,列出所有含有name的命令,包括alias别名
范例一:打包
[root@dsetl
~]# type -t tar
File
--表示外部命令
[root@dsetl
~]# type -t cd
Builtin
--表示该命令为bash内置的命令功能。
[root@dsetl
~]# type -t cp
Alias
--表示该命令为命令别名所设置的名称
Echo
:变量的获取与设置
范例一:读出变量的内容
[root@dsetl
~]# echo $PATH
范例二:设置和修改某个变量的内容
[root@dsetl
~]# echo $myname
<==这里没有任何数据,因为这个变量尚未设置。
[root@dsetl
~]# myname=VBird
[root@dsetl
~]# echo $myname
VBird
<=变量被设置为VBird
[root@dsetl
~]# unset myname --取消变量名称
[root@dsetl
~]# echo $myname
<==这里没有任何数据,因为这个变量尚未设置。
范例三:设置某个变量的内容为Vbird’s
name
[root@dsetl
~]# name="Vbird's name"
[root@dsetl
~]# echo $name
Vbird's
name
或者
[root@dsetl
~]# name=Vbird\'s\ name
[root@dsetl
~]# echo $name
Vbird's
name
存储过程学习:
SP_F_CARD_EVENT增量:流水表,数据量大,跑增量,删除当天的数据,根据时间进行删除,数据按时间段删除。给一张表只增不减。
SP_F_CARD_ACCT变量:客户信息表,即数据会增加也会减少,改变某个字段的信息,例如改变客户的年龄这个字段。
全量:数据量小SP_RPT_F_LN_LNMOA_H
,函数返回错误#VALUE!;如果大于区域的列数,则返回#REF!;“逻辑值”:为TRUE
或者
FALSE
,它指明是精确匹配还是近似匹配,如果为true或者省略
则返回 近似匹配,为FALSE则返回精确匹配,如果找不到值,则返回#N/A
。
使用连接函数拼出字段的备注:
=CONCATENATE("comment
on column ",B2,".",C2," is '",K2,"';")