列出目录的内容: ls
显示 inode 的内容: stat
文件访问权限:
用户能够控制一个给定的文件或目录的访问程度,一个文件或目录可能有读、写及执行权限:
读权限( r ) :对于文件,具有读取文件内容的权限;对于目录,具有浏览目录的权限。
写权限( w ) :对于文件,具有修改文件内容的权限;对于目录,具有删除、移动目录内文件的权限。
可执行权限( x ): 对于文件,具有执行文件的权限;对于目录,该用户具有进入目录的权限。
修改文件权限: chmod
修改文件所有者: chown
修改文件所属组: chgrp
文件内容查看:
Linux 系统中使用以下命令来查看文件的内容:
cat 由第一行开始显示文件内容
tac 从最后一行开始显示
nl 显示的时候,顺道输出行号
more 一页一页的显示文件内容
less 与 more 类似,但可以往前翻页
head 只看头几行
tail 只看尾巴几行
基本显示: cat 、 tac
显示行号: nl
分屏显示: more 、 less
取首尾 n 行: head 、 tail
文件管理:
输出重定向: >
管道: |
清屏: clear
切换工作目录: cd
显示当前路径: pwd
创建目录: mkdir
删除文件: rm
建立链接文件: ln
文本搜索: grep
查找文件: find
拷贝文件: cp
移动文件: mv
归档管理: tar
文件压缩解压: gzip 、 bzip2
文件压缩解压: zip 、 unzip
查看命令位置: which
用户和用户组管理
查看当前用户: whoami
查看登录用户: who
退出登录账户: exit
添加用户账号: useradd
修改用户: usermod
设置用户密码: passwd
删除用户: userdel
切换用户: su
以 root 身份执行指令: sudo
添加、删除组账号: groupadd 、 groupdel
用户组管理: groupmod
系统管理:
查看当前日历: cal
显示或设置时间: date
查看网络状态: netstat
查看进程信息: ps
以树状图显示进程关系: pstree
动态显示进程: top
终止进程: kill
关机重启: reboot 、 shutdown 、 init
检测磁盘空间: df
检测目录所占磁盘空间: du
查看或配置网卡信息: ifconfig
测试远程主机连通性: ping
Linux****磁盘管理
df获取硬盘被占用了多少空间,目前还剩下多少空间等信息。
dudu 命令是对文件和目录磁盘使用的空间的查看
fdiskfdisk 是 Linux 的磁盘分区表操作工具。
磁盘格式化
磁盘分割完毕后自然就是要进行文件系统的格式化,格式化的命令非常的简单,使用 mkfs ( make filesystem ) 命
令。
磁盘检验
fsck ( file system check )用来检查和维护不一致的文件系统。
磁盘挂载与卸除
Linux 管道命令:
Linux 的管道命令是 '|' ,通过它可以对数据进行连续处理,其示意图如下:
注意:
1 )管道命令仅处理标准输出,对于标准错误输出,将忽略
2 )管道命令右边命令,必须能够接收标准输入流命令才行,否则传递过程中数据会抛弃。
常用来作为接收数据管道命令有: less,more,head,tail ,而 ls, cp, mv 就不行。
wc - 统计字数
可以计算文件的 Byte 数、字数、或是列数,若不指定文件名称、或是所给予的文件名为 "-" ,则 wc 指令会从标准输入设
备读取数据。
cut - 列选取命令
grep - 行选取命令
sort - 排序
uniq - 去重
tee - 同时输出多个文件
tr - 替换指定的字符
join - 文件按行连接
paste- 将多个文件对应行链接在一起
split - 文件切割
xargs - 参数代换
linux****命令练习
常用命令
1.进入到用户根目录
cd ~ 或 cd
2.查看当前所在目录
pwd
3.进入到hadoop用户根目录
cd ~hadoop
4.返回到原来目录
cd -
5.返回到上一级目录
cd ..
6.查看hadoop用户根目录下的所有文件
ls -la
7.在根目录下创建一个hadoop的文件夹
mkdir /hadoop
8.在/hadoop目录下创建src和WebRoot两个文件夹
分别创建: mkdir /hadoop/src
mkdir /hadoop/WebRoot
同时创建: mkdir /hadoop/{src,WebRoot}
进入到 /hadoop 目录,在该目录下创建 .classpath 和 README 文件
分别创建: touch .classpath
touch README
同时创建: touch {.classpath,README}
查看 /hadoop 目录下面的所有文件
ls -la
在 /hadoop 目录下面创建一个 test.txt 文件 , 同时写入内容 "this is test"
echo "this is test" > test.txt
查看一下 test.txt 的内容
cat test.txt
more test.txt
less test.txt
向 README 文件追加写入 "please read me first"
echo "please read me first" >> README
将 test.txt 的内容追加到 README 文件中
cat test.txt >> README
拷贝 /hadoop 目录下的所有文件到 /hadoop-bak
cp -r /hadoop /hadoop-bak
进入到 /hadoop-bak 目录,将 test.txt 移动到 src 目录下,并修改文件名为 Student.java
mv test.txt src/Student.java
在 src 目录下创建一个 struts.xml
> struts.xml
删除所有的 xml 类型的文件
rm -rf *.xml
删除 /hadoop-bak 目录和下面的所有文件
rm -rf /hadoop-bak
返回到 /hadoop 目录,查看一下 README 文件有多单词,多少个少行
wc -w README
wc -l README
返回到根目录,将 /hadoop 目录先打包,再用 gzip 压缩
分步完成: tar -cvf hadoop.tar hadoop
gzip hadoop.tar
一步完成: tar -zcvf hadoop.tar.gz hadoop
将其解压缩,再取消打包
分步完成: gzip -d hadoop.tar.gz 或 gunzip hadoop.tar.gz
一步完成: tar -zxvf hadoop.tar.gz
将 /hadoop 目录先打包,同时用 bzip2 压缩,并保存到 /tmp 目录下
tar -jcvf /tmp/hadoop.tar.bz2 hadoop
将 /tmp/hadoop.tar.bz2 解压到 /usr 目录下面
tar -jxvf hadoop.tar.bz2 -C /usr/
系统命令
1.查看主机名
hostname
2.修改主机名(重启后无效)
hostname hadoop
3.修改主机名(重启后永久生效)
vi /ect/sysconfig/network
4.修改IP(重启后无效)
ifconfig eth0 192.168.12.22
5.修改IP(重启后永久生效)
vi /etc/sysconfig/network-scripts/ifcfg-eth0
6.查看系统信息
uname -a
uname -r
7.查看ID命令
id -u
id -g
8.日期
date
date +%Y-%m-%d
date +%T
date +%Y-%m-%d" "%T
9.日历
cal 2012
10.查看文件信息
file filename
11.挂载硬盘
mount
umount
加载windows共享
mount -t cifs //192.168.1.100/tools /mnt
12.查看文件大小
du -h
du -ah
13.查看分区
df -h
14.ssh
ssh hadoop@192.168.1.1
15.关机
shutdown -h now /init 0
shutdown -r now /reboot
用户和组
添加一个tom用户,设置它属于users组,并添加注释信息
分步完成: useradd tom
usermod -g users tom
usermod -c "hr tom" tom
一步完成: useradd -g users -c "hr tom" tom
设置tom用户的密码
passwd tom
修改tom用户的登陆名为tomcat
usermod -l tomcat tom