1.整理 用户用户组
2.整理 sudo命令
3.整理 用户无法登录 passwd文件
4.权限 rwx------ chmod chown 案例
5.其他命令 - su find du等
用户和用户组
针对用户的相关文件在:/usr/sbin/user*
[root@aliyun ~]# ll /usr/sbin/user* -rwxr-x---. 1 root root 118192 Nov 6 2016 /usr/sbin/useradd -rwxr-x---. 1 root root 80360 Nov 6 2016 /usr/sbin/userdel -rwxr-x---. 1 root root 113840 Nov 6 2016 /usr/sbin/usermod -rwsr-xr-x 1 root root 11296 Apr 13 2017 /usr/sbin/usernetctl
针对用户组的相关文件在:/usr/sbin/group*
[root@aliyun ~]# ll /usr/sbin/group* -rwxr-x---. 1 root root 65480 Nov 6 2016 /usr/sbin/groupadd -rwxr-x---. 1 root root 57016 Nov 6 2016 /usr/sbin/groupdel -rwxr-x---. 1 root root 57064 Nov 6 2016 /usr/sbin/groupmems -rwxr-x---. 1 root root 76424 Nov 6 2016 /usr/sbin/groupmod
可以打印出PATH路径,就会发现/user/sbin已经被添加在了PATH环境中了,可以从主机的任意位置使用这些命令
[root@aliyun ~]# echo $PATH /opt/module/jdk1.8.0_144/bin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin
需求:
1. 添加hadoop用户
2. 删除hadoop用户
3. 重新创建hadoop用户,模拟用户丢失样式,并修正样式
4. 创建bigdata用户组,并把hadoop用户添加进这个用户组
5. 修改bigdata为hadoop的主组
1. 添加hadoop用户
[root@aliyun ~]# useradd hadoop [root@aliyun ~]# id hadoop uid=1000(hadoop) gid=1000(hadoop) groups=1000(hadoop)
2. 删除hadoop用户
使用命令帮助查看 userdel 命令
[root@aliyun ~]# userdel --help Usage: userdel [options] LOGIN Options: -f, --force force some actions that would fail otherwise e.g. removal of user still logged in or files, even if not owned by the user -h, --help display this help message and exit -r, --remove remove home directory and mail spool -R, --root CHROOT_DIR directory to chroot into -Z, --selinux-user remove any SELinux user mapping for the user
会发现 -r 选项是删除家目录
在这里我们选择删除用户的时候不删除家目录
[root@aliyun ~]# userdel hadoop [root@aliyun ~]# id hadoop id: hadoop: no such user
[root@aliyun home]# cat /etc/passwd | grep ruoze
[root@aliyun home]# cat /etc/group | grep ruoze
因为hadoop该组只有hadoop用户,当这个用户删除时,组会校验就他自己,会自动删除
3. 重新创建hadoop用户,模拟用户丢失样式,并修正样式
3.1 创建hadoop用户
[root@aliyun ~]# useradd hadoop useradd: warning: the home directory already exists. Not copying any file from skel directory into it. Creating mailbox file: File exists [root@aliyun ~]# id hadoop uid=1000(hadoop) gid=1000(hadoop) groups=1000(hadoop)
3.2 模拟用户丢失样式
[hadoop@aliyun ~]$ ll -a .bash* -rw-r--r-- 1 hadoop hadoop 18 Dec 7 2016 .bash_logout -rw-r--r-- 1 hadoop hadoop 193 Dec 7 2016 .bash_profile -rw-r--r-- 1 hadoop hadoop 231 Dec 7 2016 .bashrc [hadoop@aliyun ~]$ rm -rf .bash*
[root@aliyun ~]# su - hadoop #切换用户 Last login: Sun Nov 17 09:29:10 CST 2019 on pts/0 -bash-4.2$ #用户样式丢失
3.3 修正样式 (这里只有root权限才可以拷贝)
[root@aliyun ~]# ll -a /etc/skel/ total 20 drwxr-xr-x. 2 root root 4096 Aug 18 2017 . drwxr-xr-x. 81 root root 4096 Nov 17 09:27 .. -rw-r--r-- 1 root root 18 Dec 7 2016 .bash_logout -rw-r--r-- 1 root root 193 Dec 7 2016 .bash_profile -rw-r--r-- 1 root root 231 Dec 7 2016 .bashrc
[root@aliyun ~]# cp /etc/skel/ .bash* /home/hadoop/
cp: omitting directory ‘/etc/skel/’
[root@aliyun ~]# su - hadoop #样式回来了 Last login: Sun Nov 17 09:33:39 CST 2019 on pts/2 [hadoop@aliyun ~]$
4. 创建bigdata用户组,并把hadoop用户添加进这个用户组
[root@aliyun ~]# groupadd bigdata [root@aliyun ~]# usermod -a -G bigdata hadoop [root@aliyun ~]# id hadoop uid=1000(hadoop) gid=1000(hadoop) groups=1000(hadoop),1001(bigdata)
5. 修改bigdata为hadoop的属组
查看命令帮助发现有一条命令是改变用户的属组的
-g, --gid GROUP force use GROUP as new primary group
[root@aliyun ~]# usermod -g bigdata hadoop #强制改变属组 [root@aliyun ~]# id hadoop uid=1000(hadoop) gid=1001(bigdata) groups=1001(bigdata)
sudo命令
sudo命令是让普通用户具备root用户的权限
添加普通用户具备root权限的文件是:/etc/sudoers
90 ## Allow root to run any commands anywhere 91 root ALL=(ALL) ALL 92 hadoop ALL=(root) NOPASSWD:ALL #新添加的内容
用户无法登录 修改passwd文件
在模拟用户无法登陆之前,先说明管理用户信息的文件是:/etc/passwd
[root@aliyun ~]# tail -3 /etc/passwd redis:x:996:994:Redis Database Server:/var/lib/redis:/sbin/nologin mysqladmin:x:514:101::/usr/local/mysql:/bin/bash hadoop:x:1000:1001::/home/hadoop:/bin/bash
需要注意的是最后一个冒号后面是用户的登陆权限
需求:
1. 模拟用户的登录权限是/bin/false,修改,并登录
2. 模拟用户的登录权限是/sbin/nologin,修改,并登录
1. 模拟用户的登录权限是/bin/false,修改,并登录
1.1 模拟用户的登录权限是/bin/false
[root@aliyun ~]# cat /etc/passwd | grep hadoop hadoop:x:1000:1001::/home/hadoop:/bin/false
1.2 尝试登录
[root@aliyun ~]# su - hadoop Last login: Sun Nov 17 09:37:25 CST 2019 on pts/2 [root@aliyun ~]# #登录失败
1.3 查看用户文件权限,并修改
[root@aliyun ~]# cat /etc/passwd | grep 'hadoop' hadoop:x:1000:1001::/home/hadoop:/bin/bash
1.4 再次登录
[root@aliyun ~]# su - hadoop Last login: Sun Nov 17 09:56:43 CST 2019 on pts/1 [hadoop@aliyun ~]$ #登录成功
2. 模拟用户的登录权限是/sbin/nologin,修改,并登录
1.1 模拟用户的登录权限是/sbin/nologin
[root@aliyun ~]# cat /etc/passwd | grep hadoop
hadoop:x:1000:1001::/home/hadoop:/sbin/nologin
1.2 尝试登录
[root@aliyun ~]# su - hadoop
Last login: Sun Nov 17 09:59:35 CST 2019 on pts/1
This account is currently not available.
[root@aliyun ~]# #登录失败
1.3 查看用户文件权限,并修改
[root@aliyun ~]# cat /etc/passwd | grep 'hadoop'
hadoop:x:1000:1001::/home/hadoop:/bin/bash
1.4 再次登录
[root@aliyun ~]# su - hadoop
Last login: Sun Nov 17 09:56:43 CST 2019 on pts/1
[hadoop@aliyun ~]$ #登录成功
rwx------ chmod chown 案例
查看文件或者目录的读写执行权限
[root@aliyun ~]# ll test.txt -rw-r--r-- 1 root root 12 Nov 12 23:36 test.txt
r: read 4
w: write 2
x: 执行 1
-: 没权限 0
rw-第一组 6 代表文件或文件夹的用户root,读写
r-- 第二组 4 代表文件或文件夹的用户组root,读
r-- 第三组 4 代表其他组的所属用户对这个文件或文件夹的权限: 读
chmod 命令用来修改文件或者目录的读写执行权限,加 -R 表示递归修改
chown 命令用来修改文件或者目录的属主和属组,加 -R 表示递归修改
需求:
1. 修改 test.txt 文件的属组为bigdata
2. 修改 test.txt 文件的权限为属主读写执行,属组读执行
1. 修改 test.txt 文件的属组为bigdata
[root@aliyun ~]# chown -R :bigdata test.txt [root@aliyun ~]# ll test.txt -rw-r--r-- 1 root bigdata 12 Nov 12 23:36 test.txt
2. 修改 test.txt 文件的权限为属主可读写执行,属组可读执行,其他可读
[root@aliyun ~]# chmod -R 754 test.txt [root@aliyun ~]# ll test.txt -rwxr-xr-- 1 root bigdata 12 Nov 12 23:36 test.txt
注意: -R 参数,目前可认为只有chown和chmod命令有,其他都为 -r
其他命令 - su find du
su命令用来切换用户,使用su - 用户名的方式,切换的时候把环境也切换了
[root@aliyun ~]# su - hadoop #su - 用户名 Last login: Sun Nov 17 10:16:08 CST 2019 on pts/2 [hadoop@aliyun ~]$ pwd /home/hadoop
[root@aliyun ~]# su hadoop #su 用户名
[hadoop@aliyun root]$ pwd
/root
需要注意 .bash_profile 和 .bashrc 两个文件中的环境生效的区别
.bash_profile文件 su ruoze不会执行,su - ruoze 都执行
.bashrc文件 su ruoze执行 ,su - ruoze 都执行
find命令用来查找文件,在不确定文件名的情况下使用模糊匹配
[hadoop@aliyun root]$ find /home -name '*hadoop*' /home/hadoop
du命令用来查看文件或者目录大小
虽然 ls -l 也可以查看文件或者目录的大小,但是 ls -l 显示的目录大小并不准确
[root@aliyun ~]# ll -h size.log/ total 12K -rw-r--r-- 1 root root 286K Nov 17 10:24 lastlog
再使用du -sh 查看一次
[root@aliyun ~]# du -sh size.log/
12K size.log/
最后进入size.log文件夹查看文件的大小
[root@aliyun log]# du -sh lastlog
12K lastlog