寒假学习笔记(1)

今天主要在w3school学习了一些css的知识和安装spark,并在安装过程中复习和学习linux的基本操作命令

spark安装过程使用到的linux命令
Linux chown命令
Linux/Unix 是多人多工操作系统,所有的文件皆有拥有者。利用 chown 将指定文件的拥有者改为指定的用户或组,用户可以是用户名或者用户ID;组可以是组名或者组ID;文件是以空格分开的要改变权限的文件列表,支持通配符。 。
语法
chown [-cfhvR] [--help] [--version] user[:group] file...
参数 :
user : 新的文件拥有者的使用者 ID
group : 新的文件拥有者的使用者组(group)
-c : 显示更改的部分的信息
-f : 忽略错误信息
-h :修复符号链接
-v : 显示详细的处理信息
-R : 处理指定目录以及其子目录下的所有文件
--help : 显示辅助说明
--version : 显示版本
实例
将文件 file1.txt 的拥有者设为 runoob,群体的使用者 runoobgroup :
chown runoob:runoobgroup file1.txt
将目前目录下的所有文件与子目录的拥有者皆设为 runoob,群体的使用者 runoobgroup:
chown -R runoob:runoobgroup *

Linux tar命令
Linux 命令大全 Linux 命令大全
Linux tar命令用于备份文件。
tar是用来建立,还原备份文件的工具程序,它可以加入,解开备份文件内的文件。
实例:
解压:sudo tar -zxf ~/下载/spark-1.6.2-bin-without-hadoop.tgz -C /usr/local/
-C:将spark-1.6.2-bin-without-hadoop.tgz解压到/usr/local文件内出现的错误:


Linux tar命令
RPM是RedHat Package Manager(RedHat软件包管理工具)类似Windows里面的“添加/删除程序”,rpm 执行安装包:二进制包(Binary)以及源代码包(Source)两种。
rpm -qa|grep gcc,rpm -qa|grep kernel 查找己安装软件包的命令,其中gcc和kernel是要查找软件包的简称。


Linux rm命令
删除当前目录下的所有文件及目录,并且是直接删除,无需逐一确认命令行为:
rm -rf 要删除的文件名或目录

在安装过程中遇到如下错误:
[hadoop@localhost spark]$ bin/run-example SparkPi
Exception in thread "main" java.lang.UnsupportedClassVersionError: org/apache/spark/launcher/Main : Unsupported major.minor version 52.0
at java.lang.ClassLoader.defineClass1(Native Method)
at java.lang.ClassLoader.defineClass(ClassLoader.java:808)
at java.security.SecureClassLoader.defineClass(SecureClassLoader.java:142)
at java.net.URLClassLoader.defineClass(URLClassLoader.java:443)
at java.net.URLClassLoader.access$100(URLClassLoader.java:65)
at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
at java.net.URLClassLoader$1.run(URLClassLoader.java:349)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:348)
at java.lang.ClassLoader.loadClass(ClassLoader.java:430)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:323)
at java.lang.ClassLoader.loadClass(ClassLoader.java:363)
at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:482)

原因:jdk版本低,“Unsupported major.minor version 52.0”52对应jdk18版本,而我的linux安装的是1.7 版本,所以会报错

我重新安装了jdk1.8 版本,试着重新进行安装spark 但是还是报错了,明天试一下先安装Scala看是否成功

原文地址:https://www.cnblogs.com/jmdd/p/12250390.html