大数据:Hadoop入门 大数据只需要掌握hadoop吗

\u672c\u4eba\u60f3\u81ea\u5b66\u5927\u6570\u636ehadoop\uff0c\u6709\u90a3\u79cd\u8bb2\u5f97\u6bd4\u8f83\u5168\u9762\u8be6\u7ec6\u7684\u5927\u6570\u636e\u89c6\u9891\u6559\u7a0b\u8d44\u6e90\u5417\uff1f

IT\u5341\u516b\u638c\u5927\u6570\u636e\u89c6\u9891\u9ad8\u85aa\u5c31\u4e1a\u89c6\u9891\u514d\u8d39\u4e0b\u8f7d
\u94fe\u63a5:https://pan.baidu.com/s/1B6yaoeSEG7TfA7I6EOedaA
\u63d0\u53d6\u7801:5wy5
IT\u5341\u516b\u638c\u5927\u6570\u636e\u89c6\u9891\u9ad8\u85aa\u5c31\u4e1a\u89c6\u9891|\u5341\u516b\u638c\u6559\u80b2_\u5f90\u57f9\u6210_\u5927\u6570\u636ePyhton\u6559\u7a0bday01\u89c6\u9891|\u5341\u516b\u638c\u6559\u80b2_\u5f90\u57f9\u6210_Cloudera CDH5|Spark|Scala|18.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Docker|17.\u7535\u5546\u9879\u76ee|12.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Storm|11.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Pig|10.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Sqoop|09.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Kafka|08.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Flume|07.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011HBase|06.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011Hive|05.\u3010IT\u5341\u516b\u638c\u5f90\u57f9\u6210\u3011ProtoBuf

\u5b66\u4e60\u5927\u6570\u636e\u80af\u5b9a\u9700\u8981\u5b66\u4e60Hadoop\u6280\u672f\uff0cHadoop\u5728\u5927\u6570\u636e\u6280\u672f\u4f53\u7cfb\u4e2d\u7684\u5730\u4f4d\u81f3\u5173\u91cd\u8981\uff0cHadoop\u662f\u5927\u6570\u636e\u6280\u672f\u7684\u57fa\u7840\uff0c\u5bf9Hadoop\u57fa\u7840\u77e5\u8bc6\u7684\u638c\u63e1\u7684\u624e\u5b9e\u7a0b\u5ea6\uff0c\u4f1a\u51b3\u5b9a\u5728\u5927\u6570\u636e\u6280\u672f\u9053\u8def\u4e0a\u8d70\u591a\u8fdc\u3002
Hadoop\u5b66\u4e60\u4e4b\u540e\uff0c\u8fd8\u5f97\u5b66\u4e60Spark\uff0c\u5b83\u662f\u4e00\u79cd\u4e0e Hadoop \u76f8\u4f3c\u7684\u5f00\u6e90\u96c6\u7fa4\u8ba1\u7b97\u73af\u5883\uff0c\u62e5\u6709Hadoop MapReduce\u6240\u5177\u6709\u7684\u4f18\u70b9\uff0cSpark\u662fMapReduce\u7684\u66ff\u4ee3\u65b9\u6848\uff0c\u800c\u4e14\u517c\u5bb9HDFS\u3001Hive\uff0c\u53ef\u878d\u5165Hadoop\u7684\u751f\u6001\u7cfb\u7edf\uff0c\u4ee5\u5f25\u8865MapReduce\u7684\u4e0d\u8db3\u3002
\u8fd9\u662f\u5927\u6570\u636e\u6280\u672f\u5b66\u4e60\u7684\u4e24\u5927\u91cd\u70b9\u3002

什么是大数据:
(1.)大数据是指在一定时间内无法用常规软件对其内容进行抓取,管理和处理的数据集合,简而言之就是数据量非常大,大到无法用常规工具进行处理,如关系型数据库,数据仓库等。这里“大”是一个什么量级呢?如在阿里巴巴每天处理数据达到20PB(即20971520GB).
2.大数据的特点:
(1.)体量巨大。按目前的发展趋势来看,大数据的体量已经到达PB级甚至EB级。
(2.)大数据的数据类型多样,以非结构化数据为主,如网络杂志,音频,视屏,图片,地理位置信息,交易数据,社交数据等。
(3.)价值密度低。有价值的数据仅占到总数据的一小部分。比如一段视屏中,仅有几秒的信息是有价值的。
(4.)产生和要求处理速度快。这是大数据区与传统数据挖掘最显著的特征。
3.除此之外还有其他处理系统可以处理大数据。
Hadoop (开源)
Spark(开源)
Storm(开源)
MongoDB(开源)
IBM PureDate(商用)
Oracle Exadata(商用)
SAP Hana(商用)
Teradata AsterData(商用)
EMC GreenPlum(商用)
HP Vertica(商用)
注:这里我们只介绍Hadoop。
二:Hadoop体系结构
Hadoop来源:
Hadoop源于Google在2003到2004年公布的关于GFS(Google File System),MapReduce和BigTable的三篇论文,创始人Doug Cutting。Hadoop现在是Apache基金会顶级项目,“
Hadoop”一个虚构的名字。由Doug Cutting的孩子为其黄色玩具大象所命名。
Hadoop的核心:
(1.)HDFS和MapReduce是Hadoop的两大核心。通过HDFS来实现对分布式储存的底层支持,达到高速并行读写与大容量的储存扩展。
(2.)通过MapReduce实现对分布式任务进行处理程序支持,保证高速分区处理数据。
3.Hadoop子项目:
(1.)HDFS:分布式文件系统,整个Hadoop体系的基石。
(2.)MapReduce/YARN:并行编程模型。YARN是第二代的MapReduce框架,从Hadoop 0.23.01版本后,MapReduce被重构,通常也称为MapReduce V2,老MapReduce也称为 MapReduce V1。
(3.)Hive:建立在Hadoop上的数据仓库,提供类似SQL语音的查询方式,查询Hadoop中的数据,
(5.)HBase:全称Hadoop Database,Hadoop的分布式的,面向列的数据库,来源于Google的关于BigTable的论文,主要用于随机访问,实时读写的大数据。
(6.)ZooKeeper:是一个为分布式应用所设计的协调服务,主要为用户提供同步,配置管理,分组和命名等服务,减轻分布式应用程序所承担的协调任务。
还有其它特别多其它项目这里不做一一解释了。
三:安装Hadoop运行环境
用户创建:
(1.)创建Hadoop用户组,输入命令:
groupadd hadoop
(2.)创建hduser用户,输入命令:
useradd –p hadoop hduser
(3.)设置hduser的密码,输入命令:
passwd hduser
按提示输入两次密码
(4.)为hduser用户添加权限,输入命令:
#修改权限
chmod 777 /etc/sudoers
#编辑sudoers
Gedit /etc/sudoers
#还原默认权限
chmod 440 /etc/sudoers
先修改sudoers 文件权限,并在文本编辑窗口中查找到行“root ALL=(ALL)”,紧跟后面更新加行“hduser ALL=(ALL) ALL”,将hduser添加到sudoers。添加完成后切记还原默认权限,否则系统将不允许使用sudo命令。
(5.)设置好后重启虚拟机,输入命令:
Sudo reboot
重启后切换到hduser用户登录
安装JDK
(1.)下载jdk-7u67-linux-x64.rpm,并进入下载目录。
(2.)运行安装命令:
Sudo rpm –ivh jdk-7u67-linux-x64.rpm
完成后查看安装路径,输入命令:
Rpm –qa jdk –l
记住该路径,
(3.)配置环境变量,输入命令:
Sudo gedit /etc/profile
打开profile文件在文件最下面加入如下内容
export JAVA_HOME=/usr/java/jdk.7.0.67
export CLASSPATH=$ JAVA_HOME/lib:$ CLASSPATH
export PATH=$ JAVA_HOME/bin:$PATH
保存后关闭文件,然后输入命令使环境变量生效:
Source /etc/profile
(4.)验证JDK,输入命令:
Java –version
若出现正确的版本则安装成功。
配置本机SSH免密码登录:
(1.)使用ssh-keygen 生成私钥与公钥文件,输入命令:
ssh-keygen –t rsa
(2.)私钥留在本机,公钥发给其它主机(现在是localhost)。输入命令:
ssh-copy-id localhost
(3.)使用公钥来登录输入命令:
ssh localhost
配置其它主机SSH免密登录
(1.)克隆两次。在VMware左侧栏中选中虚拟机右击,在弹出的快捷键菜单中选中管理---克隆命令。在克隆类型时选中“创建完整克隆”,单击“下一步”,按钮直到完成。
(2.)分别启动并进入三台虚拟机,使用ifconfig查询个主机IP地址。
(3.)修改每台主机的hostname及hosts文件。
步骤1:修改hostname,分别在各主机中输入命令。
Sudo gedit /etc/sysconfig/network
步骤2:修改hosts文件:
sudo gedit /etc/hosts
步骤3:修改三台虚拟机的IP
第一台对应node1虚拟机的IP:192.168.1.130
第二台对应node2虚拟机的IP:192.168.1.131
第三台对应node3虚拟机的IP:192.168.1.132
(4.)由于已经在node1上生成过密钥对,所有现在只要在node1上输入命令:
ssh-copy-id node2
ssh-copy-id node3
这样就可以将node1的公钥发布到node2,node3。
(5.)测试SSH,在node1上输入命令:
ssh node2
#退出登录
exit
ssh node3
exit
四:Hadoop完全分布式安装
1. Hadoop有三种运行方式:
(1.)单机模式:无须配置,Hadoop被视为一个非分布式模式运行的独立Java进程
(2.)伪分布式:只有一个节点的集群,这个节点即是Master(主节点,主服务器)也是Slave(从节点,从服务器),可在此单节点上以不同的java进程模拟分布式中的各类节点
(3.)完全分布式:对于Hadoop,不同的系统会有不同的节点划分方式。
2.安装Hadoop
(1.)获取Hadoop压缩包hadoop-2.6.0.tar.gz,下载后可以使用VMWare Tools通过共享文件夹,或者使用Xftp工具传到node1。进入node1 将压缩包解压到/home/hduser目录下,输入命令: #进入HOME目录即:“/home/hduser”
cd ~
tar –zxvf hadoop-2.6.0.tar.gz
(2.)重命名hadoop输入命令:
mv hadoop-2.6.0 hadoop
(3.)配置Hadoop环境变量,输入命令:
Sudo gedit /etc/profile
将以下脚本加到profile内:
#hadoop
export HADOOP_HOME=/home/hduser/hadoop
export PATH=$HADOOP_HOME/bin:$PATH
保存关闭,最后输入命令使配置生效
source /etc/profile
注:node2,和node3都要按照以上配置进行配置。
3.配置Hadoop
(1.)hadoop-env.sh文件用于指定JDK路径。输入命令:
[hduser@node1 ~]$ cd ~/hadoop/etc/hadoop
[hduser@node1 hadoop]$ gedit hadoop-env.sh
然后增加如下内容指定jDK路径。
export JAVA_HOME=/usr/java/jdk1.7.0_67
(2.)打开指定JDK路径,输入命令:
export JAVA_HOME=/usr/java/jdk1.7.0_67
(4.)core-site.xml:该文件是Hadoop全局配置,打开并在元素中增加配置属性如下:

fs.defaultFs hdfs://node1:9000 hadoop.tmp.dir file:/home/hduser/hadoop/tmp 这里给出了两个常用的配置属性,fs.defaultFS表示客户端连接HDFS时,默认路径前缀,9000是HDFS工作的端口。Hadoop.tmp.dir如不指定会保存到系统的默认临时文件目录/tmp中。 (5.)hdfs-site.xml:该文件是hdfs的配置。打开并在元素中增加配置属性。 (6.)mapred-site.xml:该文件是MapReduce的配置,可从模板文件mapred-site.xml.template中复制打开并在元素中增加配置。 (7.)yarn-site.xml:如果在mapred-site.xml配置了使用YARN框架,那么YARN框架就使用此文件中的配置,打开并在元素中增加配置属性。 (8.)复制这七个命令到node2,node3。输入命令如下: scp –r /home/hduser/hadoop/etc/hadoop/ hduser@node2:/home/hduser/hadoop/etc/ scp –r /home/hduser/hadoop/etc/hadoop/ hduser@node3:/home/hduser/hadoop/etc/ 4.验证: 下面验证hadoop是否正确 (1.)在Master主机(node1)上格式化NameNode。输入命令: [hduser@node1 ~]$ cd ~/hadoop [hduser@node1 hadoop]$ bin/hdfs namenode –format (2)关闭node1,node2 ,node3,系统防火墙并重启虚拟机。输入命令: service iptables stop sudo chkconfig iptables off reboot (3.)输入以下启动HDFS: [hduser@node1 ~]$ cd ~/hadoop (4.)启动所有 [hduser@node1 hadoop]$ sbin/start-all.sh (5.)查看集群状态: [hduser@node1 hadoop]$ bin/hdfs dfsadmin –report (6.)在浏览器中查看hdfs运行状态,网址:http://node1:50070 (7.)停止Hadoop。输入命令: [hduser@node1 hadoop]$ sbin/stop-all.sh 五:Hadoop相关的shell操作 (1.)在操作系统中/home/hduser/file目录下创建file1.txt,file2.txt可使用图形界面创建。 file1.txt输入内容: Hello World hi HADOOP file2.txt输入内容 Hello World hi CHIAN (2.)启动hdfs后创建目录/input2 [hduser@node1 hadoop]$ bin/hadoop fs –mkdir /input2 (3.)将file1.txt.file2.txt保存到hdfs中: [hduser@node1 hadoop]$ bin/hadoop fs –put -/file/file*.txt /input2/ (4.)[hduser@node1 hadoop]$ bin/hadoop fs –ls /input2

  • 澶ф暟鎹鎬庝箞瀛︿範
    绛旓細闇瑕佽繘琛屽姩鎵嬬殑鎿嶄綔銆傜涓夐樁娈碉細娴烽噺鏁版嵁瀛樺偍鍒嗗竷寮忓瓨鍌 1HadoopHDFS鍒嗗竷寮忓瓨鍌細HDFS鏄Hadoop鐨鍒嗗竷寮忔枃浠跺瓨鍌ㄧ郴缁燂紝鏄竴涓珮搴﹀閿欐х殑绯荤粺锛岄傚悎閮ㄧ讲鍦ㄥ粔浠风殑鏈哄櫒涓婏紝HDFS鑳芥彁渚涢珮鍚炲悙閲忕殑鏁版嵁璁块棶锛岄潪甯搁傚悎澶ц妯℃暟鎹泦涓婄殑搴旂敤锛屼粙缁嶅叾鐨鍏ラ棬鍩虹鐭ヨ瘑锛屾繁鍏ュ墫鏋愩2HBase鍒嗗竷寮忓瓨鍌細HBase-HadoopDatabase鏄...
  • 鎯宠瀛︿範澶ф暟鎹,搴旇鎬庝箞鍏ラ棬?
    绛旓細杩樿兘璁╀綘瀵逛互鍚庢柊鍑虹殑澶ф暟鎹鎶鏈涔犺捣鏉ユ洿蹇傚ソ璇村畬鍩虹浜嗭紝鍐嶈璇磋繕闇瑕佸涔犲摢浜涘ぇ鏁版嵁鎶鏈紝鍙互鎸夋垜鍐欑殑椤哄簭瀛︿笅鍘汇Hadoop锛杩欐槸鐜板湪娴佽鐨勫ぇ鏁版嵁澶勭悊骞冲彴鍑犱箮宸茬粡鎴愪负澶ф暟鎹殑浠e悕璇嶏紝鎵浠ヨ繖涓槸蹇呭鐨勩侶adoop閲岄潰鍖呮嫭鍑犱釜缁勪欢HDFS銆丮apReduce鍜孻ARN锛孒DFS鏄瓨鍌ㄦ暟鎹殑鍦版柟灏卞儚鎴戜滑鐢佃剳鐨勭‖鐩樹竴鏍锋枃浠堕兘...
  • hadoop閫氫織鐐硅鏄粈涔?搴旇鎬庝箞瀛?鏈夊摢浜涘墠鎻愮殑鐭ヨ瘑鏉′欢鍚?
    绛旓細Apache Hadoop鏄鍏ラ棬鐐癸紝鎴栬呮垜浠彲浠ヨ鏄繘鍏ユ暣涓澶ф暟鎹鐢熸佺郴缁熺殑鍩虹銆傚畠鏄ぇ鏁版嵁鐢熸佺郴缁熶腑澶у鏁伴珮绾у伐鍏凤紝搴旂敤绋嬪簭鍜屾鏋剁殑鍩虹锛屼絾鏄湪瀛︿範Apache Hadoop鏃讹紝杩橀渶瑕佷簨鍏堢煡閬撲竴浜涗簨鎯呫傚紑濮嬪涔燗pache Hadoop娌℃湁涓ユ牸鐨勫厛鍐虫潯浠躲 浣嗘槸锛屽畠浣夸簨鎯呮洿瀹规槗锛屽鏋滀綘鎯虫垚涓哄拰Apache Hadoop鐨涓撳锛岃繖浜涙槸寰堝ソ鐨...
  • 鍦澶ф暟鎹瀛︿範涓Hadoop鍜孲park鍝釜鏇村ソ灏变笟
    绛旓細澶ф暟鎹鐨hadoop鍜宻park閮芥槸澶ф暟鎹紑鍙戞墍鐢ㄥ埌鐨勪竴绉嶅紑鍙戣蒋浠跺伐鍏凤紝鍚堟牸鐨勫ぇ鏁版嵁寮鍙戝伐绋嬪笀闇瑕佹帉鎻$殑鎶鑳藉緢澶氾紝鍏蜂綋宀椾綅锛堝ぇ鏁版嵁寮鍙戯紝澶ф暟鎹垎鏋愶紝鏁版嵁浜у搧缁忕悊绛夛級瑕佹眰鐨勯噸鐐逛笉鍚屻傚闇澶ф暟鎹煿璁帹鑽愰夋嫨銆愯揪鍐呮暀鑲层戙侶adoop涓嶴park閮芥槸澶ф暟鎹绠楁鏋讹紝浣嗘槸涓よ呭悇鏈夎嚜宸辩殑浼樺娍锛孲park涓Hadoop鐨鍖哄埆涓昏鏈変互涓...
  • 澶ф暟鎹鍒嗘瀽鍩硅瀛︽牎鏈夊摢浜
    绛旓細濡傞渶澶ф暟鎹鍒嗘瀽鍩硅鎺ㄨ崘閫夋嫨銆愯揪鍐呮暀鑲层戙傛暟鎹垎鏋愯绋嬩互涓嬪唴瀹癸細1銆佸ぇ鏁版嵁鍓嶆部鐭ヨ瘑鍙hadoop鍏ラ棬銆備簡瑙eぇ鏁版嵁鐨勫巻鍙茶儗鏅強鍙戝睍鏂瑰悜锛屾帉鎻adoop鐨勪袱绉嶅畨瑁呴厤缃2銆丠adoop閮ㄧ讲杩涢樁銆傜啛缁冩帉鎻adoop闆嗙兢鎼缓锛涘Hadoop鏋舵瀯鐨勫垎甯冨紡鏂囦欢绯荤粺HDFS杩涜娣卞叆鍒嗘瀽銆3銆丣ava鍩虹銆備簡瑙ava绋嬪簭璁捐鐨勫熀鏈濇兂锛岀啛缁冨埄鐢╡clipse...
  • 澶ф暟鎹瀛︿範璺嚎鏄粈涔?
    绛旓細濡傞渶瀛︿範澶ф暟鎹锛屾帹鑽愰夋嫨銆愯揪鍐呮暀鑲层戙傞樁娈典竴锛氬涔鍏ラ棬鐭ヨ瘑銆傚湪瀛︿範涔嬪墠闇瑕佸厛鎺屾彙鍩烘湰鐨勬暟鎹簱鐭ヨ瘑銆傞樁娈典簩锛氥怞ava鍩虹銆戙侸ava鏄洰鍓嶄娇鐢ㄦ渶涓哄箍娉涚殑缂栫▼璇█锛岄傚悎浣滀负澶ф暟鎹簲鐢ㄧ殑寮鍙戣瑷銆傞樁娈典笁锛歋cala鍩虹銆係cala鏄竴绉嶅鑼冨紡鐨勭紪绋嬭瑷銆傞樁娈靛洓锛欻adoop鎶鏈ā鍧椼侶adoop鏄竴娆炬敮鎸佹暟鎹瘑闆嗗瀷鍒嗗竷寮...
  • 澶ф暟鎹閮介渶瑕佸浠涔?
    绛旓細鍩虹闃舵锛歀inux銆丏ocker銆並VM銆丮ySQL鍩虹銆丱racle鍩虹銆丮ongoDB銆乺edis銆俬adoop mapreduce hdfs yarn锛歨adoop锛欻adoop 姒傚康銆佺増鏈佸巻鍙诧紝HDFS宸ヤ綔鍘熺悊锛孻ARN浠嬬粛鍙婄粍浠朵粙缁嶃澶ф暟鎹瀛樺偍闃舵锛歨base銆乭ive銆乻qoop銆傚ぇ鏁版嵁鏋舵瀯璁捐闃舵锛欶lume鍒嗗竷寮忋乑ookeeper銆並afka銆傚ぇ鏁版嵁瀹炴椂璁$畻闃舵锛歁ahout銆丼park銆乻torm銆傚ぇ鏁...
  • 澶ф暟鎹鍩硅闇瑕佸涔犲闀挎椂闂村憿?璐圭敤鏄灏戝憿?
    绛旓細Linux鐜涓嬮」鐩彂甯冮儴缃茬瓑銆3銆佹帉鎻′娇鐢ㄦ祦琛屾鏋禨SM\SSH鎶鏈疄鐜颁紒涓氱骇椤圭洰寮鍙戯細閲嶇偣瀛︿範MyBatis銆丼pring銆丼pring MVC妗嗘灦鐨勫簲鐢紝Git銆丣ava璁捐妯″紡绛夛紝閲嶇偣瀛︿範Struts2 銆丼pring銆丠ibernate妗嗘灦鐨勫簲鐢紝Maven銆丱racle鏁版嵁搴撳簲鐢ㄦ妧鏈紝浜嗚В澶ф暟鎹鐢熸佷綋绯伙紝Hadoop鍩虹鍏ラ棬銆4銆丣avaWeb妗嗘灦锛歋pring浣撶郴缁撴瀯銆...
  • Hadoop,澶ф暟鎹,浜戣绠椾笁鑰呬箣闂存湁浠涔堝叧绯
    绛旓細澶ф暟鎹拰浜戣绠楁槸浣曞叧绯?鍏充簬澶ф暟鎹拰浜戣绠楃殑鍏崇郴浜轰滑閫氬父浼氭湁璇В銆傝屼笖涔熶細鎶婂畠浠贩璧锋潵璇达紝鍒嗗埆鍋氫竴鍙ヨ瘽鐩寸櫧瑙i噴灏辨槸锛氫簯璁$畻灏辨槸纭欢璧勬簮鐨勮櫄鎷熷寲;澶ф暟鎹氨鏄捣閲忔暟鎹殑楂樻晥澶勭悊銆傚ぇ鏁版嵁銆乭adoop鍙婁簯璁$畻涔嬮棿鍒板簳鏄粈涔堝叧绯诲憿?澶ф暟鎹紑鍙鍏ラ棬 璇剧▼锛歨adoop澶ф暟鎹涓巋adoop浜戣绠楋紝Hadoop鏈鎿呴暱鐨勪簨鎯呭氨鏄...
  • 澶ф暟鎹鎬庝箞瀛,鑷鍙互瀛︿細鍚
    绛旓細2銆佸涔犵紪绋嬬瓑鍩虹鐭ヨ瘑 澶ф暟鎹鐨勫熀纭鐭ヨ瘑鏄暟瀛︺佺粺璁″鍜岃绠楁満锛屽彲浠ヤ粠缂栫▼璇█寮濮嬪璧凤紝Python銆丣ava銆丼cala銆丷銆丟o绛夎瑷鍦ㄥぇ鏁版嵁棰嗗煙閮芥湁涓瀹氱殑搴旂敤鍦烘櫙锛屽彲浠ラ夋嫨涓闂ㄥ涔犮傚ぇ鏁版嵁寮鍙戞柟鍚戝缓璁夋嫨Java銆丼cala锛屾暟鎹垎鏋愭柟鍚戝缓璁涔燩ython銆丷銆3銆佸涔犲ぇ鏁版嵁骞冲彴鐭ヨ瘑 鍏ラ棬瀛︿範Hadoop鎴栬匰park锛孒adoop骞冲彴...
  • 扩展阅读:100个免费观看软件 ... 大数据hadoop技术的论文 ... 大数据分析软件免费版 ... 免费大数据网站软件 ... 万能数据恢复大师 ... 恢复数据免费的软件 ... 十大免费数据网站 ... 大数据资源网站 ... 关于大数据的ppt免费 ...

    本站交流只代表网友个人观点,与本站立场无关
    欢迎反馈与建议,请联系电邮
    2024© 车视网