下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是()
A.FSDataInputStream扩展了DataInputStream以支持随机读
B.为实现细粒度并行,输入分片(Input Split)应该越小越好
C.一台机器可能被指派从输入文件的任意位置开始处理一个分片
D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
A.FSDataInputStream扩展了DataInputStream以支持随机读
B.为实现细粒度并行,输入分片(Input Split)应该越小越好
C.一台机器可能被指派从输入文件的任意位置开始处理一个分片
D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割
第1题
A.Hive最终将数据存储在HDFS中
B.Hive是Hadoop平台的数据仓库工具
C.HQL可以通过MapReduce执行任务
D.Hive对HBase有强依赖
第2题
第5题
B.大规模并行计算:在分布式并行环境中将一个任务分解成更多份细粒度的子任务,这些子任务在空闲的处理节点之间被调度和快速处理之后,最终通过特定的规则进行合并生成最终的结果。典型技术为MapReduce
C.结构化分布式数据存储:类似文件系统采用数据库来存储结构化数据,云计算也需要采用特殊技术实现结构化数据存储,典型技术为BigTable/Dynamo等
D.分布式文件系统:可扩展的支持海量数据的分布式文件系统,用于大型的、分布式的、对大量数据进行访问的应用。它运行于廉价的普通硬件上,提供容错功能(通常保留数据的3份拷贝),典型技术为GFS/HDFS/KFS等
第6题
A.hadoop的文件API不是通用的,只用于HDFS文件系统
B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础
C.FileStatus对象存储文件和目录的元数据
D.FSDataInputStream是java、io、DataInputStream的子类
第7题
A.Hadoop的文件API不是通用的,只用于HDFS文件系统
B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的
C.FileStatus对象存储文件和目录的元数据
D.FSDataInputStream是jav
E.io.DataInputStream的子类
第8题
A.仅支持MapReduce计算引擎
B.易用易编程
C.可直接访问HDFS文件以及HBase
D.灵活方便的ETL(extract/transform/load)
第9题
A.64MB
B.128MB
C.75MB
D.一个map读取64MB,另外一个读取11MB
第10题
A.为海量的数据提供了存储
B.有高容错性的特点,并且设计用来部署在低廉的硬件上
C.它提供高吞吐量来访问应用程序的数据,适合那些有着超大数据集的应用程序
D.为海量的数据提供了计算
E.放宽了POSIX的要求,可以以流的形式访问件系统中的数据