辰枫的MySQL和NoSQL学习笔记

骐骥一跃,不能十步;驽马十驾,功在不舍。

  • 博客访问: 1027971
  • 博文数量: 547
  • 用 户 组: 普通用户
  • 注册时间: 2015-12-07 17:58
  • 认证徽章:
个人简介

智慧星光高级DBA。 提供北京或河南地区MySQL、Oracle和MongoDB数据库的技术支持(性能调优,故障处理,安装升级,数据恢复等). 微信或QQ:410294 邮箱:cn_chenfeng@126.com

ITPUB论坛APP

ITPUB论坛APP



APP发帖 享双倍积分

文章分类

全部博文(547)

文章存档

2018年(8)

2017年(249)

2016年(242)

2015年(48)

微信关注

IT168企业级官微



微信号:IT168qiye



系统架构师大会



微信号:SACC2013

分类: 大数据

  HDFS是设计来存储和管理大数据的,因此典型的HDFS块大小明显比平时我们看到的传统文件系统块大得多,块大小的设置用来将大文件切割成一个数据块,再将这些数据块分发到集群上,例如集群的块大小设置为64MB,一个128MB的文件上传到HDFS上,HDFS会将这个文件切分成2(128/64)个数据块,再将这两块数据分发到集群的数据节点上。
设置块大小:
打开hdfs-site.xml,(在hadoop安装目录下的conf文件夹里)
操作步骤:
设置hdfs-site.xml下面的属性值:
<property>
<name>dfs.block.size</name>
<value>134217728</value>    --修改为128M
<description>Block size</description>
</property>


修改说明:
hdfs-site.xml是HDFS的配置文件,修改hdfs-site.xml配置文件的dfs.block.size属性值就会改变上传到HDFS所有文件的默认块大小。修改这个值并不会对HDFS上现存的任何文件的块大小产生影响,只会改变新上传文件的块大小。
阅读(1068) | 评论(0) | 转发(0) |
给主人留下些什么吧!~~
评论热议
请登录后评论。

登录 注册