hadoop添加snappy解压缩库
来源:互联网 发布:西游之路升阶数据 编辑:程序博客网 时间:2024/06/10 07:18
Snappy是用C++开发的压缩和解压缩开发包,旨在提供高速压缩速度和合理的压缩率。
虽然生成的压缩文件可能会比其他压缩库的要大上20%至100%,但是,相比其他的压缩库,Snappy却能够在特定的压缩率下拥有惊人的压缩速度。
也就是说用空间换取速度
1、安装snappy
yum install snappy snappy-devel
2、给hadoop环境增加 snappp.so文件
ln -sf /usr/lib64/libsnappy.so $HADOOP_HOME/lib/native/.
3、添加配置
在core-site.xml文件中加入snappy配置
<property>
<name>io.compression.codecs</name>
<value>
org.apache.hadoop.io.compress.GzipCodec,
org.apache.hadoop.io.compress.DefaultCodec,
org.apache.hadoop.io.compress.BZip2Codec,
org.apache.hadoop.io.compress.SnappyCodec
</value>
</property>
4、如果map的输出启用snappy压缩
<property>
<name>mapreduce.map.output.compress</name>
<value>true</value>
</property>
<property>
<name>mapreduce.map.output.compress.codec</name>
<value>org.apache.hadoop.io.compress.SnappyCodec</value>
</property>
5、重新启动hadoop,使得上面的配置生效。
如果你要在Mapreduce程序里面使用Snappy相关类库,可以用下面的方法实现
Configuration conf = new Configuration();
//对map输出的内容进行压缩
conf.set("mapred.compress.map.output","true");
conf.set("mapred.map.output.compression.codec","org.apache.hadoop.io.compress.SnappyCodec");
//对reduce输出的内容进行压缩
conf.set("mapred.output.compress","true");
conf.set("mapred.output.compression","org.apache.hadoop.io.compress.SnappyCodec");
- hadoop添加snappy解压缩库
- Hadoop集群中添加Snappy解压缩库
- Hadoop压缩-SNAPPY算法
- Hadoop压缩算法snappy
- hadoop 压缩-snappy
- Hadoop 安装Snappy
- 编译Hadoop并给HBase应用Snappy本地库
- 字符串解压缩类库(zip、GZIP、QuickLz、snappy、lzf、jzlib)介绍
- 字符串解压缩类库(zip、GZIP、QuickLz、snappy、lzf、jzlib)性能对比
- Google Snappy string 压缩/解压缩(Java)
- Hadoop/Hbase的Snappy安装
- Hadoop Snappy压缩算法简介
- Hadoop Snappy安装终极教程
- Hadoop Snappy安装终极教程
- 编译hadoop支持snappy压缩
- google snappy库试用
- snappy
- snappy
- spark 2.0 SparkListener 继承关系
- 测试自动化--学到的10课(血泪史)
- 【iOS知识学习】_int、NSInteger、NSUInteger、NSNumber的区别和联系
- iOS动画——辉光效果(Label)
- [LeetCode]60. Permutation Sequence
- hadoop添加snappy解压缩库
- sage安装和使用
- xml文件中的变量参数
- 欢迎使用CSDN-markdown编辑器
- Android luancher消息提醒-ShortcutBadger
- shell下获取上一个月,星期时间和时间戳的范围
- NO.1_461. Hamming Distance
- fuck 国内视频平台
- HikariCP 高性能的 JDBC 连接池