1安装前的准备工作
1.1Pentaho Data Integration
当前的CE版本Pentaho Data Integration是5.0.1,下载地址:
http://www.pentaho.com/download/。你也可以尝试企业版EE,这里不做介绍了。下载完成后,压缩到指定的目录下。
1.2 Hadoop 2.2.0
下载最新稳定版本的Hadoop 2.2.0,下载地址:
https://hadoop.apache.org/releases.html
2安装步骤
2.1配置PID Hadoop插件
进入hadoop-configurations目录下,复制chd42,并重命名为hadoop-2.2.0,
并且清空client目录下的jar包。完成后,将Hadoop安装目录下share目录下的所有jar包复制到client目录下,包括hadoop
lib下jar包。清除client同级别的jar中的protobuf-java-2.4.0.jar使用protobuf-java-2.5.0.jar替代。
2.2添加配置
将hadoop的安装目录下的配置文件复制到PID的插件hadoop-2.2.0下,hadoop安装路径etc/hadoop/,重要的文件包括:
core-site.xml,hdfd-site.xml,mapred-site.xml,yarn-site.xml,slaves等,到hadoop-2.2.0目录下。
2.3修改PID插件的配置文件
在~/data-integration/plugins/pentaho-big-data-plugin目录下,找到plugin.properties文件。修改一行数据:
active.hadoop.configuration=hadoop-2.2.0
3.测试
测试这个配置是否成功,最简单的方法是建立job任务。创建一个job,添加开始按钮和Hadoo
copy File组件。
点击浏览HDFS文件按钮,弹出框中配置Hadoop链接配置,点击Connect按钮。如果成功的话,下面的面板中会显示HDFS的树形文件结构。
转载,请写明出处:http://blog.csdn.net/greatelite/article/details/18676005
分享到:
相关推荐
kettle 9.1 连接hadoop clusters (CDH 6.2) 驱动
Shims是Pentaho提供的一系列连接各个source的适配器,具体配置位置根据Pentaho的组件来决定,现在的PDI Spoon的配置位置在../data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations 下,注意这个...
Pentaho-Data-Integration-完全自学手册.2016.12.11, kettle
Kettle 改名啦!!! 现在叫 Pentaho Data Integration Kettle9.4版本 Pentaho Data Integration 9.4 PDI 9.4 下载地址: ...
Shims是Pentaho提供的一系列连接各个source的适配器,具体配置位置根据Pentaho的组件来决定,现在的PDI Spoon的配置位置在../data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations 下,注意这个...
(Hive输出)ETLDesigner\common\system\karaf\system\pentaho\pentaho-big-data-kettle-plugins-hive\6.1.0.1-196\下的文件。 (Hive输出)pentaho-big-data-kettle-plugins-hive-6.1.0.1-196。
maven编译pentaho-big-data-plugin遇到的所有问题解决,pentaho6.0
Shims是Pentaho提供的一系列连接各个source的适配器,具体配置位置根据Pentaho的组件来决定,现在的PDI Spoon的配置位置在../data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations 下,注意这个...
pentaho kettle-engine-8.3.0.0-371.jar
Pentaho Data Integration(原Kettle)和 Data Reporting工具最新版9.0.0.2.530百度云下载地址 ETL工具及报表展示工具
8.3.0.0-371 pentaho-kettle kettle-core
很全,欢迎下载 Chapter 1 to Chapter 15 contains code. Chapter 16 have no code.
使用Pentaho Data Integration 5.0.3整合SQL Server数据库和Salesforce数据的一个Demo,包括ppt,kettle文件及所有数据库backup文件及参考文档及代码。
Shims是Pentaho提供的一系列连接各个source的适配器,具体配置位置根据Pentaho的组件来决定,现在的PDI Spoon的配置位置在../data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations 下,注意这个...
此为kettle工具的一个pdf文档说明手册,仅供参考,备注:Kettle是一款国外开源的ETL工具,纯java编写,可以在Window、Linux、Unix上运行,绿色无需安装,数据抽取高效稳定。它允许你管理来自不同数据库的数据,通过...
pentaho-Kettle安装及使用说明(例子). pentaho-Kettle安装及使用说明(例子).
pentaho-kettle是开源的etl工具,这个是自编译的kettle9.5版本pdi-ce-9.5.0.1-261,请使用JDK17运行,支持macos m1芯片 win,linux,解压就能用。如果有条件也可以自己编译,具体可以看我的csdn博客,kettle 从9.4 ...
kettle-core-7.1.0.0-12.jar kettle-dbdialog-7.1.0.0-12.jar kettle-engine-7.1.0.0-12.jar pentaho-metadata-7.1.0.0-12.jar
自己翻译的kettle的中文文档,里边很多不到位的,各位多多包涵!
ETL(Extract-Transform-Load的缩写,即数据抽取、转换、装载的过程, 我们经常会遇到各种数据的...Kettle 支持图形化的GUI设计界面,然后可以以工作流的形式流转,熟练它可以减少非常多的研发工作量,提高工作效率。