首先对kylin有一个初步的了解。http://www.csdn.net/article/2014-10-25/2822286mysql
首先导入kylin的jdbc驱动:sql
pom文件以下apache
<dependency>
<groupId>org.apache.kylin</groupId>
<artifactId>kylin-jdbc</artifactId>
<version>1.6.0</version>
</dependency>api
建立jdbc链接url
Driver driver = (Driver) Class.forName("org.apache.kylin.jdbc.Driver").newInstance();
Properties info = new Properties();
info.put("user", Global.getConfig("kylin.service.username"));
info.put("password", Global.getConfig("kylin.service.password"));
Connection conn = driver.connect(String.format(Global.getConfig("kylin.jdbc.url"), proName), info);//proName---对应的立方体spa
配置文件.net
#============================#
#=========== kylin ==========#k日志
#============================#
kylin.service.base=http://192.168.10.207:7070/kylin/
kylin.service.url=http://192.168.10.207:7070/kylin/api/
kylin.service.username=admin
kylin.service.password=KYLIN
kylin.jdbc.url=jdbc:kylin://192.168.10.201:7070/%scode
分页获取总记录数:orm
select count(1) from ( select flowcode,flow_name,unit_name,rece_unit_name,sendtime,receivetime,status,date_day from T_CHANGE_SHARELOG where 1=1 group by flowcode,flow_name,unit_name,rece_unit_name,sendtime,receivetime,status,date_day )
必须group by之后再count。
分页的时候因为没有像mysql的limit 1,10;
只能有limit 10;
分页的思路就是--------和hive同样
// 获取第一页数据:
// select * from table order by id asc limit
// 10;//同时须要记录这10条中最大的id为preId,做为下一页的条件。
// 获取第二页数据:
// select * from table where id >preId order by id asc limit
// 10;//同时保存数据中最大的id替换preId。
我这里是按照日志的接收时间作的排序比较,分页的
最后比较坑的是麒麟的jdbc有个时区的问题,每条查询出来的记录老是和hive里面的数据差8个小时,
所以每条记录设置时间的时候还要加8小时
public String add8hours(SimpleDateFormat sdf,String dateString) throws ParseException { Date date = sdf.parse(dateString); Date resultime = DateUtils.addHours(date, 8); return sdf.format(resultime); }