1:背景
在人群画像、离线数仓、报表分析体系中会涉及大量的sql录入、验证、压缩、解析、自动维护数仓的血缘关系,确保录入数据的的准确性。我们需要一些自动化工具校验、识别,维护相关数据确保录入数据的准确性。
2:常用解决方案
1:alibaba druid sql format 以及解析
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid</artifactId>
<version>1.2.6</version>
</dependency>
alibaba druid封装的小而美,jdbc的查询性能也很高,而且生态相关的工具比较全面。springboot 官方推荐[HikariCP],大家可以根据自己的喜好选择使用那款jdbc jar。
sql format 支持多种数据源解析,非常全面。一行代码搞定,详细如下:
SQLUtils.format(sql, JdbcConstants.HIVE);
sql parse 实现比较强大。识别表的查询类型,支持多种数据源。相关代码实现如下:
/**
* 解析sql中的表,库,操作
* 查询过程中表名一定是库名.表名
* @param sql
* @return
*/
public static Map<String,Object> sqlParser(String sql) {
Map<String,Object> resultMap = Maps.newHashMap();
SQLStatementParser parser = new HiveStatementParser(sql);
SQLStatement statement = parser.parseStatement();
HiveSchemaStatVisitor visitor = new HiveSchemaStatVisitor();
statement.accept(visitor);
Map<TableStat.Name, TableStat> tableOpt = visitor.getTables();
Set<String> tableSet = new HashSet<>();
String sinkTable = null;
for (TableStat.Name tableStatKey : tableOpt.keySet()) {
if (null != tableStatKey ) {
String key = tableStatKey.toString();
if(key.contains(".")){
String operation = visitor.getTableStat(key).toString();
if(TableStat.Mode.Insert.name().equals(operation)){
sinkTable = key;
}else {
tableSet.add(key);
}
}
}
}
resultMap.put("sourceTableList",tableSet);
resultMap.put("sinkTable",sinkTable);
return resultMap;
}
2:sql-table-name-parser
<dependency>
<groupId>com.github.mnadeem</groupId>
<artifactId>sql-table-name-parser</artifactId>
<version>0.0.5</version>
</dependency>
SQL Format 其核心剔除\r\n、把多个空格替换为一个空格。详细如下:
/**
* sql format 处理
* @param sql
* @return
*/
public static String formatSql (String sql) {
String fromatSql = null ;
if(StringUtils.isBlank(sql)){
return fromatSql ;
}
fromatSql = sql;
fromatSql = fromatSql.trim();
fromatSql = fromatSql.toLowerCase();
fromatSql = fromatSql.replaceAll("\r\n", " ").replaceAll("\r"," ").replaceAll("\n"," ").replaceAll(" +"," ");
return fromatSql;
}
sql-table-name-parser 它的识别能力还是一定的偏弱,不能识别sink 表,以及with等相关实现。我在使用的过程中简单处理一下相关逻辑如下:
private static final String WITH_PREFIX = "with ";
private static final String SELECT_PREFIX =" select ";
private static final String INSERT_INTO_PREFIX ="insert into";
/**
* sql format 处理
* @param formatSql
* @return
*/
public static Map<String,Object> getTableNameMap(String formatSql) throws Exception{
Map<String,Object> resultMap = Maps.newHashMap();
if(StringUtils.isBlank(formatSql)){
return resultMap;
}
List<String> sqlList = JSON.parseArray(formatSql.toLowerCase(),String.class);
Set<String> tableSet = new HashSet<>();
String sinkTable = null;
for (String sql : sqlList){
sql = formatSql(sql);
if(sql.startsWith(WITH_PREFIX)){
throw new Exception(" sql format not support with keyword sql");
}
//处理 insert into table 无法解析的问题
if(sql.startsWith(INSERT_INTO_PREFIX)){
sql = sql.replaceAll(INSERT_INTO_PREFIX,"insert overwrite ");
}
TableNameParser tableNameParser = new TableNameParser(sql);
Collection<String> tables = tableNameParser.tables();
tableSet.addAll(tables);
String sinkSql = sql.substring(0,sql.indexOf(SELECT_PREFIX));
TableNameParser sinkTableNameParser = new TableNameParser(sinkSql);
Collection<String> sinkTables = sinkTableNameParser.tables();
if(CollectionUtils.isNotEmpty(sinkTables) && StringUtils.isEmpty(sinkTable)){
List<String> sinkTableList = Lists.newArrayList(sinkTables);
sinkTable = sinkTableList.get(0);
tableSet.remove(sinkTable);
}
resultMap.put("sourceTableList",tableSet);
resultMap.put("sinkTable",sinkTable);
}
return resultMap;
}
3:总结
Sql Format & Sql 解析在大数据场景中应用还是比较广泛的。把底层的标准建设好,后面引入其他的组件还是比较方便的。整体对比下来推荐使用alibaba druid, 如果大家有其他更好的组件欢迎大家一起交流。