咱们如今的同步, 是依靠 Logstash
的 input-jdbc-plugin
插件来实现的自动增量更新,这个的方案貌似只能 增量
添加数据而不能修改或者删除数据. 其实否则, 咱们根据input-jdbc-plugin
这个插件的一些配置, 是能够实现咱们要的效果的.sql
用一个更新时间
的字段来做为每次Logstash
增量更新的tracking column
, 这样Logstash
每次增量更新就会根据上一次的最后的更新时间
来做为标记
.
索引的document id
必须是 主键
, 这样在每次增量更新
的时候, 才不会只是增长数据, 以前ID
相同的数据就会被覆盖, 从而达到update
的效果.删除
是创建在上面更新
的原理之上, 就是再加一个删除标记
的字段, 也就是数据只能软删除
, 不能直接删除
.elasticsearch
以上就是这个方案的实现原理, 缺点就是要多加一个更新时间
的字段, 而且数据不能直接删除, 只能软删除, 因此这个方案有必定的局限性, 可是对于大部分操做, 应该都是能够妥协的.插件
你的表, 必需要有一个update_time
或一样意思的字段, 代表这条数据修改的时间
若是有删除操做的话, 是不能够直接删除数据的, 必须是软删除,就是还得有一个 delete_time
或者is_delete
或相赞成思的字段设计
logstash
input 和outputcode
input { jdbc { ... statement => "SELECT * FROM article WHERE update_time > :sql_last_value ORDER BY id ASC" tracking_column => 'update_time' ... } } output { elasticsearch { ... document_id => "%{id}" ... } }