下载UniDAC最新版本数据库
Universal Data Access Components (UniDAC)是一款通用数据库访问组件,提供了多个数据库的直接访问,如针对Windows的Delphi, C++Builder, Lazarus (以及 Free Pascal) , Mac OS X, iOS, Android, Linux和64和32位的FreeBSD等等。咱们将长期的经验集于这个小组件,提供统一的数据库链接访问(如oracle、微软SQL等等)。这意味着您能够在您的项目之间轻松地切换不一样的数据库,以及建立跨数据库应用程序接口。数组
现代数据库处理的数据量稳步增加。在这方面,存在一个严重的问题——数据库性能。必须尽快执行插入、更新和删除操做。所以,Devart提供了几种解决方案来加速处理大量数据。所以,例如,TUniLoader支持向数据库插入大量数据。不幸的是,TUniLoader只容许插入数据——它不能用于更新和删除数据。服务器
新版本的Devart Delphi数据访问组件引入了大数据处理的新机制-批处理操做。关键是只执行一个参数化的修改SQL查询。多个更改是因为这样一个查询的参数不是单个值,而是一个完整的值数组。这种方法极大地提升了数据操做的速度。此外,与使用TUniLoader相比,批处理操做不只能够用于插入,还能够用于修改和删除。网络
让咱们以包含最流行数据类型属性的BATCH_TEST表为例,更好地了解批处理操做的功能。oracle
Batch_Test表生成脚本
For Oracle:性能
1大数据 2ui 3spa 4code 5 6 7 8 9 |
CREATE TABLE BATCH_TEST ( ID NUMBER(9,0), F_INTEGER NUMBER(9,0), F_FLOAT NUMBER(12,7), F_STRING VARCHAR2(250), F_DATE DATE , CONSTRAINT PK_BATCH_TEST PRIMARY KEY (ID) ) |
For MS SQL Server:
1 2 3 4 5 6 7 8 9 |
CREATE TABLE BATCH_TEST ( ID INT , F_INTEGER INT , F_FLOAT FLOAT , F_STRING VARCHAR (250), F_DATE DATETIME, CONSTRAINT PK_BATCH_TEST PRIMARY KEY (ID) ) |
For PostgreSQL:
1 2 3 4 5 6 7 8 9 |
CREATE TABLE BATCH_TEST ( ID INTEGER , F_INTEGER INTEGER , F_FLOAT DOUBLE PRECISION , F_STRING VARCHAR (250), F_DATE DATE , CONSTRAINT PK_BATCH_TEST PRIMARY KEY (ID) ) |
For InterBase:
1 2 3 4 5 6 7 8 |
CREATE TABLE BATCH_TEST ( ID INTEGER NOT NULL PRIMARY KEY , F_INTEGER INTEGER , F_FLOAT FLOAT , F_STRING VARCHAR (250), F_DATE DATE ) |
For MySQL:
1 2 3 4 5 6 7 8 9 |
CREATE TABLE BATCH_TEST ( ID INT , F_INTEGER INT , F_FLOAT FLOAT , F_STRING VARCHAR (250), F_DATE DATETIME, CONSTRAINT PK_BATCH_TEST PRIMARY KEY (ID) ) |
For SQLite:
1 2 3 4 5 6 7 8 9 |
CREATE TABLE BATCH_TEST ( ID INTEGER , F_INTEGER INTEGER , F_FLOAT FLOAT , F_STRING VARCHAR (250), F_DATE DATETIME, CONSTRAINT PK_BATCH_TEST PRIMARY KEY (ID) ) |
批处理操做执行
要将记录插入到BATCH_TEST表中,咱们使用如下SQL查询:
1 |
INSERT INTO BATCH_TEST VALUES (:ID, :F_INTEGER, :F_FLOAT, :F_STRING, :F_DATE) |
使用简单插入操做时,查询参数值以下:

查询执行后,一条记录将插入到BATCH_TEST表中。
使用批处理操做时,查询及其参数保持不变。可是,参数值将包含在一个数组中:

如今,在执行查询时,一次向表中插入5条记录。
如何在代码中实现批量操做?
批量插入操做样本
让咱们尝试使用批插入操做将1000行插入到BATCH_TEST表中:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
var i: Integer ; begin // describe the SQL query UniQuery1.SQL.Text := 'INSERT INTO BATCH_TEST VALUES (:ID, :F_INTEGER, :F_FLOAT, :F_STRING, :F_DATE)' ; // define the parameter types passed to the query : UniQuery1.Params[0].DataType := ftInteger; UniQuery1.Params[1].DataType := ftInteger; UniQuery1.Params[2].DataType := ftFloat; UniQuery1.Params[3].DataType := ftString; UniQuery1.Params[4].DataType := ftDateTime; // specify the array dimension: UniQuery1.Params.ValueCount := 1000; // populate the array with parameter values : for i := 0 to UniQuery1.Params.ValueCount - 1 do begin UniQuery1.Params[0][i].AsInteger := i + 1; UniQuery1.Params[1][i].AsInteger := i + 2000 + 1; UniQuery1.Params[2][i].AsFloat := (i + 1) / 12; UniQuery1.Params[3][i].AsString := 'Values ' + IntToStr(i + 1); UniQuery1.Params[4][i].AsDateTime := Now; end ; // insert 1000 rows into the BATCH_TEST table UniQuery1. Execute (1000); end ; |
此命令将使用准备好的参数值数组,经过一个SQL查询向表中插入1000行。还能够将另外一个参数–偏移(默认为0)–传递给方法。Offset参数指向数组元素,批处理操做从该元素开始。
咱们能够经过两种方式将1000条记录插入到BATCH_TEST表中。
每次1000行:
1 |
UniQuery1. Execute (1000); |
2×500行:
1 2 3 4 5 |
// insert first 500 rows UniQuery1. Execute (500, 0); // insert next 500 rows UniQuery1. Execute (500, 500); |
500行,而后是300行,最后是200行:
1 2 3 4 5 6 7 8 |
// insert 500 rows UniQuery1. Execute (500, 0); // insert next 300 rows starting from 500 UniQuery1. Execute (300, 500); // insert next 200 rows starting from 800 UniQuery1. Execute (200, 800); |
批量更新操做示例
经过批处理操做,咱们能够修改BATCH_TEST表中的全部1000行,这很简单:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 |
var i: Integer ; begin // describe the SQL query UniQuery1.SQL.Text := 'UPDATE BATCH_TEST SET F_INTEGER=:F_INTEGER, F_FLOAT=:F_FLOAT, F_STRING=:F_STRING, F_DATE=:F_DATE WHERE ID=:OLDID' ; // define parameter types passed to the query: UniQuery1.Params[0].DataType := ftInteger; UniQuery1.Params[1].DataType := ftFloat; UniQuery1.Params[2].DataType := ftString; UniQuery1.Params[3].DataType := ftDateTime; UniQuery1.Params[4].DataType := ftInteger; // specify the array dimension: UniQuery1.Params.ValueCount := 1000; // populate the array with parameter values : for i := 0 to 1000 - 1 do begin UniQuery1.Params[0][i].AsInteger := i - 2000 + 1; UniQuery1.Params[1][i].AsFloat := (i + 1) / 100; UniQuery1.Params[2][i].AsString := 'New Values ' + IntToStr(i + 1); UniQuery1.Params[3][i].AsDateTime := Now; UniQuery1.Params[4][i].AsInteger := i + 1; end ; // update 1000 rows in the BATCH_TEST table UniQuery1. Execute (1000); end ; |
批量删除操做样本
从BATCH_TEST表中删除1000行的操做以下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 |
var i: Integer ; begin // describe the SQL query UniQuery1.SQL.Text := 'DELETE FROM BATCH_TEST WHERE ID=:ID' ; // define parameter types passed to the query: UniQuery1.Params[0].DataType := ftInteger; // specify the array dimension UniQuery1.Params.ValueCount := 1000; // populate the arrays with parameter values for i := 0 to 1000 - 1 do UniQuery1.Params[0][i].AsInteger := i + 1; // delete 1000 rows from the BATCH_TEST table UniQuery1. Execute (1000); end ; |
性能比较
BATCH_TEST表示例容许使用数据库和批处理操做分析正常操做的执行速度:

须要注意的是,在不一样的数据库服务器上修改同一个表时,检索到的结果可能会有所不一样。这是因为操做执行速度可能因特定服务器的设置、其当前工做负载、吞吐量、网络链接等而不一样。
在批处理操做中访问参数时不该该作
在填充数组和插入记录时,咱们经过索引访问查询参数。更明显的是,按名称访问参数:
1 2 3 4 5 6 7 |
for i := 0 to 9999 do begin UniQuery1.Params.ParamByName( 'ID' )[i].AsInteger := i + 1; UniQuery1.Params.ParamByName( 'F_INTEGER' )[i].AsInteger := i + 2000 + 1; UniQuery1.Params.ParamByName( 'F_FLOAT' )[i].AsFloat := (i + 1) / 12; UniQuery1.Params.ParamByName( 'F_STRING' )[i].AsString := 'Values ' + IntToStr(i + 1); UniQuery1.Params.ParamByName( 'F_DATE' )[i].AsDateTime := Now; end ; |
可是,参数数组的填充速度会变慢,由于在每一个循环迭代中,必须根据每一个参数的名称定义其序号。若是循环执行10000次,性能损失可能会变得至关严重。