开发者

Dbeaver做数据迁移的详细过程记录

开发者 https://www.devze.com 2023-05-12 08:57 出处:网络 作者: 巴拿巴与保罗
目录开发者_Elasticsearch1、选择源头数据库的表、鼠标右击、选择导出数据2、在数据转化弹框中,双击 ‘数据库,数据表’ 那一栏3、选择目标数据库,调整字段类型映射关系4、调整字段的映射关系5、勾选&ls
目录开发者_Elasticsearch
  • 1、选择源头数据库的表、鼠标右击、选择导出数据
  • 2、在数据转化弹框中,双击 ‘数据库,数据表’ 那一栏
  • 3、选择目标数据库,调整字段类型映射关系
  • 4、调整字段的映射关系
  • 5、勾选‘打开新连接’python,‘选择行计数’
  • 6、点击开始
  • 7、注意事项
  • 8、处理方式总结
  • 总结

1、选择源头数据库的表、鼠标右击、选择导出数据

Dbeaver做数据迁移的详细过程记录

2、在数据转化弹框中,双击 ‘数据库,数据表’ 那一栏

Dbeaver做数据迁移的详细过程记录

3、选择目标数据库,调整字段类型映射关系

Dbeaver做数据迁移的详细过程记录

4、调整字段的映射关系

        目前遇到的字段类型,只有 int,bigint   转  number  类型

        再就是VARCHAR2 长度不够的,加长度,超过4000的就改为clob类型

Dbeaver做数据迁移的详细过程记录

5、勾选‘打http://www.devze.com开新连接’,‘选择行计数’

Dbeaver做数据迁移的详细过程记录

6、点击开始

Dbeaver做数据迁移的详细过程记录

7、注意事项

        A、如果是oracle转Oracle,同类型的数据库迁移,就不用管字段类型的映射关系了

        B、如果字段的映射不对就会报错,或者表创建了,但数据没有进去

    python    C、遇到的字段类型,只有 int,bigint   转  number  类型

        D、有些字段迁移后会变成小写,需要后面手动调整

                        可以用SQL查询出所有的小写字段

select column_name,table_name from user_tab_columns where regexp_like(column_name,'[a-z]'); 

        E、VARCHAR2(200)  类型可能存在 实际长度大于限制长度的问题,会报错出来

                超过4000的长度,可以改为  clob 类型

        F、VARCHAR2 类型如果没有限制长度,会报错:“缺少括号”,加就可以了 VARCHAR2(200) 

        G、数据迁移后,对比两个数据库表的数量,可以使用SQL查询数量

        H、表迁移后,发现索引都没有迁移

                导致登录的编程客栈时候报错: 

                        Java.lang.IllegalArgumentException: obj is null

                处理方式:迁移索引后,问题就自动好了

8、处理方式总结

        A、导出时,可以批量的处理,比如一次处理10个表,遇到报错就停止执行,这样后面再处理报错的表就可以了,其他表会都迁移了。报错的表需要删http://www.devze.com除了,从新迁移。删除表后,需要刷新数据库。

        B、批量迁移索引

                使用SQL 查询出SQL server 所有创建索引的语句。下面是SQL

WITH indexInfo as (
    SELECT SCHEMA_NAME(t.schema_id) [schema_name],t.name as [table_name],t1.name as [index_name]
    ,t1.type,t1.type_desc,t1.is_unique,t1.is_primary_key,t1.is_unique_constraint,t1.has_filter,t1.filter_definition
    ,STUFF((SELECT ','+t4.name FROM sys.sysindexkeys t2 
        inner join sys.index_columns  t3 ON t2.id=t3.object_id and t2.indid=t3.index_id and t2.colid=t3.column_id
        inner join sys.syscolumns t4 ON t2.id=t4.id and t2.colid=t4.colid
        WHERE t2.id=t1.object_id and t1.index_id=t2.indid  and t2.keyno <> 0 ORDER BY t3.key_ordinal FOR XML PATH('')),1,1,'') AS index_cols
    ,STUFF((SELECT ','+t4.name FROM sys.sysindexkeys t2 
        inner join sys.index_columns  t3 ON t2.id=t3.object_id and t2.indid=t3.index_id and t2.colid=t3.column_id
        inner join sys.syscolumns t4 ON t2.id=t4.id and t2.colid=t4.colid
        WHERE t2.id=t1.object_id and t1.index_id=t2.indid  and t2.keyno = 0 ORDER BY t3.key_ordinal FOR XML PATH('')),1,1,'')  AS include_cols
    FROM sys.tables as t
    inner join sys.indexes as t1 on (t1.index_id > 0 and t1.is_hypothetical = 0) and (t1.object_id=t.object_id)
    WHERE t1.type in(1,2)
), indexInfo2 AS (
SELECT * ,(CASE 
    WHEN is_primary_key = 1 
        THEN 'alter table '+[schema_name]+'.'+[table_name]+' add constraint '+[index_name]+' primary key '+(CASE WHEN [type]=1 THEN 'clustered' ELSE 'nonclustered' END)+'('+index_cols+');'
    WHEN is_unique = 1 AND is_unique_constraint = 1 
        THEN 'alter table '+[schema_name]+'.'+[table_name]+' add constraint '+[index_name]+' unique '+(CASE WHEN [type]=1 THEN 'clustered' ELSE 'nonclustered' END)+'('+index_cols+');'
    WHEN is_unique = 1 AND (is_primary_key = 0 OR is_unique_constraint = 0)
        THEN 'create unique '+(CASE WHEN [type]=1 THEN 'clustered' ELSE 'nonclustered' END)+' index '+[index_name]+'  on '+[schema_name]+'.'+[table_name]+'('+index_cols+');'
    ELSE 'create '+(CASE WHEN [type]=1 THEN 'clustered' ELSE 'nonclustered' END)+' index '+[index_name]+' on '+[schema_name]+'.'+[table_name]+'('+index_cols+') ;'
    END) script
FROM indexInfo
) SELECT [schema_name],[table_name],[index_name],script
+(CASE WHEN include_cols IS NOT NULL THEN ' include('+include_cols+')' ELSE '' END)
+(CASE WHEN has_filter = 1THEN ' where '+filter_definition ELSE '' END)
FROM indexInfo2
ORDER BY [schema_name],[table_name],[type],[index_name],is_primary_key DESC,is_unique_constraint DESC,is_unique DESC

        C、批量处理语句后(两种数库的DDL语句有所差异),可以批量执行。

       可以全部一起执行,或者一次执行50条语句,遇到报错就停止,报错前的语句都执行了,就可以删除了。处理报错后,再执行报错后面的语句。

        有些不好处理的报错,可以先不管,后面在手动对表建索引就可以了

批量执行DDL语句的方式

        新开个窗口放DDL语句,SQL编辑器 --> 执行SQL脚本

Dbeaver做数据迁移的详细过程记录

注意事项:

        SQL SERVE 迁移到 ORACLE  后,在 ‘数据库表管理’ 页面做表创建的时候,DDL语句会报错,因为字段都是小写,且都加了引号,导致Oracle不能识别。需要删除  D:\03_workspace\01_fenghua\02_server\fenghua-tmp-server\src\main\java\xyz\elidom\dbist\ddl\impl\DdlJdbc.java   文件,删除后重启后端,就可以了,

后面生成的DDL语句,字段就没引号了,Oracle就可以正常创建表了。

总结

到此这篇关于Dbeaver做数据迁移的文章就介绍到这了,更多相关Dbeaver数据迁移内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

0

精彩评论

暂无评论...
验证码 换一张
取 消

关注公众号