Golang Go语言中请大神帮忙看看代码,我想写一个从数据库导出数据到excel的工具,目前虽然实现了但是执行效率很慢
代码如下:
package main
import (
_ “gopkg.in/goracle.v2”
_ “github.com/asifjalil/cli”
“github.com/jmoiron/sqlx”
“flag”
“fmt”
“github.com/axgle/mahonia”
“strings”
“os”
“strconv”
“io/ioutil”
“database/sql”
“bufio”
“bytes”
“time”
“github.com/360EntSecGroup-Skylar/excelize”
“runtime”
)
func DataGetter(db *sqlx.DB,query string,rowChan chan <- []interface{},columnChan chan <- []string){
defer db.Close()
row,err := db.Queryx(query)
if err != nil{
panic(err)
}
defer row.Close()
columns,err := row.Columns()
columnChan <- columns
close(columnChan)
if err !=nil {
panic(fmt.Sprint(“failed to add sheet:%s”,err.Error()))
}
for row.Next(){
r,err := row.SliceScan()
if err !=nil{
panic(“db row query failed”)
}
rowChan <- r
}
close(rowChan)
}
func ExcelWriter(sheetHead string,fileName string,rowChan <- chan[]interface{},columnChan <- chan[]string){
cnt := 2
sheetcnt := 1
var r []interface{}
columns := <- columnChan
hasNext := true
excel := excelize.NewFile()
excel.NewSheet(sheetHead)
excel.SetSheetRow(sheetHead,“A1”,columns)
//excel.SetSheetRow(sheetHead,“A”+strconv.Itoa(cnt),columns)
for hasNext{
r,hasNext = <- rowChan
for a := 0;a<len(columns);a++{
t,ok := r[a].(time.Time)
if ok{
if t.IsZero(){
excel.SetCellValue(sheetHead,excelize.ToAlphaString(a)+strconv.Itoa(cnt),"")
}else{
excel.SetCellValue(sheetHead,excelize.ToAlphaString(a)+strconv.Itoa(cnt),t)
}
}else{
excel.SetCellValue(sheetHead,excelize.ToAlphaString(a)+strconv.Itoa(cnt),r[a])
}
}
cnt = cnt + 1
if cnt >= 100000{
excel.NewSheet(sheetHead+strconv.Itoa(sheetcnt))
sheetHead = sheetHead+strconv.Itoa(sheetcnt)
excel.SetSheetRow(sheetHead,“A1”,columns)
cnt = 2
sheetcnt = sheetcnt + 1
}
}
excel.SaveAs(fileName+".xlsx")
}
func getConn(dbconn string,dbtype string)(db *sqlx.DB){
if dbtype == “oracle”{
driver := “goracle”
return sqlx.MustOpen(driver,strings.Replace(dbconn,":","/",1))
}else if dbtype == “db2”{
driver := “cli”
userPart := strings.Split(dbconn,"@")[0]
username := strings.Split(userPart,":")[0]
password := strings.Split(userPart,":")[1]
dbPart := strings.Split(dbconn,"@")[0]
dbname := strings.Split(dbPart,"/")[1]
dbip := strings.Split(strings.Split(dbPart,"/")[0],":")[0]
dbport := strings.Split(strings.Split(dbPart,"/")[0],":")[1]
connString := fmt.Sprintf(“Driver={IBM DB2 ODBC Driver};Hostname=%s;Port=%s;Protocol=TCPIP;Database=%s;CurrentSchema=%s;UID=%s;PWD=%s;”,
dbip,dbport,dbname,username,password)
return sqlx.MustOpen(driver,connString)
}else if dbtype == “postgres”{
driver := “postgres”
connString := “postgres://” + dbconn
return sqlx.MustOpen(driver,connString)
}else{
fmt.Println(“dbtype not matched!”)
os.Exit(-1)
return
}
}
func main() {
//输入参数解析
dbconn := flag.String(“d”,"",Database connect string,use "user:password@ip:port/dbname" for db2 or "user:password@tnsname" for oracle
)
dbtype := flag.String(“t”,"",“Database type:oracle db2 mysql mssql”)
filetype := flag.String(“f”,“xlsx”,“exported file type:xlsx or txt default:xlsx”)
//xlsx require options
sheetname := flag.String(“h”,“Sheet1”,“sheet name: default Sheet1”)
//txt require options
//charset := flag.String(“c”,“utf-8”,“charset for exported text file:gbk utf-8 and so on”)
//separator := flag.String(“s”,"/",“separator: default:/”)
//sql options
query := flag.String(“q”,"",“sql in one line”)
sqlfile := flag.String(“l”,"",“sqlfile”)
filename := flag.String(“n”,time.Now().Format(“20060102150405”),“filename”)
flag.Parse()
if *dbconn == “” || *dbtype == “” || *filetype == “”{
flag.Usage()
return
}
if *query == “” && *sqlfile == “”{
flag.Usage()
return
}
if *sqlfile != “” {
sqlbyte,err := ioutil.ReadFile(*sqlfile)
if err != nil{
panic(“read sqlfile failed!”)
}
utf8 := mahonia.NewEncoder(“utf-8”)
*query = utf8.ConvertString(string(sqlbyte))
}
runtime.GOMAXPROCS(2)
if *filetype == “xlsx”{
rowChan := make(chan []interface{},50000)
columnsChan := make(chan []string)
db := getConn(*dbconn,*dbtype)
go DataGetter(db,*query,rowChan,columnsChan)
ExcelWriter(*sheetname,*filename,rowChan,columnsChan)
//}else if *filetype == “txt”{
// db := getConn(*dbconn,*dbtype)
// TextFileExporter(db,*charset,*separator,*filename,*query)
//}else{
flag.Usage()
return
}
}
Golang Go语言中请大神帮忙看看代码,我想写一个从数据库导出数据到excel的工具,目前虽然实现了但是执行效率很慢
更多关于Golang Go语言中请大神帮忙看看代码,我想写一个从数据库导出数据到excel的工具,目前虽然实现了但是执行效率很慢的实战系列教程也可以访问 https://www.itying.com/category-94-b0.html
代码说明如下:
概述:小弟的程序可以通过输入数据库类型、数据库连接字符串、执行 sql 或者含有 sql 的文件等,将数据库中的 sql 查询出来并写入 excel
性能:目前导出 25W 条数据,每行数据 5 个字段,数据库类型 oracle,驱动 goracle,excel 生成库使用 excelize,用时 1 分 33 秒;同环境使用 python3.6,数据库驱动 cx_Oracle,excel 生成库使用 pyexcelerate,同样的查询语句,用时 51s (是的…没干过 python/(ㄒoㄒ)/~~)
程序描述:为了提升执行效率,小弟使用了 goruntine,一个线程专门执行 sql 并将结果生成[]interface{}并装入通道,另外一个线程不断的从通道中取出[]interface{}并写入 excel
个人感觉可能存在的问题点:
1、golang 的数据库查询方式只能一条一条生成,同时,机制用到了反射,而不像 python 可以通过 fetchmany 一次性获取大量数据,不知道此处是否会有性能差距
2、当字段类型是 date 类型时,当字段为空时,如果不做 isZero 判断,输出到 excel 的日期零值很异常(值为-5XXXXX,显示为##########)。所以每取出一条[]interface{},都需要挨个判断类型是不是日期,如果是日期的话,是不是零值,此处可能会影响效率。而 python 没有这个问题
请各位 golang 大大给提点优化意见吧,谢谢大家
更多关于Golang Go语言中请大神帮忙看看代码,我想写一个从数据库导出数据到excel的工具,目前虽然实现了但是执行效率很慢的实战系列教程也可以访问 https://www.itying.com/category-94-b0.html
回来填个坑,留一个自己的优化思路和成果…
查了一些资料,使用 interface 的性能会受到较大的影响,以前的程序中使用 interface 过多,直接影响了效率
新的思路如下
首先查询出各字段类型,针对不同的字段类型直接例如 excel 库的方法插入对应类型的数据。
具体为:使用一个线程查询数据库,使用[]sql.Rawbyte 作为接收数据库数据的载体,通过一个 interface{}列表进行 scan,不断将[]sql.Rawbyte 存入通道
另外一个线程不断获取[]sql.Rawbyte 并根据字段类型进行转换。为了进一步加快速度,首先可以声明一个 map[int]func(raw sql.Rawbyte,cell *xlsx.Cell),利用字段位置直接设置好每个位置该调用什么方法
经过测试,改进后的程序执行效率大幅度提高,导出数据效率比 python 版本快了一倍,耗时缩短一半
你好!针对你从数据库导出数据到Excel的工具执行效率慢的问题,这里有几个可能的优化方向:
-
批量读取数据库:确保你不是逐条读取数据库记录,而是使用批量读取(如使用SQL的
LIMIT
和OFFSET
或数据库提供的批量读取API)来减少数据库查询次数。 -
优化数据库查询:检查你的SQL查询是否包含不必要的复杂计算或未使用索引的字段。优化查询语句和数据库索引可以显著提高查询速度。
-
使用高效的Excel库:在Go语言中,有多个处理Excel的库,如
excelize
和xlsxwriter
。确保你选择的库支持高效的写入操作,并查看其文档了解是否有批量写入或流式写入的方法。 -
并发处理:如果数据量大,可以考虑使用Go的并发特性(如goroutines和channels)来并行处理数据读取和写入操作。但注意,并发写入Excel文件时可能需要额外的同步机制。
-
资源监控:使用Go的性能分析工具(如
pprof
)来监控你的程序在执行时的CPU和内存使用情况,找出瓶颈所在。 -
硬件和配置:检查服务器或本地机器的硬件配置是否足够支持大数据量的处理,以及数据库和Excel库的配置是否最优。
希望这些建议能帮助你优化工具的执行效率!如果还有其他具体问题或需要更详细的帮助,请随时提问。