将python爬取的csv文件数据导入mysql数据库
爬虫有些爬取的文件有时候喜欢保存成csv文件格式,而后直接能够在excel表查看等比较直观,如今须要把有些数据保存到数据库,就能够用到以下方法,写的比较简单。
csv文件使用pandas 处理比较快速方便 。用以前须要安装pip install pandaspython
import pandas as pd import pymysql #读取数据 test_data = pd.read_csv(r'pyill/pyillTextData.csv') test_data.head() #链接数据库 db = pymysql.connect(host="IP",user="数据库用户名", passwd="密码",db="要链接那个数据库",charset='utf8') #定义操做函数 def insert_test_data(): liData = [] num = 0 cursor = db.cursor() # 利用shape的第一个元素来获取数据的数量 for i in range(0,test_data.shape[0]): # 获取第每行数据 line_data = test_data.iloc[i] #读取第每行中每列数据 value = (str(line_data[0]),str(line_data[1]),str(line_data[2]),str(line_data[3])) liData.append(value) num +=1 if num==10000: sql = "INSERT INTO crv(crv_id,cate_id,store_id,crv_price)VALUES(%s,%s,%s,%s)" cursor.executemany(sql, liData) # 执行sql语句 db.commit() num = 0 # 计数归零 liData.clear() # 清空list cursor.close() db.close() #执行函数 insert_test_data()