百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT知识 > 正文

爬虫python链接mysql数据库使用to_sql写入数据老报错的问题

liuian 2024-12-27 15:15 14 浏览

网上有很多使用爬虫技术抓取数据并写入cvs的教学案例

抓下来也没大的问题,但是如果自己本地建立了mysql数据库,使用很多公开的教程,反倒实现不了功能,经常报这样那样的错误,比如常见的UserWarning: pandas only support SQLAlchemy connectable(engine/connection)错误!

经过不少时间的折腾终于找到了解决问题的办法,是因为to_sql办法网上大多数教程都是老版本的链接数据库的办法,新的版本的pandas只支持SQLAlchemy的办法链接

老的链接数据库的办法一般是这样的

import pandas as pd

import pymysql

# 创建数据库连接

conn = pymysql.connect(host='localhost', port=3306, user='root', password='password', db='database_name')

# 创建游标对象 cursor = conn.cursor()

# 创建一个DataFrame示例

data = {'Name': ['John', 'Mike', 'Bob'], 'Age': [25, 30, 35]}

df = pd.DataFrame(data)

# 将DataFrame插入MySQL表

# 如果该表不存在,可以使用CREATE TABLE语句来创建它

df.to_sql(name='table_name', con=conn, if_exists='replace', index=False)

# 关闭游标和连接

cursor.close()

conn.close()

这样的话直接报错!

那么就需要用新的办法链接

from sqlalchemy import create_engine

MYSQL_HOST = 'localhost'

MYSQL_PORT = '3306'

MYSQL_USER = 'root'

MYSQL_PASSWORD = '12345678'

MYSQL_DB = 'stocks'

### 使用pandas to_sql写入数据

engine = create_engine('mysql+pymysql://%s:%s@%s:%s/%s?charset=utf8'% (MYSQL_USER, MYSQL_PASSWORD, MYSQL_HOST, MYSQL_PORT, MYSQL_DB))

#engine = create_engine(conn)

df = pd.DataFrame(all_products,columns=keys)

#replce 清除并重写,append 叠加数据

df.to_sql('test_ifeng',engine, if_exists='replace', index=False)

#raise SystemExit

OK,这样我们就能看到mysql数据库存入了相关的数据

这是昨天爬虫入库的完整代码,有三种写入数据库的办法

import requests

from bs4 import BeautifulSoup

import csv

import pandas as pd

from sqlalchemy import create_engine

url = 'http://www.ifeng.com'

page = requests.get(url)

soup = BeautifulSoup(page.content, 'html.parser')

# 设置headers

headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36",

}

# 设置cookies

cookies = {}

cookies['mall'] = '1638237165.7.1148.523814'

cookies['JSESSIONID'] = '7D7F08E6CAC6989FDE82EBDEBBF9CB21'

# 发起请求

res = requests.get(url, cookies=cookies, headers=headers, timeout=5)

#res = requests.get(url)

#title = soup.title.text

all_products = []

#print(soup)

products = soup.select('p.index_news_list_p_5zOEF')

#raise SystemExit

for product in products:

title = product.select('a')[0].text

url = product.select('a')[0].attrs['href']

all_products.append({

"biaoti":title,

"link": url

})

#csv写入办法

keys = all_products[0].keys()

with open('ifeng新闻.csv', 'w', newline='', encoding='utf-8-sig') as output_file:

dict_writer = csv.DictWriter(output_file, keys)

dict_writer.writeheader()

dict_writer.writerows(all_products)

MYSQL_HOST = 'localhost'

MYSQL_PORT = '3306'

MYSQL_USER = 'root'

MYSQL_PASSWORD = '12345678'

MYSQL_DB = 'stocks'

### 使用pandas to_sql写入数据

engine = create_engine('mysql+pymysql://%s:%s@%s:%s/%s?charset=utf8'% (MYSQL_USER, MYSQL_PASSWORD, MYSQL_HOST, MYSQL_PORT, MYSQL_DB))

#engine = create_engine(conn)

df = pd.DataFrame(all_products,columns=keys)

#replce 清除并重写,append 叠加数据

df.to_sql('test_ifeng',engine, if_exists='replace', index=False)

#raise SystemExit

### 使用pandas to_csv写入数据

pd.DataFrame(all_products,columns=keys).to_csv('ifeng新闻1.csv', encoding='utf-8-sig')

相关推荐

GANs为何引爆机器学习?这篇基于TensorFlow的实例教程为你解惑!

「机器人圈导览」:生成对抗网络无疑是机器学习领域近三年来最火爆的研究领域,相关论文层出不求,各种领域的应用层出不穷。那么,GAN到底如何实践?本文编译自Medium,该文作者以一朵玫瑰花为例,详细阐...

高丽大学等机构联合发布StarGAN:可自定义表情和面部特征

原文来源:arXiv、GitHub作者:YunjeyChoi、MinjeChoi、MunyoungKim、Jung-WooHa、SungKim、JaegulChoo「雷克世界」编译:嗯~...

TensorFlow和PyTorch相继发布最新版,有何变化

原文来源:GitHub「机器人圈」编译:嗯~阿童木呀、多啦A亮Tensorflow主要特征和改进在Tensorflow库中添加封装评估量。所添加的评估量列表如下:1.深度神经网络分类器(DNNCl...

「2022 年」崔庆才 Python3 爬虫教程 - 深度学习识别滑动验证码缺口

上一节我们使用OpenCV识别了图形验证码躯壳欧。这时候就有朋友可能会说了,现在深度学习不是对图像识别很准吗?那深度学习可以用在识别滑动验证码缺口位置吗?当然也是可以的,本节我们就来了解下使用深度...

20K star!搞定 LLM 微调的开源利器

LLM(大语言模型)微调一直都是老大难问题,不仅因为微调需要大量的计算资源,而且微调的方法也很多,要去尝试每种方法的效果,需要安装大量的第三方库和依赖,甚至要接入一些框架,可能在还没开始微调就已经因为...

大模型DeepSeek本地部署后如何进行自定义调整?

1.理解模型架构a)查看深度求索官方文档或提供的源代码文件,了解模型的结构、输入输出格式以及支持的功能。模型是否为预训练权重?如果是,可以在预训练的基础上进行微调(Fine-tuning)。是否需要...

因配置不当,约5000个AI模型与数据集在公网暴露

除了可访问机器学习模型外,暴露的数据还可能包括训练数据集、超参数,甚至是用于构建模型的原始数据。前情回顾·人工智能安全动态向ChatGPT植入恶意“长期记忆”,持续窃取用户输入数据多模态大语言模型的致...

基于pytorch的深度学习人员重识别

基于pytorch的深度学习人员重识别Torchreid是一个库。基于pytorch的深度学习人员重识别。特点:支持多GPU训练支持图像的人员重识别与视频的人员重识别端到端的训练与评估简单的re...

DeepSeek本地部署:轻松训练你的AI模型

引言:为什么选择本地部署?在AI技术飞速发展的今天,越来越多的企业和个人希望将AI技术应用于实际场景中。然而,对于一些对数据隐私和计算资源有特殊需求的用户来说,云端部署可能并不是最佳选择。此时,本地部...

谷歌今天又开源了,这次是Sketch-RNN

前不久,谷歌公布了一项最新技术,可以教机器画画。今天,谷歌开源了代码。在我们研究其代码之前,首先先按要求设置Magenta环境。(https://github.com/tensorflow/magen...

Tensorflow 使用预训练模型训练的完整流程

前面已经介绍了深度学习框架Tensorflow的图像的标注和训练数据的准备工作,本文介绍一下使用预训练模型完成训练并导出训练的模型。1.选择预训练模型1.1下载预训练模型首先需要在Tensorf...

30天大模型调优学习计划(30分钟训练大模型)

30天大模型调优学习计划,结合Unsloth和Lora进行大模型微调,掌握大模型基础知识和调优方法,熟练应用。第1周:基础入门目标:了解大模型基础并熟悉Unsloth等工具的基本使用。Day1:大模...

python爬取喜马拉雅音频,json参数解析

一.抓包分析json,获取加密方式1.抓包获取音频界面f12打开抓包工具,播放一个(非vip)视频,点击“媒体”单击打开可以复制URL,发现就是我们要的音频。复制“CKwRIJEEXn-cABa0Tg...

五、JSONPath使用(Python)(json数据python)

1.安装方法pipinstalljsonpath2.jsonpath与Xpath下面表格是jsonpath语法与Xpath的完整概述和比较。Xpathjsonpath概述/$根节点.@当前节点...

Python网络爬虫的时候json=就是让你少写个json.dumps()

大家好,我是皮皮。一、前言前几天在Python白银交流群【空翼】问了一个Python网络爬虫的问题,提问截图如下:登录请求地址是这个:二、实现过程这里【甯同学】给了一个提示,如下所示:估计很多小伙伴和...