在好例子网,分享、交流、成长!
您当前所在位置:首页Python 开发实例Python语言基础 → 使用Python做垃圾分类的原理及实例代码附源码

使用Python做垃圾分类的原理及实例代码附源码

Python语言基础

下载此实例
  • 开发语言:Python
  • 实例大小:0.80M
  • 下载次数:25
  • 浏览次数:197
  • 发布时间:2021-11-25
  • 实例类别:Python语言基础
  • 发 布 人:yangzhihechina
  • 文件格式:.docx
  • 所需积分:2
 相关标签: 实现

实例介绍

【实例简介】使用Python做垃圾分类的原理及实例代码附源码

打开b站,搜索了下垃圾分类,上来就被这个标题吓()()了:在上海丢人的正确姿势。


当然,这里的丢人非彼丢人,指的是丢垃圾的丢。

点开发现,原来是一段对口相声啊,还是两个萌妹子(AI)的对口相声,瞬间就来了兴趣,阐述的是关于如何进行垃圾分类的。


原视频链接:https://www.bilibili.com/video/av57129646?from=search&seid=9101123388170190749

看完一遍又一遍,简直停不下来了,已经开启了洗脑模式,毕竟视频很好玩,视频中的弹幕更是好玩!

独乐乐不如众乐乐,且不如用Python把弹幕保存下来,做个词云图?就这么愉快地决定了!

1 环境

操作系统:Windows

Python版本:3.7.3

2 需求分析

我们先需要通过开发调试工具,查询这条视频的弹幕的 cid 数据。


拿到 cid 之后,再填入下面的链接中。

http://comment.bilibili.com/{cid}.xml

打开之后,就可以看到该视频的弹幕列表。

有了弹幕数据后,我们需要先将解析好,并保存在本地,方便进一步的加工处理,如制成词云图进行展示。

3 代码实现

在这里,我们获取网页的请求使用 requests 模块;解析网址借助 beautifulsoup4 模块;保存为CSV数据,这里借用 pandas 模块。因为都是第三方模块,如环境中没有可以使用 pip 进行安装。

pip install requests

pip install beautifulsoup4

pip install lxml

pip install pandas

模块安装好之后,进行导入

import requests

from bs4 import BeautifulSoup

import pandas as pd

请求、解析、保存弹幕数据

# 请求弹幕数据

url = 'http://comment.bilibili.com/99768393.xml'

html = requests.get(url).content

# 解析弹幕数据

html_data = str(html, 'utf-8')

bs4 = BeautifulSoup(html_data, 'lxml')

results = bs4.find_all('d')

comments = [comment.text for comment in results]

comments_dict = {'comments': comments}

# 将弹幕数据保存在本地

br = pd.DataFrame(comments_dict)

br.to_csv('barrage.csv', encoding='utf-8')

接下来,我们就对保存好的弹幕数据进行深加工。

制作词云,我们需要用到 wordcloud 模块、matplotlib 模块、jieba 模块,同样都是第三方模块,直接用 pip 进行安装。

pip install wordcloud

pip install matplotlib

pip install jieba

模块安装好之后,进行导入,因为我们读取文件用到了 panda 模块,所以一并导入即可

from wordcloud import WordCloud, ImageColorGenerator

import matplotlib.pyplot as plt

import pandas as pd

import jieba

我们可以自行选择一张图片,并基于此图片来生成一张定制的词云图。我们可以自定义一些词云样式,代码如下:

# 解析背景图片

mask_img = plt.imread('Bulb.jpg')

'''设置词云样式'''

wc = WordCloud(

 # 设置字体

 font_path='SIMYOU.TTF',

 # 允许最大词汇量

 max_words = 2000,

 # 设置最大号字体大小

 max_font_size = 80,

 # 设置使用的背景图片

 mask = mask_img,

 # 设置输出的图片背景色

 background_color=None, mode="RGBA",

 # 设置有多少种随机生成状态,即有多少种配色方案

 random_state=30)

接下来,我们要读取文本信息(弹幕数据),进行分词并连接起来:

# 读取文件内容

br = pd.read_csv('barrage.csv', header=None)

# 进行分词,并用空格连起来

text = ''

for line in br[1]:

 text = ' '.join(jieba.cut(line, cut_all=False))

最后来看看我们效果图


有没有感受到大家对垃圾分类这个话题的热情,莫名喜感涌上心头。

【实例截图】from clipboard

【核心代码】.
└── 好例子网_使用Python做垃圾分类视频弹幕的文本分析原理及实例代码附源码.docx

0 directories, 1 file


标签: 实现

实例下载地址

使用Python做垃圾分类的原理及实例代码附源码

不能下载?内容有错? 点击这里报错 + 投诉 + 提问

好例子网口号:伸出你的我的手 — 分享

网友评论

发表评论

(您的评论需要经过审核才能显示)

查看所有0条评论>>

小贴士

感谢您为本站写下的评论,您的评论对其它用户来说具有重要的参考价值,所以请认真填写。

  • 类似“顶”、“沙发”之类没有营养的文字,对勤劳贡献的楼主来说是令人沮丧的反馈信息。
  • 相信您也不想看到一排文字/表情墙,所以请不要反馈意义不大的重复字符,也请尽量不要纯表情的回复。
  • 提问之前请再仔细看一遍楼主的说明,或许是您遗漏了。
  • 请勿到处挖坑绊人、招贴广告。既占空间让人厌烦,又没人会搭理,于人于己都无利。

关于好例子网

本站旨在为广大IT学习爱好者提供一个非营利性互相学习交流分享平台。本站所有资源都可以被免费获取学习研究。本站资源来自网友分享,对搜索内容的合法性不具有预见性、识别性、控制性,仅供学习研究,请务必在下载后24小时内给予删除,不得用于其他任何用途,否则后果自负。基于互联网的特殊性,平台无法对用户传输的作品、信息、内容的权属或合法性、安全性、合规性、真实性、科学性、完整权、有效性等进行实质审查;无论平台是否已进行审查,用户均应自行承担因其传输的作品、信息、内容而可能或已经产生的侵权或权属纠纷等法律责任。本站所有资源不代表本站的观点或立场,基于网友分享,根据中国法律《信息网络传播权保护条例》第二十二与二十三条之规定,若资源存在侵权或相关问题请联系本站客服人员,点此联系我们。关于更多版权及免责申明参见 版权及免责申明

;
报警