学python最想要提升的是哪些地方

如题所述

1.学习 Python 包并实现基本的爬虫过程
大部分爬虫都是按“发送请求——获得页面——解析页面——抽取并储存内容”这样的流程来进行,这其实也是模拟了我们使用浏览器获取网页信息的过程。Python中爬虫相关的包很多:urllib、requests、bs4、scrapy、pyspider 等,建议从requests+Xpath 开始,requests 负责连接网站,返回网页,Xpath 用于解析网页,便于抽取数据。
如果你用过 BeautifulSoup,会发现 Xpath 要省事不少,一层一层检查元素代码的工作,全都省略了。这样下来基本套路都差不多,一般的静态网站根本不在话下。当然如果你需要爬取异步加载的网站,可以学习浏览器抓包分析真实请求或者学习Selenium来实现自动化。
2.了解非结构化数据的存储
爬回来的数据可以直接用文档形式存在本地,也可以存入数据库中。开始数据量不大的时候,你可以直接通过 Python 的语法或 pandas 的方法将数据存为csv这样的文件。当然你可能发现爬回来的数据并不是干净的,可能会有缺失、错误等等,你还需要对数据进行清洗,可以学习 pandas 包的基本用法来做数据的预处理,得到更干净的数据。
3.学习scrapy,搭建工程化爬虫
掌握前面的技术一般量级的数据和代码基本没有问题了,但是在遇到非常复杂的情况,可能仍然会力不从心,这个时候,强大的 scrapy 框架就非常有用了。scrapy 是一个功能非常强大的爬虫框架,它不仅能便捷地构建request,还有强大的 selector 能够方便地解析 response,然而它最让人惊喜的还是它超高的性能,让你可以将爬虫工程化、模块化。学会 scrapy,你可以自己去搭建一些爬虫框架,你就基本具备Python爬虫工程师的思维了。
4.学习数据库知识,应对大规模数据存储与提取
Python客栈送红包、纸质书
爬回来的数据量小的时候,你可以用文档的形式来存储,一旦数据量大了,这就有点行不通了。所以掌握一种数据库是必须的,学习目前比较主流的 MongoDB 就OK。MongoDB 可以方便你去存储一些非结构化的数据,比如各种评论的文本,图片的链接等等。你也可以利用PyMongo,更方便地在Python中操作MongoDB。因为这里要用到的数据库知识其实非常简单,主要是数据如何入库、如何进行提取,在需要的时候再学习就行。
5.掌握各种技巧,应对特殊网站的反爬措施
当然,爬虫过程中也会经历一些绝望啊,比如被网站封IP、比如各种奇怪的验证码、userAgent访问限制、各种动态加载等等。遇到这些反爬虫的手段,当然还需要一些高级的技巧来应对,常规的比如访问频率控制、使用代理IP池、抓包、验证码的OCR处理等等。往往网站在高效开发和反爬虫之间会偏向前者,这也为爬虫提供了空间,掌握这些应对反爬虫的技巧,绝大部分的网站已经难不到你了。
6.分布式爬虫,实现大规模并发采集,提升效率
爬取基本数据已经不是问题了,你的瓶颈会集中到爬取海量数据的效率。这个时候,相信你会很自然地接触到一个很厉害的名字:分布式爬虫。分布式这个东西,听起来很恐怖,但其实就是利用多线程的原理让多个爬虫同时工作,需要你掌握Scrapy+ MongoDB + Redis 这三种工具。Scrapy 前面我们说过了,用于做基本的页面爬取,MongoDB 用于存储爬取的数据,Redis 则用来存储要爬取的网页队列,也就是任务队列。所以有些东西看起来很吓人,但其实分解开来,也不过如此。当你能够写分布式的爬虫的时候,那么你可以去尝试打造一些基本的爬虫架构了,实现一些更加自动化的数据获取。
只要按照以上的Python爬虫学习路线,一步步完成,即使是新手小白也能成为老司机,而且学下来会非常轻松顺畅。所以新手在一开始的时候,尽量不要系统地去啃一些东西,找一个实际的项目,直接开始操作。
其实学Python编程和练武功其实很相似,入门大致这样几步:找本靠谱的书,找个靠谱的师傅,找一个地方开始练习。
学语言也是这样的:选一本通俗易懂的书,找一个好的视频资料,然后自己装一个IDE工具开始边学边写。
7.给初学Python编程者的建议:
①信心。可能你看了视频也没在屏幕上做出点啥,都没能把程序运行起来。但是要有自信,所有人都是这样过来的。
②选择适合自己的教程。有很早的书籍很经典,但是不是很适合你,很多书籍是我们学过一遍Python之后才会发挥很大作用。
③写代码,就是不断地写,练。这不用多说,学习什么语言都是这样。总看视频,编不出东西。可以从书上的小案例开始写,之后再写完整的项目。
④除了学Python,计算机的基础也要懂得很多,补一些英语知识也行。
⑤不但会写,而且会看,看源码是一个本领,调试代码更是一个本领,就是解决问题的能力,挑错。理解你自己的报错信息,自己去解决。
⑥当你到达了一个水平,就多去看官方的文档,在CSDN上面找下有关Python的博文或者群多去交流。
希望想学习Python的利用好现在的时间,管理好自己的学习时间,有效率地学习Python,Python这门语言可以做很多事情。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2021-07-03
一、Python是什么?
Python是一门编程语言,稍微有点计算机常识的人都会知道,编程语言还有basic,c,java,php,c++……在大多数人的眼中,编程是从事软件专业技术人员才需要掌握的,普通人不需要掌握。

随着人工智能的普及,新一轮的科技发展。不得不承认的是,我们已经进入了一个人工智能的时代。

抖音推送过来了你喜欢的视频,今日头条推送了你关注的热点,身边的扫地机器人,学习机器人……

这些都是人工智能的杰作。

为什么编程和学习Python成为了大家关注的焦点?

学习编程可以提升逻辑思维能力,可以提升关注力,可以提升模块化能力……有很多的好处,在我的另外一篇文章里做了详细的说明:

鉴于种种的好处,爱学习的人们都开始关注并计划学编程。而在所有的编程语言中,Python又是首选,主要有两方面的原因:

1.Python的语法简单,容易学会。
相比较之前的几种语言,Python的语法是比较简洁的,代码量也是比较少的。

比如:实现一个功能,用java需要20行代码,而使用Python之需要使用5行代码就可以实现。

在Python语言中,集成了许多大家经常使用的功能,而这些功能,放到其它语言中,需要自己去实现。

2.Python在人工智能应用方面表现出色。
由于Python语言诞生的比较晚,天生就是人工智能时代的产物,所以在实现人工智能方面的功能时,相当其它语言是有优势的。

二、学习Python,能提升哪些办公效率?
在电脑没有普及之前,我们都是用纸质的方式来办公,这样的方式具有效率低、信息不互通、存储不方便等问题。

自从有了电脑和一些办公软件,电脑办公已经成为了职场人士的标配:

我们用通讯软件和客户同事交流;
用办公软件处理文档表格等;
用图像视频软件处理多媒体信息;
用各种信息管理系统或网站处理内部和外部业务;
……
通过这些手段,让我们的办公效率提升了很多,我们通过轻轻点击鼠标,敲击键盘,便完成了很多的工作。可是,面对繁琐的大量的重复工作,有时还是力不从心。

新的时代,需要新的工具。通过学习编程,尤其是Python编程,就能提升我们的工作效率,下面我将从四方面来为大家分析Python怎样提升工作效率。

1.自动化控制办公软件。
通过学习Python,可以利用办公软件提供的接口,来操作办公软件,将之前用手动操作变成代码操作。

例子1
相似回答