数据分析金融入门第十三讲-金融中的大数据应用与Python实现
Python大数据处理与分析实战指南

Python大数据处理与分析实战指南第一章:引言随着大数据时代来临,数据处理与分析成为了各行业中的热门话题。
Python作为一种简洁而强大的编程语言,被广泛应用于大数据领域。
本指南将带领读者从零开始,掌握Python在大数据处理与分析中的实战技巧。
第二章:Python基础知识回顾在开始实战之前,我们先回顾一些Python的基础知识。
本章将介绍Python的数据类型、函数、条件语句以及循环结构等基本概念,为读者打下坚实的基础。
第三章:Python与数据获取数据获取是大数据处理与分析的第一步。
本章将介绍Python在数据获取方面的常用库和技巧,如网络爬虫、API调用等。
同时,我们还会介绍一些常见的数据获取场景,并给出相应的解决方案。
第四章:数据预处理与清洗在进行数据分析之前,数据预处理与清洗是必不可少的环节。
本章将介绍Python在数据预处理与清洗方面的一些常见技术,如数据去重、缺失值处理、异常值检测等。
此外,我们还会介绍一些常用的数据预处理工具和库。
第五章:数据可视化数据可视化是数据分析中非常重要的一环。
本章将介绍Python 在数据可视化方面的一些常用工具和库,如Matplotlib、Seaborn 等。
我们将学习如何使用这些工具来展示数据、发现数据中的规律,并给出相应的案例分析。
第六章:统计分析与机器学习统计分析与机器学习是数据分析的核心内容之一。
本章将介绍Python在统计分析与机器学习方面的一些常用库和算法,如NumPy、scikit-learn等。
我们将学习如何使用这些工具来进行数据分析、建立模型,并给出相应的实例分析。
第七章:大数据处理工具与技术对于大规模的数据处理与分析,Python需要借助一些大数据处理工具与技术来提高效率。
本章将介绍Python在大数据处理方面的一些常用工具和技术,如Hadoop、Spark等。
我们将学习如何使用这些工具来处理大规模的数据,并给出相应的实战案例。
第八章:实战项目:航班数据分析本章将以航班数据分析为例,展示Python在大数据处理与分析中的实战技巧。
使用Python进行大数据分析和处理

使用Python进行大数据分析和处理一、引言随着大数据时代的到来,数据分析和处理技术愈发重要。
Python作为一种简单易学、功能强大的编程语言,被广泛应用于数据科学领域。
本文将介绍如何使用Python进行大数据分析和处理,并分为以下几个部分:数据获取、数据清洗、数据分析、数据可视化和模型建立。
二、数据获取在进行大数据分析和处理之前,我们需要从各种数据源中获取数据。
Python提供了丰富的库和工具,可以轻松地从数据库、API、Web页面以及本地文件中获取数据。
比如,我们可以使用pandas库中的read_sql()函数从数据库中读取数据,使用requests库从API获取数据,使用beautifulsoup库从Web页面获取数据,使用csv库从本地CSV文件中获取数据。
三、数据清洗获取到原始数据之后,通常需要进行数据清洗。
数据清洗是指对数据进行预处理,包括处理缺失值、处理异常值、处理重复值、数据格式转换等。
Python提供了丰富的库和函数来帮助我们进行数据清洗,如pandas库中的dropna()函数用于处理缺失值,使用numpy库中的where()函数用于处理异常值,使用pandas库中的duplicated()函数用于处理重复值。
四、数据分析数据分析是大数据处理的核心环节之一。
Python提供了强大的库和工具来进行数据分析,如pandas库和numpy库。
使用这些库,我们可以进行数据聚合、数据筛选、数据排序、数据计算等。
例如,我们可以使用pandas库中的groupby()函数进行数据聚合,使用pandas库中的query()函数进行数据筛选,使用pandas库中的sort_values()函数进行数据排序,使用numpy库中的mean()函数进行数据计算。
五、数据可视化数据可视化是将数据以图形化的方式展现出来,帮助我们更好地理解数据的分布和趋势。
Python提供了多种库和工具来进行数据可视化,如matplotlib库和seaborn库。
金融数据分析:Python的13种应用场景

金融数据分析:Python的13种应用场景随着金融市场的不断发展和日益激烈的竞争,越来越多的金融机构开始采用数据分析技术来帮助自己更好地了解市场和客户。
Python作为一种高效的编程语言,在金融数据分析中也得到了广泛的应用。
在本文中,我们将介绍Python在金融数据分析中的13种应用场景。
1. 资产定价模型Python可以用于开发资产定价模型,比如CAPM。
这种模型可以帮助投资者更好地了解资产的风险和收益,并提供有关一个投资组合的期望收益的估计。
2. 风险管理Python可以用于开发风险管理模型。
这种模型可以帮助投资者更好地识别和控制风险,以最大程度地保护他们的投资组合。
3. 资产组合优化Python可以用于开发资产组合优化模型。
这种模型可以帮助投资者找到最优的资产组合,以最大程度地提高投资组合的收益率并降低风险。
4. 量化交易Python可以用于开发量化交易策略。
这种方法可以帮助投资者通过自动化交易系统来实现高级别的交易策略,从而提高投资收益。
5. 数据可视化Python可以用于开发数据可视化工具。
这种工具可以将金融数据可视化成图表、表格等格式,帮助用户更好地了解数据。
6. 机器学习Python可以用于开发机器学习模型。
这种模型可以帮助用户在不断变化的金融市场环境中做出准确的预测和决策。
7. 自然语言处理Python可以用于开发自然语言处理模型。
这种模型可以帮助用户分析金融市场中的新闻、文章和社交媒体等信息,以更好地预测市场动向。
8. 实时交易Python可以用于开发实时交易系统。
这种系统可以帮助用户在金融市场变化迅速的环境中实时地做出决策和交易。
9. 金融密码学Python可以用于开发金融密码学模型。
这种模型可以保护用户的金融信息免受黑客攻击和数据泄露。
10. 数字货币Python可以用于开发数字货币交易和投资系统。
这种系统可以帮助用户追踪数字货币市场的变化,从而实现更高的投资收益。
11. 高频交易Python可以用于开发高频交易系统。
Python技术在金融行业中的实际应用案例

Python技术在金融行业中的实际应用案例随着科技的不断进步,金融行业也在逐渐转向数字化和自动化。
而Python作为一种功能强大的编程语言,正日益成为金融机构的首选工具之一。
Python的简洁性、灵活性以及庞大的开源社区支持,使得它在金融行业中的实际应用案例越来越多。
本文将介绍几个典型的金融行业中Python技术的应用案例。
1. 量化交易量化交易是金融行业中一个重要的应用领域,它通过利用计算机算法来分析和预测市场行情,帮助投资者进行交易决策。
Python在量化交易中的应用非常广泛。
Python的简洁的语法和丰富的第三方库使得开发者可以快速地实现各种量化交易策略。
比如,使用Python中的pandas库和numpy库可以进行数据处理和分析,使用matplotlib库可以进行数据可视化,使用scipy库可以进行统计分析,使用sklearn库可以进行机器学习。
这些库的强大功能和易用性,使得Python在量化交易领域中得以广泛应用。
2. 数据分析和风险管理金融行业需要处理大量的数据,而Python在数据处理和分析方面有着非常强大的功能。
金融机构可以使用Python来处理和分析海量的金融数据,从中提取有价值的信息用于决策。
Python中的pandas库提供了丰富的数据处理和分析工具,可以轻松地进行数据清洗、数据筛选、数据转换等操作。
此外,Python中还有一些专门用于金融数据分析的库,如pyfolio和zipline等,它们提供了一系列用于风险管理和投资组合分析的工具。
Python的这些数据分析和风险管理的功能,对金融机构来说是非常有价值的。
3. 自动化报表生成金融机构需要定期生成各种报表,如财务报表、风险报告等。
Python可以通过自动化脚本来生成这些报表,提高工作效率和准确性。
Python中的第三方库,如openpyxl和xlwings可以读写Excel文件,通过程序自动生成报表。
与传统的手动制作报表相比,使用Python进行自动化报表生成可以大大节省时间和精力,同时减少错误的发生。
Python网络爬虫在金融数据分析中的应用实践

Python网络爬虫在金融数据分析中的应用实践Python网络爬虫在金融数据分析中扮演着重要的角色,它可以自动化地从互联网上采集数据,并提供给金融从业者进行分析和决策。
本文将介绍Python网络爬虫的基本原理,以及在金融数据分析中的应用实践。
一、Python网络爬虫的原理和工具网络爬虫是一种自动化程序,通过模拟浏览器行为,从网页上抓取数据并解析。
Python作为一种简单易用的编程语言,有许多强大的网络爬虫工具,例如Beautiful Soup、Scrapy等。
Beautiful Soup是一个用于解析HTML和XML文档的Python库,它可以轻松地提取和组织网页中的数据。
而Scrapy是一个功能强大的网络爬虫框架,它提供了丰富的功能和灵活的架构,使得开发者可以快速构建和部署网络爬虫。
二、金融数据分析的需求和挑战在金融行业,准确、及时的数据对决策至关重要。
金融数据的获取和处理是金融从业者面临的一大挑战。
如何从庞大的数据源中快速抓取所需数据,并进行清洗和分析,是金融数据分析的关键问题。
网络爬虫可以帮助金融从业者从各种网站和数据源中采集所需数据,包括股票市场数据、财务报表、宏观经济数据等。
然而,金融数据的收集和分析需要考虑到数据的质量、时效性和安全性等方面的问题。
三、金融数据分析中的网络爬虫应用实践1. 股票市场数据采集股票市场是金融数据分析的重要领域之一。
通过网络爬虫,可以自动获取公司的股票价格、市盈率、市值等相关数据。
这些数据可以用于量化分析、交易策略的制定、风险管理等方面。
2. 财务报表获取和分析网络爬虫可以从公司的官方网站或财务信息发布平台上获取财务报表数据,如利润表、资产负债表和现金流量表等。
通过对财务报表的分析,可以评估公司的经营状况和盈利能力,为投资决策提供依据。
3. 宏观经济数据采集宏观经济数据对金融市场的影响不可忽视。
网络爬虫可以从各大政府机构和金融机构的网站上获取经济数据,如GDP、CPI、失业率等。
如何使用Python实现金融数据分析

如何使用Python实现金融数据分析随着金融市场的日益发展,金融数据分析已经成为了金融行业中非常重要的一部分。
针对这一需求,Python作为一种广泛使用的编程语言,逐渐被金融分析师们所青睐。
本文将从数据源的获取、数据清洗、数据可视化等多个角度出发,探讨如何使用Python实现金融数据分析。
一、数据源获取进行金融数据分析的第一步便是获取数据。
在这个过程中,我们可以选择从Google Finance、Yahoo Finance、Quantopian等网站获取,同时也可以通过专业的数据提供商(如Wind、恒生等)购买。
这里,我们就以Yahoo Finance为数据来源,给出Python实现的示例。
首先,我们需要安装Python的pandas包、numpy包以及matplotlib包。
然后使用如下代码获取需要的数据:```pythonimport pandas as pdimport numpy as npimport matplotlib.pyplot as pltimport pandas_datareader as pdrstart_date = '2019-01-01'end_date = '2019-12-31'stock_code = 'AAPL'df = pdr.get_data_yahoo(stock_code, start=start_date,end=end_date)```这里,我们通过pandas_datareader包中的get_data_yahoo函数获取特定代码的股票数据信息。
其中,start和end指定了数据获取的时间范围,而stock_code则是指定了需要获取的股票代码。
通过这行代码,我们能够轻松地获取到所需的数据。
二、数据清洗获取数据之后,我们需要对数据进行清洗。
具体而言,这一过程包括去除不必要的信息、对缺失值进行填充、删除重复的数据、对数据进行排序等多方面。
Python网络爬虫实践金融数据的爬取与分析

Python网络爬虫实践金融数据的爬取与分析近年来,随着金融市场的不断发展和数据分析技术的不断成熟,金融数据的爬取和分析成为了金融从业人员以及投资者关注的焦点和热门话题。
本文将介绍如何利用Python网络爬虫技术实践金融数据的爬取与分析,为读者提供一个简明扼要的指南。
一、Python网络爬虫简介Python是一种功能强大的编程语言,具备简洁、易读、编写速度快等特点,因此被广泛用于网络爬虫的开发。
网络爬虫是一种自动化程序,通过模拟人的行为来访问网络并获取需要的数据。
Python提供了许多用于网络爬虫的库,其中最为常用的是requests和BeautifulSoup 库。
二、金融数据爬取1. 确定目标网站在进行金融数据爬取之前,首先需要确定目标网站。
常见的金融数据网站包括财经新闻网站、金融数据服务提供商等,比如东方财富网、新浪财经等。
2. 确定爬取目标确定需要爬取的金融数据类型,比如股票行情数据、财务报告、新闻公告等。
3. 使用Python编写爬虫程序使用Python的requests库发送HTTP请求,获取网页内容。
然后使用BeautifulSoup库对网页内容进行解析,提取需要的数据。
三、金融数据分析1. 数据获取与整理通过网络爬虫获取的金融数据往往是杂乱无章的,需要进行数据清洗和整理。
利用Python的Pandas库可以轻松实现数据的清洗、过滤、转换等操作。
2. 数据可视化数据可视化是将金融数据以图表等形式展示出来,更加直观、易于理解。
Python提供了诸多可视化库,如Matplotlib、Seaborn等,可以利用这些库对金融数据进行可视化处理。
3. 数据分析和建模在金融数据爬取和整理的基础上,可以进行更深入的数据分析和建模。
利用Python的NumPy、SciPy等库进行数据分析,可以实现诸如回归分析、时间序列分析等各种分析模型。
四、案例应用以股票数据为例,展示如何实践金融数据的爬取与分析。
大数据分析实用教程——基于Python实现课件Python语言基础发布

int()是强制类型转换
字符串常量用双引号(")或单引号(')括起来
2.1.1 一些简单的Python程序
[程序2-3] 百钱买百鸡
运行结果
xj = 1 # xj代表小鸡 while xj <= 100:
mj = 1 # mj代表母鸡 while mj <= 100:
gj = 100-xj-mj
小鸡 75 母鸡 25 公鸡 0 小鸡 78 母鸡 18 公鸡 4 小鸡 81 母鸡 11 公鸡 8 小鸡 84 母鸡 4 公鸡 12
对象名调用,只能在属于对象的方法中通过self调用。 静态方法可以通过类名和对象名调用,但不能直接访
问属于对象的成员,只能访问属于类的成员。
主要 内容
1
Python程序入门
2
Python数据分析工具
3
MatPlotLib库数据可视化
4
SciPy库-科学计算
5
Sklearn库-机器学习
2.2 Python数据分析工具
大数据分析实用教程—基于Python实现 唐四薪 版
第2章 Python数据 分析与可视化基础
主要 内容
1
Python程序入门
2
Python数据分析工具
3
MatPlotLib库数据可视化
4
SciPy库-科学计算
5
Sklearn库-机器学习
2.1 Python语言简介
Python语言的特点
Python是一种跨平台、开源的解释型高级动态编程语言。 Python拥有大量的库,可以高效地开发各种应用程序。
[程序] zip()函数示例
a = [1,2,3] b = [4,5,6] c = [4,5,6,7,8] zipped = zip(a,b)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Hadoop处理一个单词计数程序
最为简单的一种了解Hadoop编程的方式是一个简单的对相对比较大 的电子书的单词计数功能。Map程序会读入文本中的每一行,以空格 或制表符分割并返回一个键值对,默认的计数为1。而程序reduce会 读入来自于map程序的说有键值对,并且对相似的单词进行加总。 Hadoop的产出是一个输出文件,包含整个电子书单词的一个列表以 及单词出现的次数。
或者你也许希望考虑移植数据分析工具到pandas或R,它们也是非常 强大的,可以处理GB级别的数据,编码是有效的,且没有内存泄漏。 许多商业的SQL服务器也可以完成这项任务。除此之外,内存和存储 成本是可以接受的,这样你可以在自己的工作站上运行大规模的计算。
如果你的数据是TB级别的,那么就没有那么幸运,没有其他的一些选 择,那么Apache Hadoop以及其他的大数据处理工具例如Apache Spark看似就是最好的选择,它们会提供规模可扩展性,可支付以及 容错性。
在将文件下载到磁盘以后,我们将它复制到Hadoop HDFS文件存储 中进行处理。这样的操作会将电子书保存到Hadoop的HDFS存储,名 称相同为pg4300.txt。为了保证拷贝操作的成功,我们使用Hadoop fs –ls命令来看一下文件。这样可以看到Hadoop文件存储成功的保存 了我们的文件。
Hadoop框架包含完成其功能的关键模块: Hadoop分布式文件系统(HDFS),Yet Another Resource Negotiator(YARN)以 及MapReduce(MapR)。
Hadoop用于大数据分析
HDFS:HDFS是Hadoop特有的文件系统,设计用来规模扩展和可移植操作,允 许大量的数据存储在Hadoop集群的多个节点上,数据可以是GB规模甚至是TB 规模。集群中的数据被划分为小的128Mb的小的模块,并分布在各个集群上。 MapReduce数据处理函数用来对大数据集合的小的子集进行操作,因此提供了 大数据处理所需要的规模扩展操作。HDFS文件系统使用TCP/IP socket通信来作 为一个大的文件系统在网络中提供数据。
在Hadoop中运行MapReduce:我们现在可以在Hadoop上运行我们的 MapReduce操作,在终端使用命令运行。
这里,我们使用Hadoop的Streaming工具来应用我们的Python代码作 map和reduce的操作,在这里进行Hadoop Streaming操作的Java JAR 文件为hadoop-streaming-2.6.0-mr1-cdh5.5.0.jar,存放在 /usr/lib/hadoop-0.20-mapreduce/contrib/streaming/目录下。其他的 系统中,Hadoop Streaming的JAR文件可能存放在其他目录,或者使用 不同的文件名。通过提供其他的参数,指定了输入文件,输出的目录,这 些都是Hadoop操作所必须的。
大数据适合我么?
也许你正在运行一个文件,大约几百兆的规模,而你目前的数据分析 工具运行的过于缓慢。因为大数据通常包含TB或GB级别的存储,那么 你可能会问,Apache Hadoop在这种情况下适合我么?
注意Hadoop实现的常规计算时将每一个你数据中的输入进行映射, 然后进行某些简化计算的操作来加总个体的部分。你事实上可以使用 编程语言,例如SQL和Python来实现相同的分组和计数工作。另外, 存储节点允许你更为容易的表达计算流。
了解大数据
关于大数据有很多激动人性的特性包含在其中。在开始本章的介绍之前,非常重 要的一个工作室定义大数据以及了解你使用大数据来获得有用信息的方式。大数 据与我们日常碰到的数据有什么不同,例如新闻故事,报告,文献以及声音等相 比有什么不同?
大数据实际上用高速来刻画的,它会累计到一个较大的数据量,通常是TB或PB级 别。常规的软件工具已经无法在短时间内获取,处理,操作和管理这样的数据。 应用于这些大规模的数据集的分析性的工具是用来揭示数据的信息及其之间的关 系,以更好的用于预测和其他分析性的行为。
CentOS中的一个用户友好的编辑t的目录,保存文件为 /home/cloudera/word_count/mapper.py。
程序文件mapper.py需要被指定为Linux系统下可执行的文件,从终端使用一个命令可以进行 此项操作。
下面我们创建reduce.py程序,也存放在/home/cloudera/word_count/目录下。 这里,reduce程序从map程序读入所有的键值对。当前的单词以及单词的技术通过分隔符制
Apache Hadoop是一个100%开源的框架,其 主要功能有两个:存储和处理大数据。它逐步 成为对多个服务器中分布式并行处理数据的领 先大数据工具,而且可以无限的扩大规模。因 为规模扩展性,灵活性,容错性以及低成本的 特性,许多云计算解决方案提供商,金融机构 以及公司都使用Hadoop来满足其大数据需求。
Hadoop处理一个单词计数程序
我们下面要在Hadoop上运行Python编写的map程序,编写一个名为mapper.py的文件,可 以在后面使用。
当运行mapper.py的时候,解释器会读入输入缓冲区的来自于文本的数据。所有的文本都被使 用空白字符进行分隔,每个单词被赋值为计数一次,使用制表符进行分隔输出。
MapReduce:MapReduce是Hadoop用于处理和生成大数据集合的软件程 序框架。对于开发者来说,MapReduce可能是Hadoop中最重要的程序设计组 成。它包含两个功能,map和reduce。Map功能处理键值对来产生中间键值对, reduce功能将所有的具有相同中间键的中间键值对合并起来来得到结果。 MapReduce减轻了软件需要处理的跨网络移动数据的需求,让处理软件直接面 对数据。MapReduce主要是使用Java进行处理,其他的语言,例如SQL和 Python,也可以对MapReduce进行实现,使用Hadoop流工具。
表符来获得,并且和之前出现的单词对比。如果相同的单词,则增加单词的计数加1,然后返回 结果,打印单词本身以及计数的数量,用制表符分隔。 再一次的,应当把reduce.py也指定为是Linux可运行的程序。这样可以保证我们的程序没有限 制的运行。
Hadoop处理一个单词计数程序
在Hadoop中运行我们的map和reduce程序之前, 我们可以在本机上首先运行,保证程序正常的工作。 我们可以使用图形界面的方式看到我们刚刚建立的 两个python文件。
获取Apache Hadoop
Apache Hadoop的官方网页是,这 里,你可以找到深入的文档,手册以及Apache Hadoop的发布版本。 Hadoop是用Java写的,需要安装JVM到你的单一节点运行,它支 持GNU/Linux以及Windows。
在终端,我们首先运行一下mapper.py这个Python 文件。和预期的一样,map程序给出了每个读入的 单词,设定计数为1,并且打印了每一行的结果。
在终端,运行reduce.py程序。我们看到,reduce 程序对于map程序中出现的相似单词的计数进行了 相加,并打印了每行的结果。
Hadoop处理一个单词计数程序
概述
本章我们将介绍如下话题: 介绍大数据,Apache Hadoop以及其组成成分 获得Hadoop并且运行一个快速启动的虚拟机 使用Hadoop的HDFS文件存储 使用Python和MapReduce结合实现一个对电子书的单词计数的程序。 在Hadoop运行之前对MapReduce程序的检验 对于某只股票日度的价格变化进行MapReduce操作 使用Python分析MapReduce操作的结果 介绍NoSQL 获取并运行MongoDB 获取和安装Python使用的PyMongo 介绍PyMongo的数据库和集合 使用NoSQL集合进行tick数据的插入,删除,查找和存储操作。
YARN:YARN是一个资源管理和计划平台管理CPU,内存以及在Hadoop集群 中运行的应用的存储。它包含负责如下功能的模块:在相同集群运行的应用之间 分配资源同时满足一定约束,例如队列功能和用户限制等的功能;基于每个应用 的资源需求计划任务;协调计划的合适资源;跟踪和监控应用程序的运行以及其 资源使用。
随着云计算的出现,大数据变得越来越平常。大量的信息可以以较低的成本存储 在云端。这推动了从关系型的存储到非关系型的解决方案的过渡,例如NoSQL, 允许非关系型的数据以较快的速率被获取。通过在获取的数据上进行数据分析, 公司可以改进运行的效率,分析的模式,运行目标的市场营销计划并改进客户的 感知。
在我们开始处理大数据集的时候,我们还需要找到一种方式来存储数 据。最常规的存储数据的方式是结构化查询语言(SQL)这样的关系 型数据库管理系统。电子数据的本质是总会发生变化的,而其他的一 些存储数据的方式就被引入,特别是关于非SQL的产品。非关系型数 据库机制的一种典型应用是NoSQL,称为Not Only SQL。除了使用 SQL类似的语言进行数据管理意外,NoSQL允许存储非结构化的数据, 例如键值对,图形或者文件。因为从设计角度的简单,它也可以在某 些环境下表现的更为有效。金融中NoSQL的一个应用方式是存储tick 数据。本章将介绍使用NoSQL存储tick数据的方式。
下载地址 /content/support/en/downloads/qu ickstart_vms.html
因为VM是64位的,因此需要64位的基础操作系统以及支持64位的虚 拟机,需要4GB的内存。
运行的虚拟机的用户名和密码都是cloudera,这个包含root权限,主 目录是/home/cloudera
下载样本数据:Gutenberg提供了超过100000本免费的电子书,以 HTML,EPUB,Kindle以及纯文本UTF-8的格式存储。我们在这里使用 电子书进行测试,我们选用由James Joyce所编著的Ulysses一书。 使用Firefox或者其他的网络浏览器,我们可以下载这个文件,并将其 保存在Downloads文件夹中,文件名为pg4300.txt。