18910140161

python解析本地超文本标记语言文件

顺晟科技

2022-09-15 20:07:37

50

  Python使用爬虫技术时,每运行一次,本地都会访问一次主机。为避免完成程序前调试时多次访问主机增加主机负荷,我们可以在编写程序前将网页源代码存在本地,调试时访问本地文件即可。现在我来分享一下爬取资料的调试过程。

一、将网页源代码存在本地

  1、打开需要爬取的网页,鼠标右键查看源代码

  

  2、复制源代码,将代码保存至本地项目文件目录下,文件后缀改为.html

    

 

 

 

二、在Python中打开本地html文件

  打开并读取本地文件可使用BeautifulSoup方法直接打开

    soup=BeautifulSoup(open(\'ss.html\',encoding=\'utf-8\'),features=\'html.parser\')  #features值可为lxml

  解析后可以直接使用soup,与请求网页解析后的使用方法一致

 

三、使用本地文件爬取资料

  1、先爬取主页的列表资料,其中同义内容使用“@”符号连接

def draw_base_list(doc):
    lilist=soup.find(\'div\',{\'class\':\'babynames-term-articles\'}).findAll(\'article\');
    #爬取一级参数
    for x in lilist:
        str1=\'\'
        count=0
        a=\'@\'
        EnName=x.find(\'a\').text;
        Mean=x.find(\'div\',{\'class\':\'meaning\'}).text;
        Sou=x.find(\'div\',{\'class\',\'related\'}).findAll(\'a\')
        Link=x.find(\'a\').get(\'href\');
        for x in Sou:
            if count!=0:#添加计数器判断是否为第一个,不是则添加@
                str1=str1+a
            s=str(x)  #将x转换为str类型来添加内容
            str1=str1+s
            count+=1
        Source=str1
        print(Source);
     print(Meaning);

  运行后发现Source和Meaning中包含了标签中的内容,我们使用正则表达式re.sub()方法删除str中指定内容。查看源代码可以发现标签内容只有一个链接,可以获取标签内的链接后再指定删除。

  首先在for循环内给定一个值获取标签内的链接link=x.get(\'href\'),接着使用sub方法指定删除link。代码如下:

link=x.get(\'href\')
change2=re.sub(link,\'\',s)

  运行后我们发现str中还存在标签名,在for循环中指定多余内容删除:

link=x.get(\'href\')
s=str(x)
change1=re.sub(\'<a href="\',\'\',s)
change2=re.sub(link,\'\',change1)
change3=re.sub(\'">\',\'\',change2)
change4=re.sub(\' Baby Names\',\'\',change3)
change5=re.sub(\'</a>\',\'\',change4)
change=re.sub(\' \',\'\',change5)

  最后就能得到想要的信息。

  2、再爬取详细信息

  通过def draw_base_list(doc)函数向二级详情函数传递Link参数爬取详细信息,为避免频繁访问主机,我们同样将详情页的源代码保存至本地并解析。

def draw_detail_list():
    str1=‘’
    meta="boy"
    doc=BeautifulSoup(open(\'nn.html\',encoding=\'utf-8\'),features=\'html.parser\')
    Des=doc.find(\'div\',{\'class\':\'single-babyname-wrapper\'}).findAll(\'p\')
    Gen=doc.find(\'div\',{\'class\':\'entry-meta\'}).find(\'a\')
    #print(Gen)
    g=str(Gen)
    for i in Gen:
        if meta in g:
            Gender="boy"
        else:
            Gender="girl"
    #print(Gender)
    for x in Des:
        #print(x)
        if x.find(\'a\')==None:  #该标签下有我们不需要的信息,查看源代码找到信息之间的联系,发现不需要的信息中都有链接
            c=str(x)
            change1=re.sub(\'<p>\',\'\',c)  #与一级信息函数一样删除指定内容
            change2=re.sub(\'</p>\',\'\',change1)
            change3=re.sub(\'\t\',\'\',change2)
            change=re.sub(\'\n\',\'@\',change3)
            str1=str1+change
            #Description=x.text
            #print(Description)
    Description=str1
    #print(Description)
    data={  #将数据存进字典中方便将数据保存至csv文件或数据库中
        \'EnName\':EnName,
        \'CnName\':\'\',
        \'Gender\':Gender,
        \'Meaning\':Meaning,
        \'Description\':Description,
        \'Source\':Source,
        \'Character\':\'\',  #网页中没有的信息数据列为空
        \'Celebrity\':\'\',
        \'WishTag\':\'\'
    }
    #print(data)

  3、将爬取下来的数据存入csv文件中

def draw_base_list(doc):
    ......
    #爬取一级参数
    for x in lilist:
        ......
        for x in Sou:
            ......
        ......
        draw_detail_list(Link,EnName,Meaning,Source)  #将数据传给二级信息函数

def draw_detail_list(url,EnName,Meaning,Source):
    ......
    for i in Gen:
        ......
    
    for x in Des:
        ......
    
    data={
        ......
    }
    write_dictionary_to_csv(data,\'Names\')  #将字典传给存放数据函数,并给定csv文件名

def write_dictionary_to_csv(dict,filename):
    file_name=\'{}.csv\'.format(filename)
    with open(file_name, \'a\',encoding=\'utf-8\') as f: 
        file_exists = os.path.isfile(filename)
        w =csv.DictWriter(f, dict.keys(),delimiter=\',\', quotechar=\'"\', lineterminator=\'\n\',quoting=csv.QUOTE_ALL, skipinitialspace=True)
        w.writerow(dict)

  打开文件后发现没有文件头,为避免重复写入文件头,判断文件是否为空,若为空则写入文件头:

#防止每次循环重复写入列头
if os.path.getsize(file_name)==0 :  #通过文件大小判断文件是否为空,为0说明是空文件
    w.writeheader()

  再次运行后文件头正常写入文件中。

  4、访问主机,完成信息爬取

  确定代码正确没有错误后就可以将打开本地文件的代码改成访问网页,最后完成数据的爬取。

相关文章
我们已经准备好了,你呢?
2024我们与您携手共赢,为您的企业形象保驾护航