智慧治理實務

永續報告書內容分析

 

真理大學微學分課程

智慧健康永續學分系列課程-ESG投資

關於永續報告書

Sustainability Reports 

永續報告書公司治理中心

永續報告書公開資訊觀測站

永續報告書公開資訊觀測站

CSV檔內有連結

The Quality of Sustainability Report

內容分析智慧型

Content Analysis with AI

How to Analyze

資料收集

資料分析與結果呈現

資料爬蟲

資料爬蟲

資料清理

前處理

內容分析

視覺化

資料分析

內容分析任務(tasks)

資料爬蟲

資料清理

文章

哪些可能的任務?

情感分析 (Sentiment Analysis)

主題分析 (Topic Analysis/ Thematic Analysis)

新聞分類 (News Categorization)

多標籤分類(Multilabel Classification)

問答 (Question Answering)

自然語言推論 (Natural Language Inference )

自動摘要 (automatic Abstracting)

機器翻譯 (Machine Translation)

文本分析常見任務

情感分析(Sentiment Analysis)

負面評價Negative

這家店的售後服務完全不行

餐點還不錯啦,但是還有改進空間

中性評價neutral

中性評價neutral

正面評價positive

很讚喔,超喜歡你們家的產品

分類問題

情感分析

文本分析常見任務

編碼

輸入層

隱藏層

輸出層

輸出結果分類

真實

政治宣傳

惡搞

反諷

假新聞

帶風向

片面資訊

新聞分類

分類問題

文本分析常見任務

機器翻譯

迴歸問題

Transformer

輸入英文: milk drink I

輸出法文: Je bois du lait <eos>

編碼器

解碼器

編碼器輸出

 

解碼器輸入

<sos>: 開始符號

<eos>: 結束符號

文本分析常見任務

文本生成

輸入: 一句話

輸出: 一篇短文!

經過多個語言模型...

迴歸問題

How to Analyze scraping

2.1 遍訪連結
建立待訪堆疊

1. 從一個網頁開始

2.2 擷取內容

3. 輸出結果(至檔案)

取得HTML回應碼

解析超連結

解析其他HTML元素

資料輸出

資料清理

能力1: 取得HTML回應碼?了解HTTP協定

網址(http request)

瀏覽器

Web 伺服器

HTML回應碼(http response)

How to Analyze Understanding HTTP

http連線功能

能力2: 解析超連結、其他HTML元素、網頁內容  ➠

HTML Parser(解析器)

How to Analyze HTML Parser

以p元素為例

找出超連結元素A,屬性href的值 ➠ 待訪網址

元素

內容

開始標籤

結束標籤

屬性名稱

屬性值

能力2: 解析超連結、其他HTML元素、網頁內容

 Parser(解析器)

能力1: 取得HTML回應碼?了解HTTP協定

http連線功能

How to Analyze Implementation

能力3: 資料清理、資料輸出  ➠

資料處理工具

How to Analyze Data Cleaning

2.1 遍訪連結
建立待訪堆疊

1. 從一個網頁開始

2.2 擷取內容

3. 輸出結果(至檔案)

取得HTML回應碼

解析超連結

解析其他HTML元素

資料輸出

資料清理

網路爬蟲實作

 

☛ 單一頁面版:使用 Requests + BeautilfulSoup4

 

無限循環版:使用Scraper

Web Scraping範例(單一頁面版)

pip install requests

pip install beautifulsoup4

pip install lxml

安裝Requests, BeautilfulSoup套件(使用pippip3)

parser部分使用lxml(速度快,也可解析XML檔)

若系統找不到pip,改用pip3

Web Scraping範例抓id

import requests
from bs4 import BeautifulSoup

# 假設html為你的HTML頁面內容
html = """
<html>
<head>
<title>示例頁面</title>
</head>
<body>
<div class="content">
    <p>這是一個示例頁面。</p>
    <div id="unique_id">
        <h1>特定ID的內容</h1>
        <p>這是要抓取的內容。</p>
    </div>
    <div class="other">
        <p>其他內容。</p>
    </div>
</div>
</body>
</html>
"""

# 使用BeautifulSoup解析HTML內容
soup = BeautifulSoup(html, 'html.parser')

# 找到特定ID為"unique_id"的元素
specific_element = soup.find(id='unique_id')

# 輸出特定ID為"unique_id"的元素內容
print(specific_element)

example1.py

beautifulsoup4 抓特定id

Web Scraping範例印內文

import requests
from bs4 import BeautifulSoup

# 假設html為你的HTML頁面內容
html = """
<html>
<head>
<title>示例頁面</title>
</head>
<body>
<div class="content">
    <p>這是一個示例頁面。</p>
    <div id="unique_id">
        <h1>特定ID的內容</h1>
        <p>這是要抓取的內容。</p>
    </div>
    <div class="other">
        <p>其他內容。</p>
    </div>
</div>
</body>
</html>
"""

# 使用BeautifulSoup解析HTML內容
soup = BeautifulSoup(html, 'html.parser')

# 找到特定ID為"unique_id"的元素
specific_element = soup.find(id='unique_id')

# 輸出特定ID為"unique_id"的元素內容
if specific_element:
    content = specific_element.text  # 或者使用 specific_element.get_text()
    print(content)
else:
    print("未找到特定元素")

example2.py

beautifulsoup4 抓特定id後

印出內文

Web Scraping範例抓class

import requests
from bs4 import BeautifulSoup

# 假設html為你的HTML頁面內容
html = """
<html>
<head>
<title>示例頁面</title>
</head>
<body>
<div class="content">
    <p>這是一個示例頁面。</p>
    <div class="specific_class">
        <h1>特定Class的內容 1</h1>
        <p>這是要抓取的內容 1。</p>
    </div>
    <div class="specific_class">
        <h1>特定Class的內容 2</h1>
        <p>這是要抓取的內容 2。</p>
    </div>
    <div class="other_class">
        <p>其他內容。</p>
    </div>
</div>
</body>
</html>
"""

# 使用BeautifulSoup解析HTML內容
soup = BeautifulSoup(html, 'html.parser')

# 找到具有特定class值為"specific_class"的元素
specific_elements = soup.find_all(class_='specific_class')

# 輸出符合特定class值的元素內容
for element in specific_elements:
    print(element.get_text())

example3.py

beautifulsoup4 抓特定class

Web Scraping範例抓class

import requests
from bs4 import BeautifulSoup

# 假設html為你的HTML頁面內容
html = """
<html>
<head>
<title>示例頁面</title>
</head>
<body>
<div class="content">
    <p>這是一個示例頁面。</p>
    <a href="https://example.com/page1">連結到頁面1</a>
    <a href="https://example.com/page2">連結到頁面2</a>
    <a href="https://example.com/page3">連結到頁面3</a>
    <div class="other">
        <p>其他內容。</p>
        <a href="https://example.com/page4">連結到頁面4</a>
    </div>
</div>
</body>
</html>
"""

# 使用BeautifulSoup解析HTML內容
soup = BeautifulSoup(html, 'html.parser')

# 找到所有的超連結(<a>標籤)
all_links = soup.find_all('a')

# 輸出所有超連結的URL
for link in all_links:
    print(link.get('href'))

example4.py

beautifulsoup4 抓所有class

Web Scraping範例抓class

import requests
from bs4 import BeautifulSoup

#所要擷取的網站網址
url = 'https://www.ptt.cc/bbs/Mobile-game/M.1700108779.A.D0A.html'
#建立回應
response = requests.get(url)
#印出網站原始碼
#print(response.text)

#將原始碼做整理
soup = BeautifulSoup(response.text, 'lxml')

# 找到具有特定class值的元素
specific_elements = soup.find_all(class_='push')

# 輸出符合特定class值的元素内容
for element in specific_elements:
    print(element.get_text())

ptt02.py

beautifulsoup4 抓所有class為push的元素

Web Scraping範例抓class

import requests
from bs4 import BeautifulSoup

#所要擷取的網站網址
url = 'https://www.ptt.cc/bbs/Mobile-game/index.html'
base_url = 'https://www.ptt.cc'
#建立回應
response = requests.get(url)

#將原始碼做整理
soup = BeautifulSoup(response.text, 'lxml')

# 找到所有超連結
all_links = soup.find_all('a')

# 印出超連結
for link in all_links:
    href = link.get('href')
    if href==None:
        continue
    if "http://" in href or "https://" in href:
        print(href)
    else:
        print(base_url+href)

ptt03.py

beautifulsoup4 抓所有超連結

Web Scraping範例單一頁面版

import requests
from bs4 import BeautifulSoup

# Step 1: 發出Http Request, 解析(parse)Http Response 
## url: 要擷取的網址
base_url = "http://twbsball.dils.tku.edu.tw" # 網站基礎網址,補絕對網址用
url = "http://twbsball.dils.tku.edu.tw/wiki/index.php/%E5%88%86%E9%A1%9E:%E5%8F%B0%E7%81%A3%E7%90%83%E5%93%A1"
resp = requests.get(url)  # 發出HTTP request
if resp.status_code == 200:                     # 代碼200表示連線正常
    soup = BeautifulSoup(resp.content, "lxml")  # parsing網頁內容
else:
    exit(1)      # 非200代碼,程式直接結束

### 維基百科頁面標題特徵: id="firstHeading"
title = soup.find(id="firstHeading")  # 根據id值進行搜尋
print(f'頁面標題{title.text}')

### 維基百科頁面內容:假設只對包含在id="mw-pages"內的超連結感興趣
### 注意!!!每個網頁內容的id可能都不一樣!!!必須先詳細了解網頁格式
all_links = soup.find(id="mw-pages").find_all("a")  # 找出所有<A>標籤
print(f"超連結數量:{len(all_links):10}")

# 走訪過濾後的<A>標籤:
#### 1. 只對此Wiki站內連結感興趣
#### 2. 只處理球員連結
num_of_link = 0
for link in all_links:
    if link['href'].find("/wiki/") == -1:   # 站外連結跳過不處理
        continue
    if link.text == '之後200':        # 網頁特定內容,跳過不處理
        print(f'type of link:{type(link)}')
        continue
    print(f"球員:{link.text} 網址:{base_url + link['href']}")
    num_of_link += 1
print(f'球員總數{num_of_link:10}')

webscraping-link.py

重要:必須先了解該網頁的HTML結構

重點觀察

  • 屬性值(id, class),
  • 特定標籤<div>, <h>系列, <SPAN>

前往目標網址後,開啟「開發人員工具」(F12)

任務 1: 爬取「球員連結」

但不是「所有超連結」都是球員

移動游標尋找目標區域

div標籤, id值 "mw-pages"

# 以'lxml' parser解析 resp.content的內容
soup = BeautifulSoup(resp.content, "lxml") 
...
# 找出mw-pages段落裡面所有<A>標籤
all_links = soup.find(id="mw-pages").find_all("a") 

任務 2: 擷取「頁面內容」

有興趣的段落沒有 id, class等屬性值可用

dl, dd, ul, li等標籤無法區分是否為感興趣的段落 

url = "擷取的網址"
resp = requests.get(url)  # (1)連線
if resp.status_code == 200:                     # 代碼200表示連線正常
    soup = BeautifulSoup(resp.content, "lxml")  # (2)分析
else:
    exit(1)      # 非200代碼,程式直接結束
import requests
from bs4 import BeautifulSoup

import需要的模組

連線與分析(parsing)

### 維基百科頁面標題特徵: id="firstHeading"
title = soup.find(id="firstHeading")  # 根據id值進行搜尋
print(f'頁面標題{title.text}')

擷取任務1: 取得標題

### 維基百科頁面內容:假設只對包含在id="mw-pages"內的超連結感興趣
### 注意!!!每個網頁內容的id可能都不一樣!!!必須先詳細了解網頁格式
all_links = soup.find(id="mw-pages").find_all("a")  #找出所有<A>標籤

# 走訪過濾後的<A>標籤:
for link in all_links:
    if link['href'].find("/wiki/") == -1:   # 站外連結跳過不處理
        continue
    if link.text == '之後200':        # 網頁特定內容,跳過不處理
        continue
    print(f"球員:{link.text} 網址:{link['href']}") # 印出網址

擷取任務2: 取出段落中的超連結

網路爬蟲實作

 

單一頁面版:使用 Requests + BeautilfulSoup4

 

無限循環版:使用Scrapy

Web Scraping範例安裝所需套件

安裝Scrapy, BeautilfulSoup套件(使用pippip3)

parser部分使用lxml(速度快,也可解析XML檔)

pip install scrapy

pip install beautifulsoup4

pip install lxml

若系統找不到pip,改用pip3

此範例使用

效能較佳!

Web Scraping範例建立Scrapy專案

建立Scrapy專案,例如:

scrapy startproject tutorial

你的程式加在這個資料夾內

Web Scraping範例建立爬蟲主程式-手動方式

scrapy startproject mycrawler

在這個資料夾內新增

twbaseball_spider.py(任何檔名皆可)

爬蟲主程式#1

資料夾內可以手動新增多隻爬蟲主程式

Web Scraping範例建立爬蟲主程式-指令

scrapy genspider CSRSpider https://cgc.twse.com.tw/

生成

CSRSpider.py

CSRSpider.py

Web Scraping範例生成CSRSpider內容

import scrapy

class CsrspiderSpider(scrapy.Spider):
    name = 'CSRSpider'
    allowed_domains = ['cgc.twse.com.tw']
    start_urls = ['https://cgc.twse.com.tw/']

    def parse(self, response):
        pass

CSRSpider.py

1. 修改start_urls

2. 加入parse()程式碼

3. 終端機中執行

Web Scraping範例簡單範例

import scrapy

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "quotes"    # 2. 為spider取名

    start_urls = [   # 3. 頁面擷取串列: 數量不限
        'https://quotes.toscrape.com/page/1/', # 爬取網址1
        'https://quotes.toscrape.com/page/2/', # 爬取網址2
    ]

    def parse(self, response):  # 4. 頁面解析
        page = response.url.split("/")[-2]  # 4-1 內容解析
        # 4-2 資料儲存
        filename = f'quotes-{page}.html'  # 設定檔名
        with open(filename, 'wb') as f:
            f.write(response.body)        # 寫入網頁<body>內容
        self.log(f'Saved file {filename}')

twbaseball_spider.py

爬取兩個網頁,將網頁內容寫入檔案

Web Scraping範例(1) 繼承scrapy.Spider

import scrapy

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "quotes"    # 2. 為spider取名

    start_urls = [   # 3. 頁面擷取串列: 數量不限
        'https://quotes.toscrape.com/page/1/', # 爬取網址1
        'https://quotes.toscrape.com/page/2/', # 爬取網址2
    ]

    def parse(self, response):  # 4. 頁面解析
        page = response.url.split("/")[-2]  # 4-1 內容解析
        # 4-2 資料儲存
        filename = f'quotes-{page}.html'  # 設定檔名
        with open(filename, 'wb') as f:
            f.write(response.body)        # 寫入網頁<body>內容
        self.log(f'Saved file {filename}')

twbaseball_spider.py

class名稱自取

Web Scraping範例(2) 為spider取名

import scrapy

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "quotes"    # 2. 為spider取名

    start_urls = [   # 3. 頁面擷取串列: 數量不限
        'https://quotes.toscrape.com/page/1/', # 爬取網址1
        'https://quotes.toscrape.com/page/2/', # 爬取網址2
    ]

    def parse(self, response):  # 4. 頁面解析
        page = response.url.split("/")[-2]  # 4-1 內容解析
        # 4-2 資料儲存
        filename = f'quotes-{page}.html'  # 設定檔名
        with open(filename, 'wb') as f:
            f.write(response.body)        # 寫入網頁<body>內容
        self.log(f'Saved file {filename}')

twbaseball_spider.py

為spider取名

執行程式時,會指定此名稱

Web Scraping範例(3) 設定開始爬取的網址串列

import scrapy

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "quotes"    # 2. 為spider取名

    start_urls = [   # 3. 頁面擷取串列: 數量不限
        'https://quotes.toscrape.com/page/1/', # 爬取網址1
        'https://quotes.toscrape.com/page/2/', # 爬取網址2
    ]

    def parse(self, response):  # 4. 頁面解析
        page = response.url.split("/")[-2]  # 4-1 內容解析
        # 4-2 資料儲存
        filename = f'quotes-{page}.html'  # 設定檔名
        with open(filename, 'wb') as f:
            f.write(response.body)        # 寫入網頁<body>內容
        self.log(f'Saved file {filename}')

twbaseball_spider.py

執行時,依序爬取網頁

但不限於只爬取串列中指定的

網頁

可遞迴呼叫「回呼函式」parse()

達成無限循環

Web Scraping範例(4) 撰寫回呼函式parse()

import scrapy

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "quotes"    # 2. 為spider取名

    start_urls = [   # 3. 頁面擷取串列: 數量不限
        'https://quotes.toscrape.com/page/1/', # 爬取網址1
        'https://quotes.toscrape.com/page/2/', # 爬取網址2
    ]

    def parse(self, response):  # 4. 頁面解析
        page = response.url.split("/")[-2]  # 4-1 內容解析
        # 4-2 資料儲存
        filename = f'quotes-{page}.html'  # 設定檔名
        with open(filename, 'wb') as f:
            f.write(response.body)        # 寫入網頁<body>內容
        self.log(f'Saved file {filename}')

twbaseball_spider.py

回呼函式

透過response參數解析內容

繼續跟進處理其他網址

回傳擷取的資料、儲存...

Web Scraping範例執行

cd mycrawler

從「終端機」執行

1. 切換到專案資料最上層!

scrapy crawl quotes
scrapy crawl twbaseball

2. 執行scrapy crawl指令

spider名稱,自訂於程式碼中

import scrapy

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "quotes"    # 2. 為spider取名

    start_urls = [   # 3. 頁面擷取串列: 數量不限
        'https://quotes.toscrape.com/page/1/', # 爬取網址1
        'https://quotes.toscrape.com/page/2/', # 爬取網址2
    ]

    def parse(self, response):  # 4. 頁面解析
        page = response.url.split("/")[-2]  # 4-1 內容解析
        # 4-2 資料儲存
        filename = f'quotes-{page}.html'  # 設定檔名
        with open(filename, 'wb') as f:
            f.write(response.body)        # 寫入網頁<body>內容
        self.log(f'Saved file {filename}')

克服網站反爬蟲

...
# Enable or disable downloader middlewares
# See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html
DOWNLOADER_MIDDLEWARES = {
    #'sreport.middlewares.SreportDownloaderMiddleware': 543,
    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
    'scrapy_user_agents.middlewares.RandomUserAgentMiddleware': 400,
}
...

爬取內容時改變不同的User-Agent值(HTTP header設定)

找到專案內的settings.py

1. 開啟DOWNLOADER_MIDDLEWARES設定

2. 第5行註解掉

3. 加入6,7行

若使用相同的User-Agent值會被封鎖

pip install scrapy-user-agents

Web Scraping範例抓id印內文-html檔

<html>
<head>
<title>示例頁面</title>
</head>
<body>
<div id="content">
    <p>這是一個示例頁面。 </p>
    <div id="specific_id">
        <h1>特定ID的內容</h1>
        <p>這是要找的內容。 </p>
    </div>
    <div id="other_id">
        <p>其他內容。 </p>
    </div>
</div>
</body>
</html>

http://example.com/example.html

範例頁面html程式碼

Web Scraping範例抓id印內文, 使用css()函式

import scrapy

class MySpider(scrapy. Spider):
    name = 'my_spider'
    # 抓取的網址:與上一頁url名稱相同
    start_urls = ['http://example.com/example.html']
    
    def parse(self, response):
        # 使用CSS選擇器找到id為“specific_id”的元素
        # '#'字號代表html id值
        specific_element = response.css('#specific_id')

        # 處理找到的元素
        for element in specific_element:
            # 輸出元素內容或其他操作
            self.logger.info("Found element: %s", element.get())
            # 或是
            print(f'找到元素{element.get()}')

MySpider.py

抓特定id後印出內文

Web Scraping範例抓ul下的li

import scrapy

class MySpider(scrapy. Spider):
    name = 'my_spider'

    def parse(self, response):
        # 使用 CSS 選擇器找到特定 ul 元素
        # 替換為你的 <ul> 元素的 ID 或其他屬性選擇器
        ul_element = response.css('ul#your_ul_id')

        # 找到特定 ul 元素下的所有 li 元素
        li_elements = ul_element.css('li')

        # 處理找到的 li 元素
        for li in li_elements:
            # 在這裡進行處理
            # 例如,列印 li 內容
            self.logger.info("Found li: %s", li.get())

MySpider.py

Web Scraping範例抓class, 使用css()函式

import scrapy

class MySpider(scrapy.Spider):
    name = 'my_spider'

    start_urls = ['https://example.com']  # 你要爬取的網頁 URL
   
    def parse(self, response):
        # 使用 CSS 選擇器找到特定 class 值的元素
        elements = response.css('.your_class_name')

        # 處理找到的元素
        for element in elements:
            # 在這裡進行處理
            # 例如,列印元素內容
            self.logger.info("Found element: %s", element.get())
            # 或者
            print(f'找到元素: {element.get()}')

MySpider.py

抓特定id後印出內文

Web Scraping範例實例:永續報告書

import scrapy

class CsrspiderSpider(scrapy.Spider):
    name = 'CSRSpider'
    # allowed_domains = ['cgc.twse.com.tw']
    start_urls = ['https://cgc.twse.com.tw/corpSocialResponsibility/chPage']

    def parse(self, response):
        #先找到table <table class="table-rwd">
        table = response.css('table.table-rwd')  
        
        # 找每一行
        rows = table.css('tr')     # <tr>...</tr>
        print(f'找到{len(rows)}行')
        for row in rows:
            cells = row.css('td, th')  # tr內的所有td或th元素
            # data串列:每一個td或th元素
            data = [cell.css('::text').get() for cell in cells] 
            print(f'行:{data}')

CSRSpider.py 抓table

Web Scraping範例實例:永續報告書

import scrapy

class CsrspiderSpider(scrapy.Spider):
    name = 'CSRSpider'
    # allowed_domains = ['cgc.twse.com.tw']
    start_urls = ['https://cgc.twse.com.tw/corpSocialResponsibility/chPage']

    def parse(self, response):
        #先找到table <table class="table-rwd">
        table = response.css('table.table-rwd')  
        
        # 找每一行
        rows = table.css('tr')     # <tr>...</tr>
        print(f'找到{len(rows)}行')
        for row in rows:
            cells = row.css('td, th')  # tr內的所有td或th元素
            # data串列:每一個td或th元素
            data = [cell.css('::text').get() for cell in cells] 
            
            for cell in cells:               
                link = cell.css('a::attr(href)').get()            
                if not link:
                    continue                
                data.append(link)
            print(f'行:{data}')

CSRSpider.py 抓table

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Listing Page</title>
</head>
<body>
    <h1>Listing Page</h1>
    <ul>
        <li><a href="https://example.com/page1">Page 1</a></li>
        <li><a href="https://example.com/page2">Page 2</a></li>
        <li><a href="https://example.com/page3">Page 3</a></li>
        <!-- 更多的链接 -->
    </ul>
</body>
</html>

HTML頁面 https://example.com/listing

Web Scraping範例抓link後,逐一走訪

Web Scraping範例抓link後,逐一走訪

import scrapy

class LinksSpider(scrapy. Spider):
    name = 'links_spider'
    # 起始URL
    start_urls = ['https://example.com/listing']

    def parse(self, response):
        # 取得目前頁面的所有連結
        links = response.css('a::attr(href)').getall()

        # 處理頁面的連結
        for link in links:
             yield scrapy.Request(
                response.urljoin(link), 
                callback=self.parse
            )        

LinkSpider.py

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Listing Page</title>
</head>
<body>
    <h1>Listing Page</h1>
    <ul class="listing">
        <li><a href="https://example.com/page1">Page 1</a></li>
        <li><a href="https://example.com/page2">Page 2</a></li>
        <li><a href="https://example.com/page3">Page 3</a></li>
        <!-- 更多的链接 -->
    </ul>
    
    <div class="pagination">
        <span class="current">1</span>
        <a href="https://example.com/listing?page=2">2</a>
        <a href="https://example.com/listing?page=3">3</a>
        <!-- 更多的分页链接 -->
    </div>
</body>
</html>

分頁範例 https://example.com/listing

Web Scraping範例pagination分頁處理

Web Scraping範例抓link後,逐一走訪

import scrapy

class MySpider(scrapy.Spider):
    name = 'my_spider'

    def start_requests(self):
        base_url = 'https://example.com/listing?page={}'  # 基礎URL
        total_pages = 5  # 假設總共有5頁

        # 生成要訪問的每個分頁的URL
        for page in range(1, total_pages + 1):
            url = base_url.format(page)
            yield scrapy.Request(url, self.parse)

    def parse(self, response):
        # 在這裡解析每個頁面的內容,如提取標題、內容等
        # 你可以使用CSS選擇器或XPath來提取資料
        titles = response.css('h2::text').getall()
        contents = response.css('.content::text').getall()

        # 處理提取的資料
        for title, content in zip(titles, contents):
            yield {
                'Title': title,
                'Content': content
            }

MySpider.py

Web Scraping範例完整範例-自動抓取多個頁面

<div class="article">
    <h1 class=“title”>文章標題</h1>
    <div class=“author”>作者:John Doe</div>
    <div class=“time”>發佈時間:2023-01-01</div>
    <div class="content">
        <p>文章內容... </p>
    </div>
    <div class="comments">
        <div class="comment">
            <div class=“comment-author”>評論作者:Alice</div>
            <div class=“comment-content”>評論內容... </div>
        </div>
        <!-- 更多評論 -->
    </div>
</div>

article.html

Web Scraping範例完整範例-自動抓取多個頁面

import scrapy

class ArticleSpider(scrapy. Spider):
    name = 'article_spider'

    start_urls=['文章所在網址']

    def parse_article(self, response):
        # 提取文章資訊
        title = response.css('h1.title::text').get()
        author = response.css('div.author::text').get()
        time = response.css('div.time::text').get()
        content = response.css('div.content p::text').getall()

        # 資料清理pandas, numpy,如果需要的話
        # ...

        # 提取評論資訊
        comments = []
        # div元素之class="comments" 或 class="comment"
        comment_divs = response.css('div.comments div.comment') 
        for comment_div in comment_divs:
            # div元素 class="comment-author"。 "::text"指 div所包內文
            comment_author = comment_div.css('div.comment-author::text').get()
            comment_content = comment_div.css('div.comment-content::text').get()

            # 資料清理pandas, numpy,如果需要的話
            # ...
            # 將此輪擷取資料加入串列
            comments.append({
                'author': comment_author,
                'content': comment_content
            })

        # 傳回提取的文章資訊和評論資訊
        # 注意:yield類似return,但較不花系統資源
        yield {
            'title': title,
            'author': author,
            'time': time,
            'content': content,
            'comments': comments
        }

    def parse(self, response):
        # 取得目前頁面的所有連結,"a::attr(屬性名稱)"讀取元素<a>的某個屬性
        # get()抓取一個, getall()抓取全部
        links = response.css('a::attr(href)').getall()

        # 處理目前頁面的連結並解析文章內容
        for link in links:
            yield scrapy.Request(response.urljoin(link), callback=self.parse_article)

        # 取得分頁資訊
        next_page = response.css('a.next-page::attr(href)').get()
        if next_page:
            yield scrapy.Request(response.urljoin(next_page), callback=self.parse)

ArticleSpider.py

抓特定id後印出內文

網路爬蟲實作

 

單一頁面版:使用 Requests + BeautilfulSoup4

 

無限循環版:使用Scrapy

Web Scraping範例無限循環版

import scrapy
from  bs4 import BeautifulSoup
import random
import mycrawler.items as items

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "twbaseball"    # 2. 為spider命名
    allowed_domains = ['dils.tku.edu.tw']
    start_urls = [   # 3. 頁面擷取串列
        'http://twbsball.dils.tku.edu.tw/wiki/index.php/%E5%88%86%E9%A1%9E:%E5%8F%B0%E7%81%A3%E7%90%83%E5%93%A1'
    ]
....

twbaseball_spider.py(部份)

所有spider都需要這三部份

Web Scraping範例無限循環版:部份結果

import scrapy
from  bs4 import BeautifulSoup
import random
import mycrawler.items as items

class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    name = "twbaseball"    # 2. 為spider命名
    allowed_domains = ['dils.tku.edu.tw']
    start_urls = [   # 3. 頁面擷取串列
        'http://twbsball.dils.tku.edu.tw/wiki/index.php/%E5%88%86%E9%A1%9E:%E5%8F%B0%E7%81%A3%E7%90%83%E5%93%A1'
    ]
    total_page = len(start_urls)  # 分頁總數
    num_of_player = 0  # 抓取的球員總數
    player = items.Player()  # 球員資料欄位->自行定義在items.py
    sid = {                        # 台灣棒球維基館的section id
        '簡介': '.E7.B0.A1.E4.BB.8B',
        '基本資料': '.E5.9F.BA.E6.9C.AC.E8.B3.87.E6.96.99',
        '經歷': '.E7.B6.93.E6.AD.B7',
        '個人年表': '.E5.80.8B.E4.BA.BA.E5.B9.B4.E8.A1.A8',
        '特殊事蹟': '.E7.89.B9.E6.AE.8A.E4.BA.8B.E8.B9.9F',
        '職棒生涯成績': '.E8.81.B7.E6.A3.92.E7.94.9F.E6.B6.AF.E6.88.90.E7.B8.BE',
        '外部連結': '.E5.A4.96.E9.83.A8.E9.80.A3.E7.B5.90'
    }
    
    def parse(self, response):    # 4. 頁面解析
        next200 = False  # pagination link processing flag
        player_links = []    # 球員超連結串列
        for link in response.css('#mw-pages').css("a"):
            text = link.css('a::text').get()    # 超連結的文字部分
            if text == '先前200':   # 先前200已經處理過了
                continue
            if text == '之後200': # 之後200 下一頁球員
                if next200:    # 已經處理過了
                    continue
                else:          # 尚未處理
                    next200 = True  # 標示為已處理
                    self.total_page += 1
                    # yield response.follow(link, self.parse)  # 連續循環版
                    print(f"^^^current total pages:{self.total_page}")
            if random.randint(1,100)<=2:
                player_links.append(link)
        self.num_of_player += len(player_links)
        yield from response.follow_all(player_links, self.parse_player)
        print(f"***current total number of players:{self.num_of_player}")
        
    def parse_player(self, response):
        player = items.Player()    # 新球員資料
        soup = BeautifulSoup(response.body, 'lxml')
        # 0. 球員姓名
        player['name'] = soup.find(id="firstHeading").text
        
        yield {
            'title': player['name'],           
        }

twbaseball_spider.py

items.py:可以定義「想要擷取的欄位」

Web Scraping範例items.py

# Define here the models for your scraped items

from re import S
import scrapy

class MycrawlerItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    pass

class Player(scrapy.Item):      # 球員資料
    url = scrapy.Field()           # 網址
    name = scrapy.Field()          # 球員姓名
    nickname = scrapy.Field()      # 綽號
    birthday = scrapy.Field()      # 生日
    height = scrapy.Field()        # 身高
    weight = scrapy.Field()        # 體重
    position = scrapy.Field()      # 守備位置
    intro = scrapy.Field()         # 簡介全文
    experience = scrapy.Field()    # 經歷
    event = scrapy.Field()         # 年表   
    performance = scrapy.Field()   # 特殊事蹟
    record = scrapy.Field()        # 成績紀錄
    links = scrapy.Field()         # 外部連結

items.py

參考這邊的寫法

Web Scraping範例無限循環版

twbaseball_spider.py(部份)

...
class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    ...
    def parse(self, response):    # 4. 頁面解析
        next200 = False  # pagination link processing flag
        player_links = []    # 球員超連結串列
        for link in response.css('#mw-pages').css("a"):
            text = link.css('a::text').get()    # 超連結的文字部分
            if text == '先前200':   # 先前200已經處理過了
                continue
            if text == '之後200': # 之後200 下一頁球員
                if next200:    # 已經處理過了
                    continue
                else:          # 尚未處理
                    next200 = True  # 標示為已處理
                    self.total_page += 1
                    # yield response.follow(link, self.parse)  # 連續循環版
                    print(f"^^^current total pages:{self.total_page}")
            if random.randint(1,100)<=2:
                player_links.append(link)
        self.num_of_player += len(player_links)
        yield from response.follow_all(player_links, self.parse_player)
        print(f"***current total number of players:{self.num_of_player}")
        ...

主要的回呼函式

無限循環? 透過遞迴達成!

如何辦到無限循環?特殊的遞迴呼叫(產生器):yield, yield from

...
        yield from response.follow_all(player_links, self.parse_player)
...
....
                yield response.follow(link, self.parse)  # 連續循環版
....

連往下一個超連結link,並呼叫parse()回呼函式

yield: 生成器,類似return,但可節省許多記憶體

連往player_links內所有超連結,並呼叫parse_player()回呼函式

yield from:產生許多生成器

完整範例

台灣棒球維基館

twbaseball_spider.py

import random
import time
from datetime import datetime
import mycrawler.items as items    # 資料欄位定義 items.xxxx
import scrapy
from bs4 import BeautifulSoup


class TwBaseballSpider(scrapy.Spider):  # 1. 繼承scrapy.Spider
    #### spider 設定 ####
    name = "twb_reader"    # 2. 為spider命名
    allowed_domains = ['dils.tku.edu.tw']
    start_urls = [   # 3. 起始擷取頁面串列
        # 頁面:台灣球員分類
        'http://twbsball.dils.tku.edu.tw/wiki/index.php/%E5%88%86%E9%A1%9E:%E5%8F%B0%E7%81%A3%E7%90%83%E5%93%A1' 
    ]
    out_file = 'twbaseball_player.csv'  # 輸出檔案
    custom_settings = {
        'FEEDS': { out_file: { 'format': 'csv',}}
        }

    #### 程式自定義屬性 ####
    base_url = "http://twbsball.dils.tku.edu.tw"    
    total_page = 0  # 分頁總數
    num_of_player = 0  # 抓取的球員總數
    sections = [    # data frame的column name,共9個
        '簡介', # 同義詞段落'生平簡介'
        '基本資料',
        '經歷',
        '個人年表',
        '特殊事蹟',
        '職棒生涯成績',
        '備註',
        '註釋或參考文獻',
        '外部連結',
    ]
    sid = {                        # 台灣棒球維基館的section id
    '基本資料': '.E5.9F.BA.E6.9C.AC.E8.B3.87.E6.96.99',
    '經歷': '.E7.B6.93.E6.AD.B7',
    '個人年表': '.E5.80.8B.E4.BA.BA.E5.B9.B4.E8.A1.A8',
    '特殊事蹟': '.E7.89.B9.E6.AE.8A.E4.BA.8B.E8.B9.9F',
    '職棒生涯成績':'.E8.81.B7.E6.A3.92.E7.94.9F.E6.B6.AF.E6.88.90.E7.B8.BE',
    '備註':'.E5.82.99.E8.A8.BB',
    '註釋或參考文獻': '.E8.A8.BB.E9.87.8B.E6.88.96.E5.8F.83.E8.80.83.E6.96.87.E7.8D.BB',
    '外部連結': '.E5.A4.96.E9.83.A8.E9.80.A3.E7.B5.90',
    '結尾': 'stub'
    }
    intro = {
    '簡介': '.E7.B0.A1.E4.BB.8B',
    '生平簡介': '.E7.94.9F.E5.B9.B3.E7.B0.A1.E4.BB.8B'
    }
    ####

    def extract_introduction(self, content, key, value):
        pos = str(content).find(f'id="{value}"')  # 簡介 / 生平簡介
        if pos == -1:
            return None
        else:
            next_pos = str(content).find('<span class="mw-headline" id=".E5.9F.BA.E6.9C.AC.E8.B3.87.E6.96.99">基本資料</span>')        
            intro_str = str(content)[pos:next_pos]         # 擷取 「簡介/生平簡介」 段落
            intro_str = intro_str[intro_str.find(key):]  # 去掉最前面未切乾淨的html碼 
            intro_soup = BeautifulSoup(intro_str, 'lxml')  # parsing
            texts = intro_soup.find_all(text=True)         # 取出所有元素的文字,不含標籤屬性
                                                           # 資料格式為串列
            return u"".join(t.strip() for t in texts)      # 將串列元素接在一起形單一字串,u""為unicode

####使用字串.find()和取得子字串的功能,切出每個段落大致的內容
# 參數:
#   content: http response回應的內容部份
#   start: 開始字串(不含),要裁切內容的開始位置
#   end: 結尾字串(不含), 裁切內容的結束位置 
# 回傳:
#     裁切好的子字串
    def get_sub_content(self, content, start, end):
        start_pos = str(content).find(f'id="{start}"')
        # print(f'sp:{start_pos}')
        if start_pos == -1:     # 找不到start字串
            return None
        else:                   # 找到 start字串
            end_pos = str(content).find(f'id="{end}"')   # 尋找end字串        
            if end_pos == -1:
                return None     # 找不到end字串
            else:
                # print(f'ep:{end_pos}')
                return str(content)[start_pos: end_pos]  # 回傳裁切子字串

#### 使用BeatuifulSoup的功能,取出以<dd></dd>包起來的段落內容
# 參數:
#      html_str: 要分析的段落內容字串
# 回傳:
#      段落內容串列,每一個li為一個串列元素
    def extract_dlist(self, html_str):
        soup = BeautifulSoup(html_str, 'lxml')  # parsing
        li = soup.find_all('li')         # 找到<li>
        li_texts = []    # 空字串, 將存入所有li的文字
        for item in li:
            item_text = item.find_all(text=True)
            if u"".join(item_text).strip() != '':
                li_texts.append(u"".join(item_text).strip())
        return li_texts

    def parse(self, response):    # 4. 頁面解析
        next200 = False  # pagination link processing flag
        player_links = []    # 球員超連結串列
        # 走訪所有超連結:(1)處理pagination (yield版本的遞迴) (2)儲存球員超連結
        for link in response.css('#mw-pages').css("a"): 
            text = link.css('a::text').get()    # 超連結的文字部分
            if text == '先前200':   # 先前200已經處理過了
                continue
            if text == '之後200':  # 之後200 下一頁球員
                if next200:    # 已經處理過了
                    continue
                else:          # 尚未處理
                    next200 = True  # 標示為已處理
                    self.total_page += 1
                    yield response.follow(link, self.parse) # yield版遞迴至下一頁
                    print(f"^^^ 已處理總頁數 ^^^:{self.total_page}")
            player_links.append(link) ## 處理全部球員
            #if random.randint(1, 100) <= 2:
            #    player_links.append(link)  # link為球員連結, 加入待處理球員連結
        self.num_of_player += len(player_links)
        print(f'*** 目前的球員總數 ***:{self.num_of_player}')
        yield from response.follow_all(player_links, self.parse_player)

    def parse_player(self, response):        
        if response.status == 200:                
            soup = BeautifulSoup(response.body, 'lxml')
        else:
            return
        # 0. 球員姓名
        player_name = soup.find(id="firstHeading").text # 棒球維基館title id
        # 1. url
        url = response.url
        # 2. content
        final_result = {}  # 最後擷取的全文結果
        all_content = soup.find(id="bodyContent") # 取得全部HTML內文
        #### 2.1 擷取「簡介」, 如果有的話
        for key, value in self.intro.items():
            pp = self.extract_introduction(all_content, key, value)  # 取得 簡介
            if pp != None:
                print(f'找到{key}')
                # final_result[key] = pp  # 簡介
                intro = pp # 簡介內容
                break
            else:
                intro = '' # 沒有簡介
                print(f'找不到{key}')
        #### 2.2 擷取後面各個段落
        start_str = ''  # 擷取段落用的開始字串
        end_str = ''    # 擷取段落用的結束字串
        title = ''      # 目前擷取的段落名稱:對應至sid的key
        next_title = '' # 下一個擷取的段落名稱:對應至sid的key
        for key, value in self.sid.items():  # 遍訪sid串列,取出定位字串
            if start_str == '':  # 1. 設定開始字串
                start_str = value # 1.1開始字串
                title = key       # 1.2段落名稱
                continue
            else:
                if end_str == '':  # 2. 設定結束字串
                    end_str = value  # 2.1 結束字串
                    next_title = key # 2.2 下一個段落名稱
                    print(title)
                    # 使用開始字串,結束字串取得中間的html內容
                    sub_content_str = self.get_sub_content(all_content, start_str, end_str)
                    if sub_content_str == None:  # 如果擷取回來沒有內容
                        end_str = ''   # 清除結束字串,繼續處理下一個sid項目
                        continue
                    # 處理擷取回來的段落內容
                    li_list = self.extract_dlist(sub_content_str) # 取出當中的li
                    final_result[title] = ''.join(li_list)  # 紀錄起來
                    start_str = end_str # 設定下一段的開始字串
                    end_str = ''        # 清除結束字串
                    title =next_title   # 設定下一段的段落名稱

        now = datetime.now().strftime("%Y/%m/%d %H:%M:%S")
        player_data = items.PlayerData(
            name = player_name,
            url = url,
            datetime = now,
            intro = intro,
            bio = final_result['基本資料'] if '基本資料' in final_result else '',
            experience = final_result['經歷'] if '經歷' in final_result else '',
            event = final_result['個人年表'] if '個人年表' in final_result else '',
            performance = final_result['特殊事蹟'] if '特殊事蹟' in final_result else '',
            record = final_result['職棒生涯成績'] if '職棒生涯成績' in final_result else '',
            notes = final_result['備註'] if '備註' in final_result else '',
            refs = final_result['註釋或參考文獻']if '註釋或參考文獻' in final_result else '',
            links = final_result['外部連結']if '外部連結' in final_result else '',
        )
        yield player_data    
# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

from re import S
import scrapy

class MycrawlerItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    pass

class PlayerData(scrapy.Item):
    name = scrapy.Field()          # 球員姓名
    url = scrapy.Field()           # 網址
    datetime = scrapy.Field()      # 擷取日期時間
    intro = scrapy.Field()         # 簡介全文
    bio = scrapy.Field()           # 基本資料
    experience = scrapy.Field()    # 經歷
    event = scrapy.Field()         # 年表
    performance = scrapy.Field()   # 特殊事蹟
    record = scrapy.Field()        # 成績紀錄
    notes = scrapy.Field()         # 備註
    refs = scrapy.Field()          # 參考文獻
    links = scrapy.Field()         # 外部連結
    
class Player(scrapy.Item):
    # 球員資料
    url = scrapy.Field()           # 網址
    name = scrapy.Field()          # 球員姓名
    nickname = scrapy.Field()      # 綽號
    birthday = scrapy.Field()      # 生日
    height = scrapy.Field()        # 身高
    weight = scrapy.Field()        # 體重
    position = scrapy.Field()      # 守備位置
    intro = scrapy.Field()         # 簡介全文
    experience = scrapy.Field()    # 經歷
    event = scrapy.Field()         # 年表   
    performance = scrapy.Field()   # 特殊事蹟
    record = scrapy.Field()        # 成績紀錄
    links = scrapy.Field()         # 外部連結

items.py

Ckip Transformers

Ckip Transformers安裝與使用

Ckip Transformers安裝與使用

使用方法ㄧ: 透過HuggingFace Transformers

圖片來源:Transformers, PyTorch, TensorFlow

pip install -U transformers

❶ 安裝transformers套件

❷ 安裝深度學習套件(擇一)

pip install -U torch
pip install -U tensorflow

* 後續以PyTorch為例

from ckip_transformers.nlp import CkipWordSegmenter, CkipPosTagger, CkipNerChunker
## 將斷詞結果words與 part-of-speech結果pos打包在一起
def pack_ws_pos_sentece(words, pos):
   assert len(words) == len(pos), f'words{len(words)}和pos{len(pos)}長度必須一樣'
   result = []   # 最終結果串列
   for word, p in zip(words, pos):  # zip將words,pos對應位置鏈在一起
      result.append(f"{word}({p})")
   return "\u3000".join(result)  #\u3000是全形空白字元

# Input text
text = [
   "華氏80度,氣壓30-6,整天下雨。前進到奇武荖,聆聽朗誦。然後珍珠里簡和冬瓜山,晚間在珍珠里簡的禮拜有一百五十人,拔了七十六顆牙。",
   "相當涼爽舒適,與阿華出去鄉間拜訪他的一位老朋友,是一位農人。我們被看見,認出來,且受排斥。遭到兩隻大黑狗攻擊,孩童吼叫,狂暴的辱罵。 我們回家,在吃過飯之後,我們比過去更勤奮的研讀各自的功課。",
   "華氏84度,陰天,氣壓30-10。上午七點離開大里簡,大部分都用走的,上午時點三十分來到頭城,拔了一些牙。十一點到打馬煙,我們剛到雨就來了。禮德醫師在路上幫一個傢伙縫手指。新漆好的禮拜堂到處都是用藍色和紅色漆,全部由他們自費花了十二元。禮德醫師拍團體照。我們照顧了十四名病人,還拔了一些牙。主持聖餐禮,聆聽十七個人背誦。大家都做得很好,我們發禮物給他們。"
   ]

ws_driver = CkipWordSegmenter(model="bert-base") # 載入 斷詞模型
pos_driver = CkipPosTagger(model="bert-base")    # 載入 POS模型
ner_driver = CkipNerChunker(model="bert-base")   # 載入 實體辨識模型
print('all loaded...')

# 執行pipeline 產生結果
ws = ws_driver(text)   # 斷詞
pos = pos_driver(ws)   # 詞性: 注意斷詞-詞性是依序完成
ner = ner_driver(text) # 實體辨識

##列印結果
for sentence, word, p, n in zip(text, ws, pos, ner):
    print(sentence)
    print(pack_ws_pos_sentece(word, p))
    for token in n:
        print(f"({token.idx[0]}, {token.idx[1]}, '{token.ner}', '{token.word}')")
    print()

華氏80度,氣壓30-6,整天下雨。前進到奇武荖,聆聽朗誦。然後珍珠里簡和冬瓜山,晚間在珍珠里簡的禮拜有一百五十人,拔了七十六顆牙。


華氏(Na) 80(Neu) 度(Nf) ,(COMMACATEGORY) 氣壓(Na) 30-6(Neu) ,(COMMACATEGORY) 整(Neqa) 天(Nf) 下雨(VA) 。(PERIODCATEGORY) 前進(VA) 到(P) 奇武荖(Nc) ,(COMMACATEGORY) 聆聽(VC) 朗誦(VC) 。(PERIODCATEGORY) 然後(D) 珍珠里簡(Na) 和(Caa) 冬瓜山(Nc) ,(COMMACATEGORY) 晚間(Nd) 在(P) 珍珠里簡(Nc) 的(DE) 禮拜(Na) 有(V_2) 一百五十(Neu) 人(Na) ,(COMMACATEGORY) 拔(VC) 了(Di) 七十六(Neu) 顆(Nf) 牙(Na) 。(PERIODCATEGORY)


(0, 5, 'QUANTITY', '華氏80度')
(8, 12, 'QUANTITY', '30-6')
(37, 40, 'LOC', '冬瓜山')
(41, 43, 'TIME', '晚間')
(52, 56, 'CARDINAL', '一百五十')
(60, 63, 'CARDINAL', '七十六')

實體辨識

11類專有名詞

7類數量詞

Part-of-Speech(POS)

61種詞性

華氏80度,氣壓30-6,整天下雨。前進到奇武荖,聆聽朗誦。然後珍珠里簡和冬瓜山,晚間在珍珠里簡的禮拜有一百五十人,拔了七十六顆牙。


華氏(Na) 80(Neu) 度(Nf) ,(COMMACATEGORY) 氣壓(Na) 30-6(Neu) ,(COMMACATEGORY) 整(Neqa) 天(Nf) 下雨(VA) 。(PERIODCATEGORY) 前進(VA) 到(P) 奇武荖(Nc) ,(COMMACATEGORY) 聆聽(VC) 朗誦(VC) 。(PERIODCATEGORY) 然後(D) 珍珠里簡(Na) 和(Caa) 冬瓜山(Nc) ,(COMMACATEGORY) 晚間(Nd) 在(P) 珍珠里簡(Nc) 的(DE) 禮拜(Na) 有(V_2) 一百五十(Neu) 人(Na) ,(COMMACATEGORY) 拔(VC) 了(Di) 七十六(Neu) 顆(Nf) 牙(Na) 。(PERIODCATEGORY)


(0, 5, 'QUANTITY', '華氏80度')
(8, 12, 'QUANTITY', '30-6')
(37, 40, 'LOC', '冬瓜山')
(41, 43, 'TIME', '晚間')
(52, 56, 'CARDINAL', '一百五十')
(60, 63, 'CARDINAL', '七十六')

只辨識出1個實體

且分類錯誤

應為GPE

3個地名,共出現四次

珍珠里簡: 不同詞性?

Na:普通名詞,Nc: 地方詞

資料清理

1. 讀寫檔案

 

2. 資料清理

 

pip install pandas

pip install numpy

Pandas安裝

Pandas範例1:寫出csv檔

from bs4 import BeautifulSoup
import requests
import pandas

....
# print(final_result)  # 印出擷取的資料
fr_array = []      # 準備空白表格資料
fr_array.append(final_result)  # 加入一筆資料至表格
index=[i for i in range(len(fr_array))]   # data frame的索引
### 建立dataframe
#   1. fr_array: 表格資料(目前只有一筆)
#   2. index=index:  前者是參數名稱,後者是第9行建立的索引串列
#   3. columns=sections: 前者是參數名稱, 後者是先前定義的欄位串列
df = pandas.DataFrame(fr_array,index=index, columns=sections)

df.to_csv('out_file.csv')   # 寫出檔案(utf-8編碼)

webscraping-player.py(部份)

Pandas範例2:讀寫csv檔

...
import pandas as pd
def read_file(fn):
    # 日記無header,自訂header為'date','content'
    df = pd.read_csv(fn,names=['date','content']) 
    df['content'] = df['content'].str.strip()  # 去除頭尾空白字元
    print(df.info())
    return df

# 步驟一: 讀取馬偕日記
data_file = './data/MackayFull-202209-utf8.csv'
out_file = './data/MackayFull-202209-Output-utf8.csv'
df = read_file(data_file)
# print(df)
...

02Mackay.py(部份)

Pandas範例2:讀寫csv檔

#-*-coding:UTF-8 -*-
# 讀取馬偕日記csv檔,使用CKIP斷詞、實體辨識進行處理, 並作統計

# Import Ckip Transformers module
from ckip_transformers.nlp import CkipWordSegmenter, CkipPosTagger, CkipNerChunker
import pandas as pd
def read_file(fn):
    df = pd.read_csv(fn,names=['date','content']) # 日記無header,自訂header為'date','content'
    df['content'] = df['content'].str.strip()  # 去除日記內容頭尾的空白字元
    print(df.info())
    return df

# 步驟一: 讀取馬偕日記
data_file = './data/MackayFull-202209-utf8.csv'
out_file = './data/MackayFull-202209-Output-utf8.csv'
df = read_file(data_file)
# print(df)

# 步驟二: load models
ws_driver = CkipWordSegmenter(model="bert-base")
print('word segmenter loaded...')
pos_driver = CkipPosTagger(model="bert-base")
print('Pos Tagger loaded...')
ner_driver = CkipNerChunker(model="bert-base")

df['word_segment'] = ws_driver(df['content'])    # 斷詞
df['part_of_speech'] = pos_driver(df['content'])   # 詞性標記
df['ner_chunker'] = ner_driver(df['content'])      # 實體辨識
# 合併 斷詞 於 詞性標記 的結果
sub_df = df[['word_segment','part_of_speech']]   # 取出斷詞、詞性標記
word_with_pos = list()
for index in range(sub_df.shape[0]):    # 每一筆
    print('處理第 %d 筆' % index)
    ws = sub_df['word_segment'][index]      # 斷詞結果
    pos = sub_df['part_of_speech'][index]   # 詞性標記結果
    count = 0   # 指標 for part_of_speech
    words = list()
    for word in ws:    # 每一筆
        # print(word, pos[count], sep=' ')
        words.append([word, pos[count]])
        count += len(word)
    word_with_pos.append(words)
df['word_with_pos'] = word_with_pos
print(df['word_with_pos'])
print(df['ner_chunker'])
'''
# 版本1: 只取部分欄位
out_field = ['date','content','word_with_pos','ner_chunker']
out_df=df[out_field]
out_df.to_csv(out_file, sep='\t', encoding='utf-8')
'''
# 版本2: 輸出所有欄位
df.to_csv(out_file, sep='\t', encoding='utf-8')



02Mackay.py

有使用BERT處理文字(需另外安裝)

pip install -U transformers

用不到、不相關

資料闕漏

刪除一筆、刪除一欄、補遺

刪除欄位

資料型別錯誤

重填正確型別資料

Data Cleaning

建立資料結構

資料清理

輸出

●●●

資料庫

讀取檔案

●●●

The result Sustainability Report

永續報告書內容

大型語言模型

Large Language Model

機器學習Process

訓練資料

❶¹ 前處理

🅐 訓練集

🅑 驗證集

🅒 測試集

❷ 訓練參數

決定最終預測模型

❸ 產生預測用模型

➍ 測試模型

特徵萃取

❶² 資料集分割

遷移學習Transfer Learning

遷移學習:專注於目標領域資料集收集訓練

機器學習傳統做法

資料集1

資料集2

資料集3

任務1

任務2

任務3

兩階段: 非監督式、監督式

不同任務、不同資料集

Transfer Learning

來源領域任務

資料集S

目標領域任務

大量

資料集T

小量

預訓練unsupervised

微調supervised

GPT

PaLM

Vaswani et al., Attention is All You Need https://arxiv.org/abs/1706.03762

Transformers模型

自注意(self-attention)機制

Encoder

Decoder

Attention Layer

Attention Layer

Attention Layer

預訓練以GPT-3為例

96個Transformer解碼器

任務之一:句子 ➠ 預測下一個字

預訓練常見任務之二:克漏字

預訓練範例BERT

任務(tasks)

資料爬蟲

資料清理

文章內容

有哪些可能的任務?

情感分析 (Sentiment Analysis)

主題分析 (Topic Analysis/ Thematic Analysis)

新聞分類 (News Categorization)

多標籤分類(Multilabel Classification)

問答 (Question Answering)

自然語言推論 (Natural Language Inference )

自動摘要 (automatic Abstracting)

機器翻譯 (Machine Translation)

Fabien, M., Villatoro-Tello, E., Motlícek, P., & Parida, S. (2020). BertAA : BERT fine-tuning for Authorship Attribution. ICON.

Fine tuning微調以Bert為例

❶ 準備Labeled Dataset

❷ 設計Network for Task

❸ Output Layer

The Quality of Sustainability Report

內容分析的參考依據

The Quality of Sustainability Report

The Quality of Sustainability Report

利害關係人議合水準分類模型

Classification Model for Stakeholder Engagement Level

利害關係人Stakeholder

利害關係人: 任何能影響組織目標實現影響的團體或個人

利害關係人溝通 日月光控股

直接影響

間接影響

Freeman, R. E. (1984). Strategic management: A stakeholder approach. pp.46 Boston, MA: Pitman

利害關係人議合效益Stakeholder Engagement Benefits

效益一:增加企業商業價值
 

 

效益二:呼應股東積極主義(shareholder activism)的興起
 

 

效益三:呼應ESG投資風潮的興起

利害關係人議合: 透徹蒐集各方意見,整合至公司營運策(ESG 之Governance)

促進知情與決策、避免潛在風險、擴大與開發商機;提昇品牌價值與聲譽、促進創新

較易制定問題的解決方案、避免意見爭執、培養與利害關係人的順暢關係

迎合股東和潛在投資者於分析投資決策

利害關係人議合分類模型

2016, GRI Database

119 Energy Sectors

資料集

內容分析法

標注Engagement actions:

Track

Inform

Consult

Support

Collaborate

Partner

Engagement水準分類

Level 1: Information Strategy

Level 2: Response Strategy

Level 3: Involvement Stragegy

Stocker, F., et al., (2020). Stakeholder engagement in sustainability reporting: a classification model. Corporate Social Responsibility and Environmental Management, 27(5), 2071-2080.

據此產出 議合行動的
1) Quality(Level 1~3)

2) Focus

3) Extension

Engagement Strategy Matrix

分析報告中段落:
Stakeholder Identification & Engagement

 

 

 

 

 

 

 

利害關係人議合分類模型

categories, coding

reference

quality: number of actions, most cited actions  at each level

利害關係人議合分類模型

quality: number of actions, most cited actions  at each level

focus:

  • the frequency of the stakeholders for

a) each company

b) the total number of actions per level

  • the most cited stakeholder groups at each level

extent of the engagement:

  • the number of stakeholders cited

利害關係人議合分類模型

利害關係人議合分類模型

❶ 準備Labeled Dataset

❷ 設計Network for Task

❸ Output Layer

LLM for SR Classification

❸ Pre-train model selection

LLM for SR Classification

Network Design

Thematic Analysis + Multi-label Classification

Thematic Analysis + Aspect Based Sentiment Analysis(ABSA)

LLM for SR Classification

LLM for SR Classification

Q. Zhang, R. Lu, Q. Wang, Z. Zhu and P. Liu, "Interactive Multi-Head Attention Networks for Aspect-Level Sentiment Classification," in IEEE Access, vol. 7, pp. 160017-160028, 2019

LLM for SR Classification

Labeled dataset: 人工標記工具

1121微學分-智慧治理實務

By Leuo-Hong Wang

1121微學分-智慧治理實務

  • 211