2018-11-11 11:26:41
这是一个Go语言之旅中的练习:Web爬虫的实现。
Web爬虫是一个很好的适合练习并行处理的任务。
在这个练习中,我们将会使用 Go 的并发特性来并行化一个 Web 爬虫。
修改 Crawl 函数来并行地抓取 URL,并且保证不重复。
提示:你可以用一个 map 来缓存已经获取的 URL,但是要注意 map 本身并不是并发安全的!
package main
import (
"fmt"
)
type Fetcher interface {
// Fetch 返回 URL 的 body 内容,并且将在这个页面上找到的 URL 放到一个 slice 中。
string) (body string, urls []string, err error)
Fetch(url
}
// Crawl 使用 fetcher 从某个 URL 开始递归的爬取页面,直到达到最大深度。
func Crawl(url string, depth int, fetcher Fetcher) {
// TODO: 并行的抓取 URL。
// TODO: 不重复抓取页面。
// 下面并没有实现上面两种情况:
if depth <= 0 {
return
}
body, urls, err := fetcher.Fetch(url)if err != nil {
fmt.Println(err)return
}"found: %s %q\n", url, body)
fmt.Printf(for _, u := range urls {
-1, fetcher)
Crawl(u, depth
}return
}
func main() {
"https://golang.org/", 4, fetcher)
Crawl(
}
// fakeFetcher 是返回若干结果的 Fetcher。
type fakeFetcher map[string]*fakeResult
type fakeResult struct {
string
body string
urls []
}
func (f fakeFetcher) Fetch(url string) (string, []string, error) {
if res, ok := f[url]; ok {
return res.body, res.urls, nil
}return "", nil, fmt.Errorf("not found: %s", url)
}
// fetcher 是填充后的 fakeFetcher。
var fetcher = fakeFetcher{
"https://golang.org/": &fakeResult{
"The Go Programming Language",
string{
[]"https://golang.org/pkg/",
"https://golang.org/cmd/",
},
},"https://golang.org/pkg/": &fakeResult{
"Packages",
string{
[]"https://golang.org/",
"https://golang.org/cmd/",
"https://golang.org/pkg/fmt/",
"https://golang.org/pkg/os/",
},
},"https://golang.org/pkg/fmt/": &fakeResult{
"Package fmt",
string{
[]"https://golang.org/",
"https://golang.org/pkg/",
},
},"https://golang.org/pkg/os/": &fakeResult{
"Package os",
string{
[]"https://golang.org/",
"https://golang.org/pkg/",
},
}, }
这个任务的实现可以借助较为传统的互斥锁来解决。一方面,我们希望使用一个map缓存已经爬取过的url;另一方面,我们需要把Crawl函数并行化。这需要处理多个线程读写map所带来的线程安全问题。
package main
import (
"fmt"
"sync"
)
type Fetcher interface {
// Fetch 返回 URL 的 body 内容,并且将在这个页面上找到的 URL 放到一个 slice 中。
string) (body string, urls []string, err error)
Fetch(url
}type SafeMap struct {
// mux是一个锁,go确保上锁的代码段在相同时间仅有一个Go程在执行
map[string]string
m
mux sync.Mutex
}var urlMap = SafeMap{m:make(map[string]string , 0)}
// 使用一个WaitGroup来阻塞主线程,直到爬取完成
var wg sync.WaitGroup
// Crawl 使用 fetcher 从某个 URL 开始递归的爬取页面,直到达到最大深度。
func Crawl(url string, depth int, fetcher Fetcher) {
// 无论Crawl错误还是正常爬取,我们认为他的任务完成了
// 使用defer wg.Done()确保我们的Waitgroup减去了1
defer wg.Done()
if depth <= 0 {
return
}
body, urls, err := fetcher.Fetch(url)// 上锁需要写urlMap的代码段,阻止其他go程读写所带来的读写冲突
urlMap.mux.Lock()// 确保锁最后能够释放,使用defer等效于在两个return前分别解锁
defer urlMap.mux.Unlock()
if err != nil {
"Can not find url!")
urlMap.m[url] = fmt.Sprintf(return
}
urlMap.m[url] = bodyfor _, u := range urls {
// 如果cache命中,认为这个url已经爬过了,跳过他
_, ok := urlMap.m[u]if(!ok) {
// 增加一个新任务,任务在这个Go程完成后释放
1)
wg.Add(// 递归地爬取
go Crawl(u, depth-1, fetcher)
}
}return
}
func main() {
// 增加初始任务
1)
wg.Add("https://golang.org/", 4, fetcher)
Crawl(// 阻塞主线程, 直到wg中任务数为0
wg.Wait()for k, v := range urlMap.m {
// 输出结果
fmt.Println(k, v)
}
}
// fakeFetcher 是返回若干结果的 Fetcher。
type fakeFetcher map[string]*fakeResult
type fakeResult struct {
string
body string
urls []
}
func (f fakeFetcher) Fetch(url string) (string, []string, error) {
if res, ok := f[url]; ok {
return res.body, res.urls, nil
}return "", nil, fmt.Errorf("not found: %s", url)
}
// fetcher 是填充后的 fakeFetcher。
var fetcher = fakeFetcher{
"https://golang.org/": &fakeResult{
"The Go Programming Language",
string{
[]"https://golang.org/pkg/",
"https://golang.org/cmd/",
},
},"https://golang.org/pkg/": &fakeResult{
"Packages",
string{
[]"https://golang.org/",
"https://golang.org/cmd/",
"https://golang.org/pkg/fmt/",
"https://golang.org/pkg/os/",
},
},"https://golang.org/pkg/fmt/": &fakeResult{
"Package fmt",
string{
[]"https://golang.org/",
"https://golang.org/pkg/",
},
},"https://golang.org/pkg/os/": &fakeResult{
"Package os",
string{
[]"https://golang.org/",
"https://golang.org/pkg/",
},
}, }
在执行时,使用互斥锁确保了同一时间只有一个Go程在操作urlMap,具体来说,只有父页面Unlock以后,子页面才能以一个随机的顺序一一遍历,实际上,通过再传递一些优先级参数,应该能做到指定一个顺序(比如字典序)进行遍历,遍历过程实际上是一个dfs,但是使用多线程提高了效率。
Go在支持Channel这种多线程编程模式的同时,也支持传统的互斥锁模式,在处理某些问题时,互斥锁会比Channel实现更加简单。 需要注意的是,互斥锁实际上并非对数据加锁,而是对某个代码块加锁。 使用defer命令可以确保线程结束时释放锁,需要善用。