2011-10-28 52 views
3

我试图使用XML包提取一些表格(选举数据)。浏览SO,我发现如何使用一个URL:如何从链接列表中删除HTML表格

library(XML) 
url <- "http://www.elecciones2011.gob.ar/paginas/paginas/dat99/DPR99999A.htm" 
total <- readHTMLTable(url) 
n.rows <- unlist(lapply(total, function(t) dim(t)[1])) 
df<-as.data.frame(total[[which.max(n.rows)]]) 

通过上面的代码,我得到了足够好的结果。我也可以(使用readLines函数和一些调整)来获取我想要抓取的所有URL的矢量。就像这样:

base_url <- "http://www.elecciones2011.gob.ar/paginas/paginas/" 
urls <- paste(
    base_url, 
    c(
    "dat02/DPR02999A", 
    "dat03/DPR03999A", 
    "dat04/DPR04999A", 
    "dat05/DPR05999A", 
    "dat06/DPR06999A", 
    "dat07/DPR07999A", 
    "dat08/DPR08999A", 
    "dat09/DPR09999A", 
    "dat10/DPR10999A", 
    "dat11/DPR11999A", 
    "dat12/DPR12999A", 
    "dat13/DPR13999A", 
    "dat14/DPR14999A", 
    "dat15/DPR15999A", 
    "dat16/DPR16999A", 
    "dat17/DPR17999A", 
    "dat18/DPR18999A", 
    "dat19/DPR19999A", 
    "dat20/DPR20999A", 
    "dat21/DPR21999A", 
    "dat22/DPR22999A", 
    "dat23/DPR23999A", 
    "dat24/DPR24999A" 
), 
    ".htm", 
    sep = "" 
) 

我想要做的是在一个或多个创建运行在所有URL的readHTMLTable功能的功能,并存储在一个向量或数据帧的结果(,无论是更容易)。我对R很新,而且我在功能上特别糟糕。我试过类似...

tabla<- for (i in urls){ 
     readHTMLTable(urls) 
     } 

...但它甚至不是很接近。

回答

3

最基本的方法,使用循环。这仅包含您在for内提供的代码。

tabla <- list() 
for(i in seq_along(urls)) 
{ 
    total <- readHTMLTable(urls[i]) 
    n.rows <- unlist(lapply(total, function(t) dim(t)[1])) 
    tabla[[i]] <- as.data.frame(total[[which.max(n.rows)]]) 
} 

更优雅的方法,使用lapply。现在,提供的代码被放入一个函数中,每个url都被调用。

tabla <- lapply(urls, function(url) { 
    total <- readHTMLTable(url) 
    n.rows <- unlist(lapply(total, function(t) dim(t)[1])) 
    as.data.frame(total[[which.max(n.rows)]]) 
}) 
+0

非常感谢,非常感谢! –

+0

打勾小勾,给洪Ooi一些点,这将标记此答案为答案.... – Spacedman

+0

在那里,我标记的答案被接受。我不能给Hong Ooi点,我需要15点的声望:(谢谢 –

2

下面是使用plyr package.Note另一种方法,这种解决方案能够自动提取的您有兴趣从页面,然后通过这些链接收集所有你感兴趣的表遍历链接列表。

library(XML); library(plyr) 

# PARSE WEBPAGE INTO DOC 
url <- "http://www.elecciones2011.gob.ar/paginas/paginas/dat99/DPR99999A.htm" 
doc <- htmlParse(url) 

# EXTRACT LINKS OF INTEREST AND CREATE ABSOLUTE PATHS 
links <- xpathSApply(doc, "//div[@id = 'divindex']//a", xmlGetAttr, 'href') 
links <- gsub("..", 'http://www.elecciones2011.gob.ar/paginas/paginas', links, 
    fixed = T) 

# EXTRACT TABLES OF INTEREST FROM LINKS 
tables = llply(links, function(l) readHTMLTable(l)[[3]], .progress = 'text')