Python网络数据采集
Ryan Mitchell
陶俊杰, 陈小莉 译
出版时间:2016年03月
页数:200
网络上的数据量越来越大,单靠浏览网页获取信息越来越困难,如何有效地提取并利用信息已成为一个巨大的挑战。本书采用简洁强大的Python语言,全面介绍网络数据采集技术,教你从不同形式的网络资源中自由地获取数据。你将学会如何使用Python脚本和网络API一次性采集并处理成千上万个网页上的数据。
本书适合熟悉Python的程序员、安全专业人士、网络管理员阅读。书中不仅介绍了网络数据采集的基本原理,还深入探讨了更高级的主题,比如分析原始数据、用网络爬虫测试网站等。此外,书中还提供了详细的代码示例,以帮助你更好地理解书中的内容。
通过阅读本书,你将能够:
· 解析复杂的HTML页面
· 遍历多个网页和网站
· 了解API的基本概念和工作原理
· 学习存储数据的方法
· 下载、读取并抽取网络文档中的数据
· 使用工具和方法清洗格式异常的数据
· 读取并处理自然语言
· 越过表单和登录窗口采集数据
· 学习采集JavaScript的方法
· 学习图像处理和文字识别方法
  1. 译者序 
  2. 前言  
  3. 第一部分 创建爬虫
  4. 第1章 初见网络爬虫 
  5. 1.1 网络连接 
  6. 1.2 BeautifulSoup简介  
  7. 1.2.1 安装BeautifulSoup  
  8. 1.2.2 运行BeautifulSoup  
  9. 1.2.3 可靠的网络连接
  10. 第2章 复杂HTML解析
  11. 2.1 不是一直都要用锤子
  12. 2.2 再端一碗BeautifulSoup 
  13. 2.2.1 BeautifulSoup的find()和findAll() 
  14. 2.2.2 其他BeautifulSoup对象
  15. 2.2.3 导航树
  16. 2.3 正则表达式
  17. 2.4 正则表达式和BeautifulSoup 
  18. 2.5 获取属性 
  19. 2.6 Lambda表达式 
  20. 2.7 超越BeautifulSoup 
  21. 第3章 开始采集  
  22. 3.1 遍历单个域名
  23. 3.2 采集整个网站
  24. 3.3 通过互联网采集
  25. 3.4 用Scrapy采集
  26. 第4章 使用API 
  27. 4.1 API概述
  28. 4.2 API通用规则
  29. 4.2.1 方法
  30. 4.2.2 验证
  31. 4.3 服务器响应
  32. 4.4 Echo Nest  
  33. 4.5 Twitter API 
  34. 4.5.1 开始
  35. 4.5.2 几个示例
  36. 4.6 Google API  
  37. 4.6.1 开始
  38. 4.6.2 几个示例
  39. 4.7 解析JSON数据
  40. 4.8 回到主题
  41. 4.9 再说一点API 
  42. 第5章 存储数据
  43. 5.1 媒体文件
  44. 5.2 把数据存储到CSV  
  45. 5.3 MySQL  
  46. 5.3.1 安装MySQL 
  47. 5.3.2 基本命令
  48. 5.3.3 与Python整合
  49. 5.3.4 数据库技术与最佳实践
  50. 5.3.5 MySQL里的“六度空间游戏” 
  51. 5.4 Email
  52. 第6章 读取文档
  53. 6.1 文档编码
  54. 6.2 纯文本
  55. 6.3 CSV
  56. 6.4 PDF 
  57. 6.5 微软Word和.docx 
  58. 第二部分 高级数据采集
  59. 第7章 数据清洗
  60. 7.1 编写代码清洗数据
  61. 7.2 数据存储后再清洗
  62. 第8章 自然语言处理
  63. 8.1 概括数据
  64. 8.2 马尔可夫模型
  65. 8.3 自然语言工具包
  66. 8.3.1 安装与设置
  67. 8.3.2 用NLTK做统计分析
  68. 8.3.3 用NLTK做词性分析
  69. 8.4 其他资源
  70. 第9章 穿越网页表单与登录窗口进行采集
  71. 9.1 Python Requests库
  72. 9.2 提交一个基本表单
  73. 9.3 单选按钮、复选框和其他输入
  74. 9.4 提交文件和图像
  75. 9.5 处理登录和cookie  
  76. 9.6 其他表单问题
  77. 第10章 采集JavaScript 
  78. 10.1 JavaScript简介
  79. 10.2 Ajax和动态HTML 
  80. 10.3 处理重定向
  81. 第11章 图像识别与文字处理
  82. 11.1 OCR库概述
  83. 11.1.1 Pillow  
  84. 11.1.2 Tesseract 
  85. 11.1.3 NumPy  
  86. 11.2 处理格式规范的文字  
  87. 11.3 读取验证码与训练Tesseract  
  88. 11.4 获取验证码提交答案
  89. 第12章 避开采集陷阱
  90. 12.1 道德规范
  91. 12.2 让网络机器人看起来像人类用户
  92. 12.2.1 修改请求头
  93. 12.2.2 处理cookie  
  94. 12.2.3 时间就是一切
  95. 12.3 常见表单安全措施
  96. 12.3.1 隐含输入字段值
  97. 12.3.2 避免蜜罐
  98. 12.4 问题检查表
  99. 第13章 用爬虫测试网站
  100. 13.1 测试简介
  101. 13.2 Python单元测试
  102. 13.3 Selenium单元测试
  103. 13.4 Python单元测试与Selenium单元测试的选择
  104. 第14章 远程采集
  105. 14.1 为什么要用远程服务器
  106. 14.1.1 避免IP地址被封杀
  107. 14.1.2 移植性与扩展性
  108. 14.2 Tor代理服务器
  109. 14.3 远程主机
  110. 14.3.1 从网站主机运行
  111. 14.3.2 从云主机运行
  112. 14.4 其他资源
  113. 14.5 勇往直前
  114. 附录A Python简介
  115. 附录B 互联网简介
  116. 附录C 网络数据采集的法律与道德约束
书名:Python网络数据采集
作者:Ryan Mitchell
译者:陶俊杰, 陈小莉 译
国内出版社:人民邮电出版社
出版时间:2016年03月
页数:200
书号:978-7-115-41629-2
原版书书名:Web Scraping with Python: A Comprehensive Guide to Data Coll
原版书出版商:O'Reilly Media
Ryan Mitchell
 
Ryan Mitchell是数据科学家、软件工程师,目前在波士顿LinkeDrive公司负责开发公司的API和数据分析工具。此前,曾在Abine公司构建网络爬虫和网络机器人。她经常做网络数据采集项目的咨询工作,主要面向金融和零售业。另著有Instant Web Scraping with Java。