公司名称: |
北京知道创宇信息技术有限公司 |
职位名称: |
开发研究 |
招聘人数: |
- |
工作地点: |
北京、成都 |
薪水待遇:* |
7-15万/年 |
职位描述: |
基本要求:
会翻墙查资料
2年以上工作经验,10000行以上编程实践经验(Windows程序不算、HTML/CSS代码不算,实习要求5000行以上编程经验)。
工作岗位:
(1) Linux极客:
能熟练使用Linux、会Shell编程、会使用Vim,能熟练使用C/C++/Python/Java/Perl中任何一门。
(2) WEB开发极客:
能熟练使用Linux、会Shell编程、会使用Vim,能熟练使用JavaScript,手写HTML/CSS;能熟练使用PHP/JSP/Python中任何一门;
熟悉jQuery,node.js,MongoDB者优先;
(3) 安全攻城师:
熟悉SQL注入、跨站脚本、最新CMS系统安全漏洞,熟练使用常用渗透测试工具,熟悉防火墙配置,有实际渗透测试经验;
除JavaScript极客外,其他岗位都需要在提交简历时附带下面题目的答案:
使用python编写一个网站爬虫程序,支持参数如下:
spider.py -u url -d deep -f logfile -l loglevel(1-5) --testself -thread number --dbfile filepath --key=”HTML5”
参数说明:
-u 指定爬虫开始地址
-d 指定爬虫深度
--thread 指定线程池大小,多线程爬取页面,可选参数,默认10
--dbfile 存放结果数据到指定的数据库(sqlite)文件中
--key 页面内的关键词,获取满足该关键词的网页,可选参数,默认为所有页面
-l 日志记录文件记录详细程度,数字越大记录越详细,可选参数,默认spider.log
--testself 程序自测,可选参数
功能描述:
1、指定网站爬取指定深度的页面,将包含指定关键词的页面内容存放到sqlite3数据库文件中
2、程序每隔10秒在屏幕上打印进度信息
3、支持线程池机制,并发爬取网页
4、代码需要详尽的注释,自己需要深刻理解该程序所涉及到的各类知识点
5、需要自己实现线程池
提示1:使用re urllib/urllib2 beautifulsoaup/lxm2 threading optparse Queue sqlite3 logger testdoc等模块
提示2:注意是“线程池”而不仅仅是多线程
提示3:爬去sina.com.cn两级深度要能正常结束
建议程序可分阶段,逐步完成编写,例如:
版本1:Spider1.py -u url -d deep
版本2:Spider3.py -u url -d deep -f logfile -l loglevel(1-5) --testself
版本3:Spider3.py -u url -d deep -f logfile -l loglevel(1-5) --testself -thread number
版本4:剩下所有功能 |
联系人: |
yang [at] scanv.com |
联系电话: |
|
电子邮箱: |
|
QQ/MSN: |
|
公司网址: |
http:// |
公司介绍: |
关于知道创宇:
知道创宇成立于2007年8月,是国内最早专注于提供Web安全解决方案的自主创新型企业之一。总部设在中国北京,在香港设有分公司,在上海、成都设有分支机构,客户及合作伙伴涵盖中国、美国、日本、韩国。作为美国微软在中国唯一的安全服务提供商,我们追求卓越的WEB安全技术,致力于为网站提供安全产品、SaaS服务,让网站更安全,为中国互联网的信息安全贡献我们的一份力量。 |
其它信息:
我们深信优秀的工程师才是我们成长的源动力,我们渴求真正热爱编程,有强烈进取心、强烈好奇心、超强动手能力的牛人。我们鼓励创新;鼓励使用Linux;鼓励开源精神;我们提倡敏捷;实践敏捷。
我们虽然只能为你提供7-15万的年收入,但我们能为你提供一个追求技术与梦想的乐园,这里没有任何官僚气息,这里有弹性工作时间;浓厚的技术氛围;双显示器办公;随时报销计算机图书购买费用;每天的水果与酸奶;业余爱好组(如游戏休闲/人工智能)等等。
办公地点:北京 / 成都
基本要求:
会翻墙查资料
2年以上工作经验,10000行以上编程实践经验(Windows程序不算、HTML/CSS代码不算,实习要求5000行以上编程经验)。
工作岗位:
(1) Linux极客:
能熟练使用Linux、会Shell编程、会使用Vim,能熟练使用C/C++/Python/Java/Perl中任何一门。
(2) WEB开发极客:
能熟练使用Linux、会Shell编程、会使用Vim,能熟练使用JavaScript,手写HTML/CSS;能熟练使用PHP/JSP/Python中任何一门;
熟悉jQuery,node.js,MongoDB者优先;
(3) 安全攻城师:
熟悉SQL注入、跨站脚本、最新CMS系统安全漏洞,熟练使用常用渗透测试工具,熟悉防火墙配置,有实际渗透测试经验;
除JavaScript极客外,其他岗位都需要在提交简历时附带下面题目的答案:
使用python编写一个网站爬虫程序,支持参数如下:
spider.py -u url -d deep -f logfile -l loglevel(1-5) --testself -thread number --dbfile filepath --key=”HTML5”
参数说明:
-u 指定爬虫开始地址
-d 指定爬虫深度
--thread 指定线程池大小,多线程爬取页面,可选参数,默认10
--dbfile 存放结果数据到指定的数据库(sqlite)文件中
--key 页面内的关键词,获取满足该关键词的网页,可选参数,默认为所有页面
-l 日志记录文件记录详细程度,数字越大记录越详细,可选参数,默认spider.log
--testself 程序自测,可选参数
功能描述:
1、指定网站爬取指定深度的页面,将包含指定关键词的页面内容存放到sqlite3数据库文件中
2、程序每隔10秒在屏幕上打印进度信息
3、支持线程池机制,并发爬取网页
4、代码需要详尽的注释,自己需要深刻理解该程序所涉及到的各类知识点
5、需要自己实现线程池
提示1:使用re urllib/urllib2 beautifulsoaup/lxm2 threading optparse Queue sqlite3 logger testdoc等模块
提示2:注意是“线程池”而不仅仅是多线程
提示3:爬去sina.com.cn两级深度要能正常结束
建议程序可分阶段,逐步完成编写,例如:
版本1:Spider1.py -u url -d deep
版本2:Spider3.py -u url -d deep -f logfile -l loglevel(1-5) --testself
版本3:Spider3.py -u url -d deep -f logfile -l loglevel(1-5) --testself -thread number
版本4:剩下所有功能
以上题目事实上也是知道创宇技术岗位内部题目,入职第一周会再次考本题目,完不成将面临淘汰。你可以通过看书、上网查资料、请教高人等任何方法完成,时间不限。
如果你对我们职位感兴趣,如果你想挑战自我,如果你想加入新一代的互联网安全企业,和我们一起拼搏,可以将自己的简历、最近的一张生活照、上述题目答案一并发到: yang [at] scanv.com
期待你的来信。
[注意]传递专业知识、拓宽行业人脉——看雪讲师团队等你加入!