分类目录
-
近期文章
近期评论
- Dillon 发表在《Mac OS代理工具Proxifier》
- RobertFluch 发表在《Bash Shell 快捷键》
- brew 不可用,重新安装 发表在《Mac下删除自己安装的Python》
- 子陵 发表在《Mac下删除自己安装的Python》
- Yucun 发表在《Mac下删除自己安装的Python》
文章归档
标签
7-zip 7zx active record CentALT cookie crontab dreamhost eclipse EPEL fast GarageBand google hyk-proxy LITTECMS mail mysql2 MySQLdb netgear nginx office PIL ports Proxifier pydev python readability requests sleep timeout torrent ubuntu unicorn urllib2 urlopen web.py yum zoc 下载 二笔 亿恩科技 吉他 睡眠 编码 路由 郑州景安
Monthly Archives: 三月 2012
web.py中获取当前url路径
web.ctx.homepath + web.ctx.fullpath 如果只使用web.ctx.fullpath的话,在有subapplications的应用中就不对了,在subapplications中web.ctx.fullpath是相对于当前的subapplications的,不是全部的路径 看看web.py的源代码就清楚了,下面是web.ctx的初始化代码: ctx.homedomain = ctx.protocol + ‘://’ + env.get(‘HTTP_HOST’, ‘[unknown]‘) ctx.homepath = os.environ.get(‘REAL_SCRIPT_NAME’, env.get(‘SCRIPT_NAME’, ”)) ctx.home = ctx.homedomain + ctx.homepath ctx.realhome = ctx.home ctx.ip = env.get(‘REMOTE_ADDR’) ctx.method = env.get(‘REQUEST_METHOD’) ctx.path = env.get(‘PATH_INFO’) # http://trac.lighttpd.net/trac/ticket/406 requires: if env.get(‘SERVER_SOFTWARE’, … Continue reading
python requests处理cookie中的一个bug
最近使用pyhton requests库,还不错,很好用,不过在处理cookie的时候有个问题,害我折腾半天 如果一个页面写了2个同名的cookie,但是path是不一样的,python requests只会保留最后一个cookie,也就是说requests不能处理这种同名cookie但path不一样的情况,这是由于requests在保存cookie的时候是使用dict,我想使用cookiejar的话就不会有这种问题了
昨天是正是失业的日子,从昨天起就不用上班了,3月21号,休息休息
fast, tp-link, 水星, d-link, netgear, linksys, 我选择了netgear
一直用着fast fw54r路由,也挺好,没啥问题,但最近需要频繁的adsl断网再拨号,在这个过程中,这个路由经常宕机,害得我得一会看一下电脑,晚上更是别提了,一早上发现程序终止运行,网络不通,所以决定换一个路由 经过比较fast, tp-link, 水星这3个品牌还真是一家的,出了外观不一样外,其它多是一样一样的,web管理界面也只是换了个logo而已,不过他们的外观做工还是有区别的,fast最次 最后选择了netgear WGR614v10,又是经过比较,在amazon.cn下单,今天收到,做工比之前的fast强多了,换上之后摸索一会,发现软件方面比fast少了个功能,断开后自动连接,fast的软件设置一下,断开之后可以自动连接网络,这个就不行了,必须还的再点连接,这样,我的软件实现断开连接就多了一步,额,改改去
urllib2.urlopen处理gzip数据
某些网站不管的请求头部带不带 Accept-Encoding:gzip 他都返回gzip压缩过的内容,也就是返回的头部都带有 Content-Encoding:gzip 对于这种网站在使用urllib2.urlopen获取数据时候由于urlopen不会自动处理gzip,得到的都是乱码,让人难以看懂的内容 对付这种情况就需要我们单独处理 f = urllib2.urlopen(url) headers = f.info() rawdata = f.read() if (‘Content-Encoding’ in headers and headers['Content-Encoding']) or \ (‘content-encoding’ in headers and headers['content-encoding']): import gzip import StringIO data = StringIO.StringIO(rawdata) gz = gzip.GzipFile(fileobj=data) rawdata = … Continue reading
urllib2.urlopen方法的url中文编码问题
在urllib2.urlopen的文档中并没有提及url编码的问题,但实际使用中肯定会发现当url包含中文时会有编码异常 在实验多次之后发现只需要将传入urlopen的url编码为utf-8即可,不能是unicode哦,也不需要再做unquote处理
从Mac中删除Google Software Update
之前安装了个GAE,结果经常提示更新,把GAE删了之后Google Software Update还在,要删除Google Software Update在终端里面执行下面命令即可 ~/Library/Google/GoogleSoftwareUpdate/GoogleSoftwareUpdate.bundle/Contents/Resources/GoogleSoftwareUpdateAgent.app/Contents/Resources/install.py –uninstall 和 sudo /Library/Google/GoogleSoftwareUpdate/GoogleSoftwareUpdate.bundle/Contents/Resources/GoogleSoftwareUpdateAgent.app/Contents/Resources/install.py –uninstall
readability的python实现
readability能获取大部份网页的主要内容,这个算法很cool,学习了一下,就写了个python版的实现,之前找过python版的实现,但都是比较老的基于0.4的,现在都1.7.1了 写了之后就有人给我要这个代码,放github给大家用吧 https://github.com/kingwkb/readability demo: http://yanghao.org/tools/readability
ubuntu常用软件
用ubuntu也有一些时间了,常用软件记录下 青松二笔输入法(ibus) gftp pycharm netbeans vlc kiki google chrome dropbox gimp remmina rapidsvn 自带的不就写了,足够满足工作,简单娱乐需求,不过操作体验gnome还是和mac有一定差距的。
Posted in Linux
Leave a comment