本来数据库空间就50M,看写了3篇日志,数据库就用了0.64M,照这么发展下去,2000篇短日志估计就得满了,虽然这达到2000篇的时间还及其漫长,但心里还是纳闷,3篇日志的字节数0.1M都不够嘛,剩下的0.54M干吗去了?带着这个疑问,我用phpMyAdmin查看了下mysql里面的数据,原来wp_posts表里面存了很多自动保存的日志跟存档日志,而这些日志默认是不会被删除的,执行SELECT COUNT( * ) FROM “wp_posts” 结果是23。呵呵,22篇日志里面真正有用的日志才3篇,自然数据库就显得臃肿了。
五一最后一天,跟着了魔似的,一门心思宅在寝室整博客。好久没有现在这样的劲头了,跟去年天天在公司加班到很晚写Qt程序有得一拼。收获很多,页面基本汉化完毕,加了很多实用的插件,最关键的是优化了SEO,希望谷歌百度大哥能买我的帐吧。
以前就很关注网络爬虫这玩意儿,总觉得这里面技术含量比较高,对那些做网络爬虫的伙计尤为敬佩。SEO要做的就是帮我们勤劳的小爬虫指路,网站里一大堆文件,为了让小爬虫尽快找到有价值的网页信息,我们必须把网站目录下无关的文件告诉小爬虫,可是小爬虫不懂俺们人类的语言,自然得有一套规范的协议(小爬虫世界的语言)跟它们交流,这种语言便是robots语法,它依附于robots.txt文件。
文章分类 : 网络
五一假期的第一天,北京天空灰蒙蒙的,大风夹着沙尘,我还是乖乖的宅在寝室里比较靠谱。最想做的事情便是捣鼓新建的这块小天地了。易库网的试用空间用五六天了,作为香港的主机,省去了国内空间备案的烦恼,又不用去忍受美国空间蜗牛般得速度,整体感觉不错,昨天晚上看到又看到易库网五一促销——全部半价,100M的空间才55RMB,果断下手了。