代理抓取RSS信息

最近工做很闲,就本身写了一个能够看RSS订阅的网站。话说,RSS阅读器处处都是,随便下一个就能够了,为何还去作一个网站形式的呢?做为一个热(xian)爱(de)前(dan)端(teng)的程序员,我就是这么任性。其实网站形式的RSS阅读器仍是有必定问题的,那就是浏览器的跨域机制。由于数据来源于本身没法控制的第三方,全部普通的跨域解决方法是没法使用的。最后仍是采用代理的形式来作,这好像和网络爬虫相似。这个网站是放在新浪云上的。最开始是用java写的后端的,奈何新浪云中JVM太贵了,像我这种苦逼程序员只能用免费的。因此最后忍痛使用python了。新浪送的2000豆,够我用10年。原本还想用百度云上的nodejs的,这个和我前端身份很搭的,但是百度太抠,一天就要收我1块钱,并且我在免费期也没有把怎么在上面用node搞懂。对于nodejs,我还停留在初级阶段,就只会用用工具或者在框架上写写代码。php

对于python,大学的时候捣鼓过一段时间,如今基本全忘了。为了简单,就使用了web.py框架。可是因为web.py自带过滤机制(最开始不知道,浪费了我好多时间),对于每一个请求都要配置路由(?),不然就只有放入static文件夹中,这样用起来太麻烦了,做为前端,后端的安全性问题我才无论(求老板不打我)。因此我又创建一个PHP项目(便宜)用来放置前端资源文件。最后使用jsonp跨域获取后端数据。话说,jsonp对于能同时控制两个站点项目来讲,用起来真的很方法,可是约定callback有点蛋疼(一个页面不能有多个名字相同的callback,由于callback本质是执行函数的函数名,若是后端返回的多个callback相同,对于前端来讲,其实就是有多个函数名相同的函数供调用。),因此通常应该不多用吧。这个网站看起来仍是挺简单的,可是开发中遇到了不少坑,前端经验太少了,最近老大又让我写java,甚至有时还要搞C#,蛋疼啊。我只想作个安静的前端!!!写写js,搞搞移动端,那才是个人梦啊。下面上个这个网站的截图,其中的坑下次再写吧。对了,这个只是我本身用的,非商用,请不要说我侵犯版权。前端