2016年终碎碎念

  恍惚之间,2016已通过去了。回想起来,2016过得很漫长又很短暂。不开心的日子不少,煎熬很漫长。想到本身的收获时,又以为时间过得那么快,虚度了光阴。不管如何,仍是好好总结一波,争取2017有所进步。css

## 1月与2月html

  1月份基本在期盼着回家中虚度,几乎啥也没干,2月份在家没有网,也没带书回去,天天好吃懒作。总而言之就是荒废了两个月。前端

## 3月html5

  3月参加了百度的ife前端技术学院,在微博上跟几个不认识的人一块儿组了队。第一阶段主要是html和css,跟着任务算是对html五、语义化还有基本的css有了了解。也知道了什么圣杯、双飞燕布局,负边距和浮动的清除,flexbox、bfc之类的,惋惜因为电脑太卡,人也很懒,看到有psd切图就没有坚持下去。第二阶段是一些js的小实践,像排序的可视化之类的。虽然对各类排序挺熟悉的,可是要每一步均可视化仍是颇有挑战。此外,因为队友以前缺乏编程经验,ife课程也比较紧,因此这一块没有跟上,交流也少了,本身也没坚持。另外一方面,我也以为前端须要设计感,而我又很欠缺。除了一堆广告的页面以外,我基本分辨不出哪一个页面或者app的ui设计很好。因此就没有继续。java

## 4月算法

4月不记得干吗了,多是在给实验室写报告吧。。反正那个报告写得我很怀疑人生,几乎每一句都是从网上的论文找的而后花式改编,糅合在一块儿。4月就算荒废了吧。数据库

## 5月和6月编程

  这两月在coursera上跟了吴恩达的机器学习课程(不太记得几月份开始的了,花了一周左右的时间吧。。我这记性不会老年痴呆吧)。总的来讲基本原理讲得很清楚,听起来也挺享受的,编程做业也不难,基本框架都有,有些周基本是两三行代码就搞定。可是对矩阵和matlab不是很熟,基本的matlab语句都是直接搜索而后改的。对我来讲,比较模糊的地方是一些模型的选择,整个流水线工程的改进之类的,当时主要精力集中在具体的模型了,有点naive了。网络

  此外就是毕设了。毕设基本就是扯淡,随便用了几个小单片机,而后用matlab照着别人论文作了数值仿真。倒霉的是开题、中期答辩和最后查重都被抽中了(每项只有10%的抽查啊,这命中率你相信是随机的?)因为内容很虚,我又脸皮薄,不会表达,因此很紧张。不过最后挺顺利的,貌似仍是优秀论文。。闭包

  娱乐方面,快毕业了6月份常常跟着同窗一块儿撸串,一块儿去了北戴河。和实验室的师兄师姐去了西安和成都。还挺丰富的。毕业的时候仍是挺感慨的,自由的大学四年就这么过去了,仍是有着很多遗憾吧。。有个小插曲是,因为比较郁闷,还有本身做死,寝室聚餐时一次干了一大杯白酒,而后就全部记忆断片了,彻底不省人事,疯狂吐槽,说了一堆内心话(好羞耻啊啊啊啊啊啊啊,不忍回想)。

## 7月

7月学校在老板的主张下搞了个什么研究生暑期学校,被强留下来上课顺便搬砖干活。跟着同窗选了个台湾的老师的凸优化。因为时间比较紧,只有七、8天左右的早上上课,而我早上永远没睡醒,再加上矩阵论的彻底忘了。。。因此后面也没怎么听。不过考试前自习了一下,看了一点stanford的公开课,再加上毕设也用到了一点凸优化的东西,感受凸优化仍是挺有用的。

## 8月

8月回家了,基本回家就不怎么动弹,也不干家务,算是荒废了吧。

## 9月

  9月看了一点java并发、jmm之类的书和论文,看得比较粗糙,什么happens before、顺序一致性如今也快忘了。而后8月份跟了coursera上传说中的UW神课programming language。然而因为家里没网错过了partA。因而在9月底一直在补视频。

## 10月

  10月把programming language的3个部分一块儿刷完了,总的来讲很是赞,感受多是本身2016最大的收获了。课程从很函数式的静态语言SML入手,到动态的racket,再到纯oop的动态语言Ruby。主要介绍了词法做用域和闭包等一系列概念,介绍了pattern match、currier、stream、generic、subtyping等相关的idioms,也介绍了oop相关的继承、this指针,动态分配、double dispatch等概念。比较了静态语言和动态语言的优缺点,对type system进行了简单的分析,对比了fp和oop在分解问题上大相径庭的两种思路。因为以前本身自学过一点haskell,因此学起来还好,编程做业难度也适中,其中有一周做业是用Racket实现了一门支持闭包的小语言,很是赞,对闭包也有了更深了解。

## 十一、12月

  11和12月主要跟着选的课配合《统计学习方法》学了机器学习相关的知识。其中一门是跟着PRML的思路,另外一门是跟stanford的cs229的思路。对PRML的主要印象就是各类各样的从最大似然几率改进为贝叶斯,贯穿了整本课程。stanford的课比起coursera来讲难了很多,更加理论,后半学期老师还让他的研究生上去讲神经网络的具体应用(CNN、RNN、LSTM、Dropout、BatchNormalization和GAN等)。惋惜的是两门课都没怎么认真听,如今感受还挺遗憾的。

  (差coursera、听讲座)

## 展望

  综上,2016虽然零零碎碎学了一些知识,但效率实在不高,浪费了好多时间。拖延症也很严重(好比年终总结拖到如今,coursera上的算法课第三次了还没学完),每次都是过去了才后悔(每次快结课才以为卧槽这门课这么有意思,早知道好好听了)。但愿2017可以:

  1. 治好拖延症(只要解决了这条我就很满意了。。)
  2. 注意身体,正常饮食,少熬夜(主要仍是拖延症)
  3. 好好学习,多对机器学习进行实践,都恶习深度学习,看一下NLP方面的。
  4. 好好作算法题。
  5. 学好数据库和操做系统。

近期具体一点的有(一月份和寒假作完):

  1. coursera算法课上完
  2. MIT的线性代数看完并总结,作一下课后题。
  3. 作完《挑战程序设计竞赛》或刷完leetocde简单难度。
  4. 把主要的机器学习算法手动实现一遍,抓点数据应用。
  5. 看一下stanford cs231n 或cs224d。
  6. 实验室项目抓紧作一下,快年终总结了。
相关文章
相关标签/搜索