不想码代码

大概从大三上学期经历了三个大作业加上实验室的洗礼之后,我就变得十分不喜欢码代码了。

那个寒假我看了很多书,用读书来掩盖已经厌恶码代码的事实;到了大三下学期,除了各种需要码代码的作业,其他真的几乎啥都没有码,与一年前截然不同。

记得大二的下学期,除了课上要写的代码以外,我还写了一个安卓小游戏,五个WP应用,然后写了传说中的动态二维码。暑假一边干着百度的活,一边在又热又不能保证每天洗澡的21号楼码动态二维码的第二个版本——当时的我觉得这辈子码的最优美的代码。

现在完全没有当时的热情了,只有在码scala语言的代码时还能找到一点点兴趣。虽然我打着机械键盘,坐在了有着空调和机柜冷热互补的实验室里,用着在两个显示屏上显示着的Linux Mint,开机之后用Win+E打开Eclipse,Win+C打开Chrome,Win+D打开Douban FM,Win+F打开文件管理器,

然后肆无忌惮的用Chrome刷人人,刷TheOldReader,刷Zhihu,刷贴吧,刷人人,……直到吃饭,睡觉。

我不知道这是为什么。就是不想码代码。可是实验室有活一直在催,实习也即将有活,大MSRA系统组看起来也是个码农组,不码代码是万万不可的。

“把兴趣当作工作,是兴趣最好的坟墓。”

求解救。

搞一个新的程序设计语言?

当了好多年的码农,有时候真的想搞一个完美的程序设计语言一直用下去。去年编译原理大作业让我的这个愿望更加清晰了一些,但是现在又有些退缩了。学到的越多,越不敢去创造。

但是实验室的活儿只能用Java与C++,课堂里的东西呢?也是Java, C#, C++, 顶多在上学期有一门Ruby的课程,我还没选。所以到现在,上面的愿望就愈加模糊了——没有用处的语言,造它何用?

不过还是想写一下我使用过的语言的各种缺陷和我的构思,希望有朝一日这样的新的程序设计语言能够成真。

1. 不要禁锢在面向对象里。典型的语言就是Java与C#,任何一个东西,变量、类、函数等等都要被包含在一个类里,每个类还必须单独在一个单独的文件里(Java)。

在OOP的课里,我们以用更多的类、有更多的文件和代码行数为荣。现在看来,真是太可笑了。OOP确实给大项目带来了很多方便之处,但是也让项目无从下手。

比类要细化一些的大概就是函数了,这也是我最近很迷恋FP的原因。而且,如果你愿意,FP也可以当OOP来用。

Java支持FP看来是无望了,这样一个庞然大物太难以改变了。Scala是个有前途的语言,但也不是个好语言,虽然很多特性让我眼前一亮,但是它是OOP向FP的妥协,让人感觉不伦不类,如同C++一样。但是C++有高性能,Scala有么?

所以我心目中的语言,代码的单位一定是函数。

2. 语法可以自己定义。很多语言有很多语法,比如说C#,我从它的1.1用到了现如今的4.5,语法多了不少。如lambda表达式省掉了delegate,var,async/await等。但是人和人的想法是不一样的,如果我们可以自定义自己的语法该多好。比如说我十分想在C++里用一种非常优美的方式实现可变参数,如这样:

int sum(int x){return x;}

int sum(int x, ...){

return sum(...)+x;

}

当然这是不可能的,哪怕动用C++的宏和模版也是不可以的。据说lisp的宏是比C++的宏可怕的多的东西,可以定制一切,大概就可以自己搞搞让它支持这种语法吧。

3. 面向人类语言的语法。据说,lisp是一个评价很高的语言。我在寒假看了《计算机程序的构造和解释》,发现它确实非常牛,是属于语法非常少、功能非常强、而且可定制化的典型语言,而且还是函数式的。但是,一般人不会使用它,因为它的语法一般人忍不了。

现如今的语言都往人类语言的方向发展,如python,写起来的代码就像说话一样。比如说

a,b=c,d

这样的语法是我在Java/C#里梦寐以求的。

面向人类语言也就意味着语法分析、词法分析将变得很困难,就像lisp根本就不需要语法分析器一样。

4. 面向IDE。语言不能少了IDE,虽然有很多装逼和牛逼的人会说那是你能力太弱。和上一点一样,语言是面向人类的,不是面向机器的。语言的发展不是为了那些装逼的和牛逼的人,而是为了更广大的劳苦码农们。这方面比较好的是C#,配合Visual Studio简直太完美了,不过最近加入了一些动态语言的东西导致VS有时也不这么靠谱。

另一方面,弱化类型也是我想要的。如Java里定义一个函数,类型就要写半天。如果可以省略类型该多好。但是这样IDE的语法提示就少了很多。

5. 冗余要少。我想到最近写的东西,就会发现,好多冗余的东西啊。比如说,Java里,每个代码文件开头的那堆import. 这些东西当然有用,但是,如果这个世界(这个程序的包)里只有一个叫做xxx的类,我为何还要费劲的import它?又比如Java的输入输出,当年搞ACM的时候简直对这个输入输出太有意见了,虽然是使用了Adapter的设计模式,看起来很高端大气上档次的样子,但是冗余太多了啊!为了输入个数字搞这么多代码干啥?

6. 面向并行计算。现如今的大部分语言还是要显式的搞thread啊,mutex啊之类的东西,好麻烦,而且还不能适配CPU的个数。最近在看《并发的艺术》,发现为了个并发会有这么一本书的算法,真是不明觉厉。对于分布式,更是有一堆connection,错误处理之类的东西,为了简单的一个功能(如分布式队列)却要写上千行的代码。

对于immutable的语言,比如说纯函数式语言,貌似确实可以很容易的支持并行计算,但是也不能做到适配CPU的个数。对于支持actor模型的语言,如scala,看起来很容易做到适配CPU个数,但是对于现有的代码和设计方法也需要重构才行。

7. 编译(解释)、调试简单。还是有很多牛逼或者装逼的人推荐使用gcc+gdb编译和调试cpp程序,但是我依然一直在使用的是VS的编译调试功能,确实好用。相反,我一直找不到如何不用VS对C#程序进行调试。 又如, Java的java.exe和javac.exe我一直不知道他俩的区别。

我心目中的简单的编译器,它绿色环保跨平台,只有一个可执行文件,它可以接受一个像人类语言的参数或输入,去执行我们想要的东西。

8. 支持reactive programming. Reactive Programming是我梦寐以求的东西,比如说Excel,一个数据变化会引起一连串的数据的变化。这个功能在有用户界面的程序上用处相当大。

当然支持RP了就肯定不是immutable了,所以需要好好设计一下。

9. Lazy Evaluation. Lazy的思想应该不只在lisp这样以列表为主要结构的语言中。用好了lazy可能会极大地提升效率。

如,一些函数是纯函数式的,也就是说,一样的输入在任何时候都会得到同样的输出。这样的函数完全可以弄成Lazy化的——如果这个函数需要很大的计算量,那么可以在计算完第一次后,将输入作为key,输出作为value存储到一个NoSQL数据库中作为cache。这种需求很大,现在的情况是,NoSQL很火,但是程序员仍然要像操作SQL语言一样操作NoSQL数据库,将数据库整合到语言里不是很好么?

10. 让垃圾回收更加智能。最近在开发Android应用,发现它的垃圾回收简直太慢了,Java还只支持在堆里分配空间,实在是太不爽了。Java、C#之类的语言之所以效率较低有一个原因就是自动垃圾回收。这个暂时还没想到啥好的解决方法。

十大计划

从即日起我决定完成以下十大计划:

1. 跑步计划:平均每两天跑一次,800-1000米,达到跑完1000米后不喘的效果;

2. 吃水果计划:每天吃一个水果;

3. 早起计划:每天早上8点前起床,由于课程坑爹,这个计划是必须要实现的;

4. 论文计划:2013年发表一篇论文;

5. 背英语计划:以平均每天20个新单词的数量背英语单词;

6. 买手机计划:在上半年买一部高端手机;

7. 函数是语言计划:用函数式语言写一个真正的项目;

8. GIT计划:将自己以前搞的大部分小软件搞到GIT上开源;

9. 喝汤计划:每天晚饭在食堂吃的话配一碗汤;

10. 写博客计划:每月至少一篇技术文章。

2012

2012年是我码代码最多的一年。1个android小游戏+5个wp7水应用+DynamicCode第一版+BrickBreaker小游戏+DynamicCode第二版+Gearman小修改+Kestrel大修改+C0编译器+Shieldstar大游戏+Cobra实现+数据库大作业...

寒假

寒假终于快结束了。

这个寒假过得很没有效率。上学期码的代码太多了,导致很想彻底的放松放松。假期的前几天确实是这样,后来收不回来了。虽然知道还有很多代码没有码完,虽然知道很多书都没有看完,但是还是打不起精神来。

这个寒假主要做了这么几件事:

1. 背英语单词,背了200多个。。

2. 看完了《黑客与画家》

3. 看了《计算机程序的构造与解释》,还没看完。。

4. 看了《并发的艺术》,还没看完。。

5. 搞完了win8版的BubbleBreaker,无惊喜。。

总而言之就是一坨shit..

回学校的这几天也没干啥正经事,实验室那边,写了几个降噪的程序,然后发现还有太多需要考虑进去的东西,又迷茫了。。

我就是太缺乏持之以恒的信念,做一件事情最多不超过一年。动态二维码到昨天为止正好已经一年了,真的快做不下去了。

我想换换脑子,用用lisp神马的。但是事实不允许啊,做的东西,Android只能用Java,Win8只能用C#/C++,Arduino只能用C,写个小程序吧,需要各种输入输出,lisp又不方便。。

我想换换脑子,看看机器学习啊、模式识别啊之类的高级点的东西,奈何没有高人指点,入不了门。。

我想换换脑子,看看书,旅旅游,把压力忘得一干二净。可是,这个寒假告诉我,压力不可能忘得一干二净。换脑子的时候还必须时刻保持警惕,压力不能忘掉,不能忘掉。。

这几天拼命掉头发,看来是真老了。未来还很迷茫,即将步入决定未来的最后一个学期。

不废话了,接着码代码吧。。

抽出一点时间来

最近三个大作业的deadline们接踵而至让我喘不过气来,上周末好不容易休息了三天,回家参加了我哥的婚礼,一点代码都没写。于是这周又要开始码代码的日子了。

经过了暑假的实习,这个学期在两个实验室的“科研”经历,还有这堆大作业,尤其是软件工程的洗礼,我最初的想法——上个研究生,然后去一家大企业赚够钱,然后回家养老——正在一点点的动摇。

因为我感觉,工业界并没有想象中那样美好。上午刚在人人上看了篇日志(不好意思我依然对人人上瘾),讲了一个gpa2.5的人当上了某著名大学的终身教授的事。文章里有一句话:“ I was more interested in doing things RIGHT than doing them NOW, which is bad news in the software industry.”我感觉这句话也正是我想说的。以前,我感觉所谓搞科研就是不停的申请项目,然后申请到手后就不必管它的质量,只管报销捞钱晋升即可,更看重的是"doing them now";我也感觉所谓工业界的计算机领域才是真正改变世界的地方,更看重的是"doing them right"。现在想来,这种想法完全是错误的。

在(某些)企业里,更看重的大概是"doing them now":上面给你下达一项任务。对于这项任务,你可能有很多很新很好的想法,你希望按照你认为正确的方法去做,但是boss会告诉你,事实证明他的方法才是正确的。deadline就在眼前,你也只好服从命令,做个机器。

而在(某些)研究机构里,说不好它们到底看重哪个,但是与企业显著不同的是,不会有那么多的“经验”压力。对于一件事,你无需按照经验去做,只要按照正确的方法去做即可,最后如果比经验的效果还要好,不会有人批评你。与企业更加不同的是,人少,沟通不会太复杂,因为某个研究方向可能参与的人只有四五个人,代码量也少很多,更多的是脑子里的东西和忽悠出来的东西。

当然,两者都有的特点也有很多,比如说累,不管是体力还是脑力。

于是,我越来越倾向于走科研路线了。但是,走自己喜欢的科研路线,简直比找到自己喜欢的公司,拿到自己满意的薪水,还要难——似乎只有等到你混出来了,当了个小头头,自己才有权利将自己的那些小想法一一实现(当然不必亲自实现)。更可能的是,跟着老板屁股后面,抢项目,写论文,浮躁的进行着所谓“科研”。

所以,在不久的将来,脑子一热去读个phd神马的可能也是一个不错的想法。当然,去一个理想的企业也不错。虽然压力可能大一些,但是薪水多啊,钱才是第一生产力啊。

有关高性能计算

在百度实习的两个多月,在技术上还是有很多收获的,首当其冲的便是对高性能计算方面有了一些见解。

大约在四十多年前,我们的计算机还只是单线程的——它们顺序的读程序,然后交给CPU进行计算,偶尔跳转到别的地方去读写数据。随后,一个叫做操作系统的东西出现了,更高级的操作系统支持多任务,一开始的多任务很粗糙,只是把每个任务分成几个定长的时间片,然后备份CPU寄存器里的数据,轮换各个任务罢了。然后,多任务变得越来越人性化——如加入了优先级,对IO任务和计算任务加以区分等。多任务也成就了日后的线程和进程。

随着计算能力的不断提升,多任务切换所需的额外花销也就不算什么大事了。但是,单个CPU的计算能力在近些年增长缓慢。于是,我们很容易的想到,使用多个CPU去解决问题。但是,一个已有的程序更改成为可以并行计算的程序时很困难的。还有,CPU的数量是未知的,为了适应越来越多的CPU并不浪费其能力,我们建立尽可能多的线程/进程(远远大于CPU数),并行的处理任务,操作系统会帮我们处理它们之间的切换。网络的兴起使得服务器大多采用了这样的方式:每个请求都是一个线程,它们互不干扰的运算、存取、返回结果。

这里便出现了三个问题:一个是怎样把已有的程序改造成为并行程序。这让躲在学术圈的函数式语言得以大放光彩。函数式语言的几乎所有语句都是由函数组成的,而且,每个函数的调用不会修改已有的数据,也就是说,一个对象被创建后,便不会被修改。这样,首先它是线程安全的;另外,它可以在不修改代码的情况下,自适应多CPU的情况,只需将不同的函数调用分配到不同的CPU中去便可以了。但是,真正的函数式语言比较理想化,不是十分浪费内存就是十分浪费计算量,虽然写起来和听起来很好很强大的样子。所以,比较新的函数式语言,如Scala等,也兼容普通的命令式编程和面向对象的思想,虽然浪费了一些并行性,但是最近也越来越火。

第二个问题是,怎样让这些并行运行的线程之间进行通信。并行计算中的一个很常见的东西是锁,或者CAS之类的替代品,因为多个线程同时操作同一个数据时会出现难以预料的后果。但是,锁的使用一方面带来的死锁的现象,另一方面则降低了效率,就算现代的CPU硬件支持某些指令,但是在某个线程对某个对象上锁的过程中,另一个也需要访问该对象的线程便只能干等着,这浪费了CPU的很多性能。多个机器的情况下,频繁的数据通信会加重网络的负担。

第三个问题是,IO。CPU那点时间和IO比起来不值一提,对内存的读写、对硬盘的读写、网络的访问,这些都时时刻刻影响着程序的效率。并行计算虽然解放了CPU,但是并没有解放IO。

这三个问题又衍生出很多其他的问题,比如说,在多个线程在同一个CPU中运行时,CPU内部的寄存器、Cache都会被更换,这在线程数比较少的时候不算什么,但是线程数会尽可能的多,则线程之间切换的花销就不能被忽略了而且功耗也是一个问题。线程过多、IO、锁也时时刻刻影响着机器的稳定性;再比如,有些任务是IO密集型任务,有些则是计算密集型任务。我们需要把它们放到适当的机器中运行,不然则会产生浪费。但是,一个线程所在的CPU是随机的,甚至它所在的机器都是随机的。这将会造成一定的浪费。

在这些问题日益增加的情况下,我们勤劳的劳动人民想出了很多的办法。比如说,为了区分IO密集型任务和计算密集型任务,对机器们进行统一个管理和调度,把新的IO密集型任务放在计算密集型任务比较多的机器中,反之亦然;再比如说,关于线程过多计算量过大、机器容易不稳定的问题,通过减少高性能的机器而增加更多的普通机器,来让任务们各得其所。

但是这解决不了根本问题,那就是,本来计算机就是为顺序执行程序而设计的,但是我们为了让计算能力提升而逼迫程序以一种完全不同的方式去运行,这种背离了计算机本身运行方式的计算方法肯定会存在问题的。于是,我们便从另一个方向去思考这个问题:为什么不让一个机器(CPU)以它最大的可能去运行一个它最擅长的任务呢?正如,我们要分别考语文数学英语三科,我们为什么要让一个非常牛的人用两只手加一只脚分别写三科试卷,而不让三个分别擅长语文数学英语的人分别用一只手去写他们擅长的试卷呢。

所以,我们的思绪回到了几十年前,那个没有操作系统的时代,计算机是那样的高效。我们希望回到过去,让每个CPU执行单一的任务,不同任务之间采用无锁的通信方式。但这显然需要很多的工作,比如创建一个崭新的操作系统。但是,现在的许多计算框架已经有这个趋势了:它们只有几个为数不多的线程,线程数根据CPU个数而定,而且各自分工明确;每个线程都拥有一个队列或其他容器,用来进行线程之间的通信;一个机器与另外机器通信后还可以继续执行它后面的任务,也就是异步执行;它们可以很容易的移植到多个机器上,每个机器做特定的事情。

通过这样设计出的系统在性能和稳定性上都优于以往的基于多线程的系统,可以说,这是高性能计算的趋势。但是,它似乎仍然没有解决一个问题,那就是锁和IO,数据通信和对数据的写入成为了瓶颈。但是,锁是用来干啥的呢?一是用来在写数据的时候,不与同时进行的其他写数据的操作冲突,二是在分步操作数据的时候,不被同时进行的其他读数据的操作读到中间结果。但是,我们目前的存储器支持的操作都是单线程的,那我们对其的操作为啥要并行呢?所以,我们可以让一个机器只负责IO,它也有一个容器用来盛放其他机器对它的请求,它依次执行并把执行结果通知拥有请求的机器,它不需要很强大的CPU。如果IO的负担过大,可以把它分为好几个这样的部分。关于数据通信,也就是各个CPU之间的通信。在同一个机器上可以通过共享内存,可那就需要锁,于是,一些无锁队列的实现方式最近火了起来;但是,解决这个问题的终极方法只有一个,那就是制造出适应于并行计算的存储器。不同机器只能通过网络,可是网络不可靠,而且传输速度有上限。于是,很多分布式计算的理论出现了。

我在百度做的东西,Gearman和Kestrel,都采用了这样的思想。

所以,高性能计算的未来不是并行运算,而是分布式运算。

以上有感于12306...