刘睿民:数据库战国时代,我不跟你们玩政治!

在数据库领域摸爬滚打20年,Dowson(刘睿民)深知这一波大数据革命的颠覆性,点滴信息正汇集成财富创造的新系统,大烟囱社会的权力结构,将进一步向超级信息符号组成的社会转移。站在这场权力争夺战的边缘,Dowson敏锐察觉到,过去铁板一块、巨头扎堆的企业级市场已开始松动。传统的关系型数据库,无力承载海量数据的处理和分析。随着新一轮窗口期开启,数据库领域进入战国时代,各类列式架构、内存架构、NoSQL、NewSQL等新型数据库层出不穷、各领风骚,动摇着旧有权利系统的支柱。

导语:本期访谈对象刘睿民(Dowson Liu),柏睿数据科技CEO。和Dowson的会面约在早上10点,在望京SOHO 塔2,15层走廊的尽头,我找到挂着柏睿铭牌的白色小门。门上着锁,没有朝向走廊的窗户,看不见内部陈设。为这次早到等候了足足二十分钟后, Dowson准时出现。这是我第一次见到他,平头、眼镜、浓眉,说话略带东北口音,语速不徐不缓。门后是一间带落地窗的大办公室,视野开阔。他解释说,这间办公室的主要用途是会客,负责业务的工程师约有20人,驻守在侧边的塔楼。核心研发团队则分布在海外,或在干燥炎热的内华达沙漠,或在细雨纷飞的西雅图,或在沿海季风吹拂下的悉尼。


1995年入行,Dowson正好赶上行业信息化的黄金时期。在美国高度发达、自由竞争的IT市场历练10年,曾师从图灵奖获得者Jim Grey,还在惠普实验室从事过海量并行内存数据库开发,根正苗红,习得一身硬本事;回国后的10年,历任华胜天成CTO、惠普大中华区数据挖掘总监、SUN/ORACLE大中华区服务总裁,创造过一年翻22倍,近10亿美金的销售奇迹,bonus拿到手软。


这位典型的海归精英,手下已拥有3家公司,开一辆银白色的路虎越野车。一切顺风顺水,却掩不住那颗爱冒险的心。刚到美国不久,Dowson就和印度人开起了咨询公司,一年时间,签下千万大单,从南到北把业务跑了个遍;iPad上市之前,他自己手画电路板,投钱做出20块平板,一年时间烧掉500万。从上次创业摔的跟头中,他意识到:凭个人能力可以做出优质产品,却难以带动产业上下游的配合与发展,任何产业级的影响力都离不开长期的深厚积累。



在数据库领域摸爬滚打20年,Dowson深知这一波大数据革命的颠覆性,点滴信息正汇集成财富创造的新系统,大烟囱社会的权力结构,将进一步向超级信息符号组成的社会转移。站在这场权力争夺战的边缘,Dowson敏锐察觉到,过去铁板一块、巨头扎堆的企业级市场已开始松动。传统的关系型数据库,无力承载海量数据的处理和分析。随着新一轮窗口期开启,数据库领域进入战国时代,各类列式架构、内存架构、NoSQL、NewSQL等新型数据库层出不穷、各领风骚,动摇着旧有权利系统的支柱。


2013年9月,Dowson创立柏睿数据,研发基于MPP架构的海量内存数据库引擎。过往的人脉让他得以组建阵容豪华、实力强大的海外团队,并在过去半年里进展神速。他的目标是取代Oracle,做企业级市场数据处理的颠覆者。


在长达5个半小时的采访过程中,Dowson对国内基础领域的沦陷痛心不已。从他父辈那代起,国家的产业导向就偏重于对模式的迷恋,而非技术和品质上的精益求精。他母亲曾亲手拉出中国第一根单模光纤,但“高科技”光纤的质量,最终却受制于“低科技”的橡胶产业。这样的荒诞故事仍在不断上演,投射出当下社会的事态与人心。在公众知识分子许知远眼里:整个中国都陷入了一种同质化、低水平的竞争,人们有高度的竞争感,却缺少真正的创造力。

IT、互联网也概莫能外,在漫天“互联网思维”的纷扰下,Dowson坚持做着高技术含量的基础研发,这群理想丰沛,不被骨感现实所惑的人,会是未来中国创新的脊梁。


技术人攻略:你从什么时候开始观察到海量数据处理在企业级领域的趋势?


刘睿民:2012年我离开Sun Microsystem/Oracle时,看到两个趋势,当时OpenStack已经诞生,企业级市场的云是必然趋势。云产生之后,会引发第二个趋势,企业的业务不断向定制化APP转移,大量数据从移动端收集上来,需要进行实时、动态的处理。


举个例子,某家生产型企业客户,拥有超过两万个小终端,分别提供给理货员、快递员、仓库管理员和促销员使用,这些不同角色通过APP扫码、跟踪,产生实时销售数据,快速反馈到下一个环节。和2C的业务环境相比,企业用户对动态数据实时处理的迫切性更高,倒逼企业信息处理能力往上走。


传统零售和物流企业,受电商冲击最大。淘宝已经能利用数据做好生意了,零售企业要么被逼死,要么去适应这个环境。同样有危机感的,还有电信行业,电信已成为管道,但所有的数据都要从管道里走,所以他们非常积极,想对自己平台上产生的数据做分析,以期获得更广泛的利用。是否能抓住大数据的机会,对企业生死存亡至关重要。


硅谷这一波数据革命,对产业已经造成了很大影响。全球各大租车公司,被Uber弄得快要翻船,这可是影响全球几十万人的事业。由于计程车司机接二连三游行抗议,法国政府已颁布法令禁用Uber。Uber成功的表象是互联网的胜利,但真正原因是对数据的控制和优化。这其实是一次权利的重新洗牌,掌握了数据就掌握了这一波产业革命的先机。


于是我开始做一些尝试,对全国3万家超市的零售详细数据进行挖掘分析,客户主要是P&G、可口可乐、联合利华这样的公司。过程中对比后发现,由于淘宝产生的数据量远大于零售ERP的结构化数据。如果将ERP数据和网络上的数据做结合,会大大扩展消费数据的外延。除消费习惯以外,用户的情感分析,时空轨迹分析,都可以算出来。


技术人攻略:为什么会从数据挖掘,转向数据库引擎研发?


刘睿民:后来发现,所谓的数据挖掘在中国,很容易走偏。机器剥夺了人的决策功能,这恰恰是许多玩政治的人不愿意看到的。我这人不愿意介入政治,过去管惠普大中华区数据仓库业务那段时间,公司内部几个集团,因为纯政治原因打架。业务做得再好,都仍被牺牲掉,很不喜欢这种失控的环境。我对自己的定位,就是一个技术人,在可以凭技术吃饭的情况下,干嘛要去玩政治?


我真正意识到应该把未来事业方向,放在自己擅长的领域,还缘于曾经摔过的一次大跤。2005年我花了599美金,从美国买了一个Toshiba e740掌上电脑,当时特别喜欢,想着如果能把它做得薄、更大就好了。那会儿苹果才出到iPhone2,我把它拆解之后,发现电路板并不复杂,部件也都能采购到。于是自己画了个4层电路板,基于Ubuntu 8.5切割出一个系统。2010年初,花了40万,去深圳加工出了20台产品,厚度和后来的iPad差不多。出于成本考虑,产品采用了电阻屏,但我写了一套算法,做出了和电容屏很接近的触感。


当年5月,苹果iPad上市。我在这个领域玩了一年多,把自己的500万花光后,发现不能这样下去。技术我可以做得很好,但我想达到的目标,不是500万能干完的,可能需要5个亿,甚至50个亿才能打通。有的事情并不是钱能玩出来的,而是需要产业经验和人脉的积累,需要产业链上下游的人和你配合,否则很难把整个事情玩透。


这块业务我后来转让了中信21CN,他们把这套东西用在了药店的工业扫码终端上,现在这块业务已经到了阿里健康那儿。投进去的500万就算是交了个学费,很贵,但也重新认识了一次自我。没有人是万能的,你只能干自己最擅长的事,我最擅长的事不是做平板,不是做数据挖掘这种应用型的事情,而是做数据库研发。


技术人攻略:数据库引擎研发是基础性技术,你在这一领域有哪些积累?


刘睿民:我在数据库领域做了差不多20年,从实施,到研发,再到销售等不同类型的工作都做过。2013年9月起,创办柏睿数据库,研发面向企业级IT市场的,海量并行内存处理架构的数据仓库引擎。之所以能从事基础研发,和我原来在惠普的工作经历有密切关系。


我在惠普是三进三出。大学毕业后,我加入新加坡电信,做BSS/OSS大机开发。1997年底去了美国,做电信系统相关的IT改造。随后加入Tandem,做Nonstop SQL商业数据库的开发,认识了我的导师Jim Gray, 他凭借在数据库方面的开创性贡献获得过图灵奖。后来Tandem被康柏收购,康柏又被惠普收购,就这么第一次进了惠普。


第二次进惠普是在1999年,惠普实验室接了一个沃尔玛的项目,节点数高达512个节点。在那里遇到我现在的导师Dave Cracknell,那真是是一个非常好的年代,每天睡到11点去办公室,中午吃饭的时候,和导师交流遇到的问题,然后一直写代码到夜里2、3点。


惠普这家公司是钱多、任性,因为公司主业是硬件,对数据库并不是很理解。Tandem的Nonstop SQL,几乎可以等同于Teradata,但惠普没有意识到它的重要性。直到2006年,Mark Hurd(Oracle现任CEO)执掌惠普期间,重新拾起Nonstop SQL,把它变成Neoview这个新产品。导师让我回去,一起重做这个东西,于是我第三次进了惠普。


回去后我负责HP Neoview数据仓库在国内的业务拓展,经常硅谷、北京两边跑,把国内市场的需求反馈给导师。可惜一年多以后,Mark Hurd离开惠普,这个产品又被砍掉。原来做这件事的小伙伴们,都不想轻易放弃。在柏睿,我能继续和这群小伙伴一起,把未完成的梦想坚持下去。


整个研发团队共有12人,完全用remote的方式协作,分布在美国、澳洲、英国和印度,不少都是我在惠普实验室的同事。我的导师Dave Cracknell,在硅谷负责整个项目的管理。


海外12个人的研发团队投入很大,但效率也很高。2013年初,我们的产品还类似于VoltDB,只能做两张表的JOIN查询。半年之内迭代了9个版本,取得了突破性进展,已经能支持至少32张表的复杂JOIN查询。去年4月,SQL引擎的性能和SAP HANA还差得很远,现在基本上和HANA站在同一个起跑线上。而且从整体的发展路径上来看,会超越HANA。


技术人攻略:企业级市场对数据处理的需求,和互联网公司有什么区别?你们的产品解决了大数据处理的哪些问题?


刘睿民:早在80年代,IBM已经在大机上实现了非结构化数据的处理,但需求量并不大。互联网积累到一定量,非结构数据大量产生,这种情况会带来新需求。首先是解决海量数据的存储,接下来是分析这些数据,最后是解决数据分析实时性问题。


Hadoop只解决了数据的存储,于是出来了MapReduce方法,可对数据做一定程度的分析。从数学上看,MapReduce属于暴力拆解,用很多PC服务器,不断循环迭代,非常野蛮。好比用炸药把山炸掉,产生一堆数据的大碎石头,最后还得整理这些石头。这种方式导致MapReduce只能做ETL数据清洗,无法实现交互式的SQL查询,因为整个处理过程中,数据和逻辑并没有建立任何关联。


从严格意义上来说,关系型数据库依然是最强大的数据挖掘工具。只有把结构化和半结构化的数据,先做数据清洗,变成有逻辑含义的结构及非结构化数据,放到数据库里,才能做出符合数学范式的精确查询。2014年8月,Google公开了基于海量并行处理架构架构(MPP),近实时数据挖掘仓库Mesa的论文,也证明它最终要走回结构化这条路。


企业级市场对数据处理的需求,和互联网公司的处理方式并不完全一样。互联网提供快速的解决方法,不是成熟的产品。对于企业级用户来说,没有哪家能有阿里这样的实力,雇两万programmer写代码。别说两万,200个人都不可能。


企业用户要的并不是阿里所拥有的东西,而是想要一套完整的解决方案,装上就能解决问题。比如处理4个T的数据,两分钟以后见东西。只有一个Admin来管理这一套工具,顶多配10个人,绝对不可能搞一个大型的IT部门。因为企业用户的主业还是造机器、做纺织、做电器。我们为企业级市场提供一整套的解决方案,从文件系统开始,到预处理,再到最终的数据分析,而且可以帮他们快速在云上部署。


为实现数据处理的实时性,我们分了三步进行。首先是提升Hadoop文件系统的效率,MapReduce为了增加写的效率,把数据都切碎了,这种逻辑和存储分开的方式,导致读的时候不知道数据存在哪儿。电信用户一天的增量数据是10个T,在没有索引的情况下,想找到客户真正要的那片数据,非常难。我们在HDFS上做了大量优化,能把读取文件的速度,从网络访问提升到相当于读取本地盘的速度。


接下来做了内存数据网格这个产品,MapReduce太慢,跑下来4、5个小时,不能等那么长时间才做分析,那就必须在内存中重写。我们的实现方式很像挖煤矿,先做勘察,分辨出哪些是煤,哪些是石头,每一层用不同的方式挖进去。具体的实现过程,是用HASH把数据分层,在几秒钟之内起成千上万个模板,每个模板对应数据处理的不同粒度,相当于尺寸不同的筛子,对数据做预处理。


第三步,经过清洗之后,数据变成了结构化和半结构化形式,可以实现精确查询。例如对100张表做联合查询,得出精确的查询记录。原来在性能上做不到的,我们采用MPP的海量并行内存处理架构,可以在很短时间内,实现数据库节点的横向扩展。


技术人攻略:海量并行处理架构有哪些优势?


刘睿民:数据库的主流系统架构有两个流派,一种是对称多处理器架构(SMP),另一种是海量并行处理架构(MPP)。SMP架构的特点,在于共享系统的CPU、内存和I/O资源,Oracle数据库就是这一架构的主要代表。该技术诞生于内存昂贵时期,在数据量小于10T的情况下,可以应对自如。这种架构的局限性在于可扩展性差,多个CPU都通过内存总线访问同一内存资源,随着数据量增加,内存访问冲突将加剧,最终造成CPU性能的浪费。我们做过实验,Exadata在50个存储节点时性能还可以,一旦再上一个量级,就会遇到明显的性能瓶颈。


海量并行处理架构(MPP)可通过节点协同工作,并且每个节点都拥有独立的内存,是一种完全无共享的架构方式,因而有很强的扩展能力。MPP的理论基础在70年代已经成熟,只不过当时普遍不需要那么大数据量,所以仅在小范围内应用。1999年我参与美国空军的项目,就部署了1024个节点,虽然并不是基于云,但这条路已经打通了。


采用MPP架构最大的问题,在于节点之间的数据拷贝,可能会形成网络风暴。假设对300张表做JOIN联合查询,其中有30张表都大于1TB,其中1/10的数据要拷贝,那就是5、600个G的数据在网络上跑。现在不少企业动辄上千个节点,每个节点里有几十个T的数据,网络访问的优化非常关键。


我们采用了InfiniBand这种新型总线结构,以摆脱基于传统PCI架构的I/O性能瓶颈。这种服务器端的高性能互联技术,可大幅提升数据的移动速度,降低服务器和存储系统之间的网络开销。InfiniBand有一种远程直接内存访问技术(RDMA),允许直接对应用程序内存做读取和写入。过去内存里的数据转换,要经过几次System Call,在逻辑和电信号之间做多次转换,才能切换用户状态和系统状态。RDMA则不管数据存在哪一台服务器,直接都是系统态,只需要把电信号变一下就可以。


现在的架构可在一分钟内开数十个节点。用Hadoop作性能测试,在同样基于磁盘的情况下,运行速度可提升10倍。如果把数据load到内存里重写的MapReduce,速度能提升100倍。


技术人攻略:作为一家企业级领域的创业公司,如何与巨头竞争?如何赢得市场?


刘睿民:数据库领域正在窗口期,不少新机会正在涌现。IBM和HP守着自己的小机不放,但用户已经不要小机了,而且巨头们也解决不了大数据的问题。结构化数据原来占了99%,而现在却只占1%,从趋势上看,巨头擅长的地盘一下子变成了一个小市场。我们的产品不仅能处理非结构化和半结构化的数据,而且在结构化数据这块,还能替代巨头。


产业发展自有其周期,数据库领域的老大Oracle已经走到头了。Oracle的核心技术诞生于30年前,并在90年代成熟。从90年代末到现在,Oracle并没有修改过核心架构,只做了些外围修缮,这种单节点共享内存架构,无法支撑大数据时代快速扩展的需求。创始人拉里森本质上是一个商人,把Oracle做成了一家应用型公司,即使业务很赚钱,也没有设立过Lab,做基础性的研究。原来的生意一年赚9000亿美金,新生意才只有900万的情况下,要干掉老生意新起一摊,而且把基因也改过来,难度非常大。虽然Exadata里添加了全内存选项,但只是增大了共享内存的容量,架构上并没有做修改。估计5年之内,Oracle的架构也不会改。拉里森已经年过70,再过几年就更没有功夫管了。所以现在是替代Oracle的绝好机会节点。


国内的企业级市场,现在光拼关系也不行了,数据量突然提升了1000倍,过去的IT架构,已无力支撑这种大容量的数据处理,所以技术成了硬门槛。这一波基于云和大数据的革命,会形成一个完全不同于以往的,非常开放的生态。原来企业级领域研发出一项技术,必须依靠销售去推。由于市场过于分散,照IBM这类老牌IT厂商,卖东西给客户的成本太高。所以只有每个行业里Top3的客户,最多到Top10,能购买得起昂贵的IT服务。


云服务普及后,技术可以在云上部署。从市场角度来看,由于长尾效应,原来买不起这些服务的中型客户,可以按时、按需付费。这些中型企业也希望把原来行业的老大替代掉,所以他们有极大的意愿,去购买互联网上的服务。


另一方面,客户可以自己选择云上的工具,我们这样的小型服务提供商,和IBM等大公司能平起平坐。而且我们的东西天生是为云而做的,比他们还要先行一步,想把Oracle部署到云上,还做不到。总的来说,数据库领域不仅没有萎缩,而是产生了一个新市场,这个新市场可能比原来旧的市场还大。


技术人攻略:你观察到我们国家在基础领域有哪些问题?


刘睿民:我们国家一直以来对自己的定位,就是做应用型产业。大家的手很巧,能把东西修得非常像,但材料却不过关,所以皮是好的,瓤是碎的。这就是为什么,老外做的航空发动机,能跑3000个小时,而我们的却只能跑300个小时。


我母亲是从事半导体激光器研发的科技工作者,早在1972年,她亲手拉出了中国第一根单模光纤,获得了国家科技进步一等奖。光纤的制作过程,需要在完全密闭的环境下,让硅片气象层积,直到慢慢变成硅柱。光纤的质量,取决于这个密闭环境中的灰尘含量,究竟会进多少灰尘,取决于密封圈的质量,密封圈是否牢靠,又取决于橡胶的质量。但做橡胶这种基础工业的人,不想精益求精,只满足于做轮胎。到最后谁会想到,高科技光纤的寿命,会受限于橡胶的杂质太多,而达不到应有的质量标准。


回国之后过了两、三年,我才深刻认识到这个道理。2006年,我负责惠普大中华区的数据仓库业务,当时希望把惠普实验室Database的研发搬到中国,努力了一阵,发现根本是妄想。外企虽然纷纷在中国建立研发中心,但核心技术仍然在国外,只不过利用国内便宜的人力成本,拿些边边角角技术活过来,做厂内外包。


国家产业政策的制定者,天真地以为可以用市场换来技术,到最后才发现,这种交换根本不成立。技术是别人吃饭的东西,为什么会给你?某种意义上来说,这也关系到人家的饭碗。除非你自己造了一个饭碗,否则人家为什么会把饭碗交给你呢?


IT和汽车产业一样,在过去十几年遭遇了同样的沦陷。什么叫自主可控的技术?要自己做的才可控,不是自己做就不可控,就这么简单,永远别想拿市场换技术。可仍然有许多人觉得自己是战略家,从来没上过一线,说得多、做得少。所以从顶层往下的产业设计,根本是个伪命题,必须从草根往上颠覆。


技术人攻略:国内数据库研发领域最大的问题是什么?


刘睿民:国内在数据库研发领域最大的问题,是在理论研究和人才培养上都缺乏积累。人大金仓做了十几年,都没有掌握这个产业链上最核心的技术。也没有研究所或机构在这个领域持续追踪,等大数据真正来了之后,才发现理论上没有准备好,只能谈一些类似Hadoop怎么用,基于实践和操作层面的东西。


国外这一行的发展相对成熟,各类的数据库架构设计,从70年代就已经开始积累。加州理工、加州大学圣巴巴拉分校、威斯康辛大学等高校,有专门的科系研究数据库,在知识上有传承。


即使有这些积累,全球数据库领域核心人才,在美国也不超过200人。对核心人才的定义,得是做过SQL解析器、执行器、优化器,以及文件系统这几块最有技术含量的东西。即使在Oracle、SAP、Sybase这样的公司里,真正接触到数据库核心引擎设计的,也最多就是十来个人,更多人是围绕核心去写一些周边的功能。


国产数据库很多是把开源扒拉过来,在这基础上改一改,但并不表示你理解了它的设计思想。归根结底,数据库核心人才的培养需要过程。从上层工具开发,慢慢往底层深入,先做解析器,再做执行器,最后做优化器,是一个循序渐进的过程。表和表之间的JOIN,应该走什么样的执行计划,这中间的解析路径、优化路径如何设计,低下文件系统的读和写应该怎样配合,需要10年,甚至20年的工程积累。


缺少了这些积累,也就只能做一些数据处理工作,底层开发根本轮不到你。类似于其它基础领域,中国在数据库技术上,仍然是一个使用者的角色。一些企业里的人,甚至连理论都没搞清楚,就开始忽悠,比如把数据库和数据处理混淆成同一个东西,整个市场被搞得很乱。


在这种混乱中,学生没有可参考的东西,人才培养从根子上就出了问题。我在大学时,学数据库理论的那本书,到现在仍在作为教材使用。几周前我掏出来看了一下,写得真太浅了。大家被忽悠得很想学Hadoop、Spark等应用型的知识,可这些不过是风潮,不是根本,很快就会过去。


技术人攻略:做这件事情对你个人的意义在哪里?


刘睿民:我入行比较早,94年读大学时,就参与了全国第一张跨通存通兑绿卡的项目。做完以后,就去了新加坡,很遗憾没碰上电信97田溯宁那波创业潮,也没碰上第一次互联网泡沫。不过反倒因为没有碰那些潮流,我的精力一直集中在数据库领域,从最早的大机、中型机、小机上的数据库,做到基于PC,以及云的数据服务。


之前工作挣的钱,足以让我安稳退休,过上天天钓鱼、晒太阳的生活。之所以做数据库基础层面的研发,并不是为了钱。我天性爱玩,一定要有个东西让我觉得好玩,要能越过障碍,够到远方的目标,才会玩得有刺激。


这一波大数据革命,是从量变积累到质变的飞跃,我这辈子或许只能遇见一次。我希望能把以前所学到、所经历的这些东西,把MPP的架构,用到海量的数据分析里边去。数据库的产业链很长,有很多事情值得深入地去做,如果我能参与这次变革,顺着这次浪潮玩上10年、15年,会非常有趣。


在行业里待了这么多年,我也看到有的事情不是钱能玩出来,需要经验上、人脉上各方面的积累,才能把这个东西玩透,否则就变成东打一榔头,西打一耙子。只有拼性能的地方,摩尔定律才会生效,这是IT行业的实质。不拼性能,就只能拼关系、拼政治,我不想玩那个。这个产业里门槛最高的是数据库,不是应用,我就想挑战纯粹的基础技术领域,用性能超过对手,不需要拼政治。


我想和志同道合的人一起工作,虽说国内的氛围还是有点浮躁,但我对新一代程序员还很期待。他们成长的环境衣食无忧,不像我们70后,小时候还得自己拿着瓶子去打酱油。当基本生活富足之后,大家就会有不同的精神取向。总有人想做一些基础的、技术扎实的产品,你让他苦哈哈在华为工作,桌子底下放一个帐篷,他不一定愿意干。


技术人攻略:你的兴趣爱好是什么?


刘睿民:我天生热爱冒险,喜欢去别人没去过的地方,看世界上都在发生些什么事。在美国做技术咨询那几年,全国四处奔波,从最南边的弗罗里达,到冬季气温到零下50度的北达科他州,还有路易斯安娜、阿肯色、明尼苏达、印第安纳,基本上你能想到的地方,我都去过。


一直到2001年,我到了科罗拉多州丹佛市旁边的大学城Boulder。这座城市依山而建,有雪山,也有绿草,非常适合露营。喜欢滑雪的人,可以从头年9月,一直滑到第二年6月。我非常喜欢这样的环境,就把家安在了Boulder。


我喜欢穿山越岭,常常一个人带着帐篷,去科罗拉多大峡谷里待上个6、7天。在野外,狼、美洲豹时有出没,什么情况都有可能会碰到,所以得学会如何野外生存。这个过程不仅带来乐趣,还让我领悟到很多道理,比如想避开这些猛兽,你首先得学会观察风向。


我还特别享受在山路上开车的感觉,峰回路转,总能看到新的风景。许多人不敢在山里开车,朋友一起去山里玩的时候,都是我开车。我并不害怕悬崖,只要关心前方的路就好了。


我喜欢阅读,一直到现在都还订《读书》这本杂志。最近经济类的书看得比较多,尤其是计量经济学。宏观经济领域的问题很难预测,因为相关因素太多,但微观经济是靠数据说话,所以相对很准确。我喜欢研究计量经济学里的各种模型,数字和数字之间,我感觉终究是有关联的。只是因为工具所限,自己数学的基本功积累得不够,暂时还没做特别深入的研究。


注:原文首发于:技术人攻略