大家对如何进行深度阅读很有兴趣,这里就更深入地讲一下。
一般性阅读与深度阅读的区别,关键是,脑中是否对文中观点进行了深加工。
前者要求低很多,只要记得大致观点就可以,不需要对观点做深加工。比如说文章里说A影响了B,教材里说某事物是另一事物的主要原因,记得就好,别人问起就可以照样回答。而深度阅读则是两回事。每个进来的观点都需要反复思考,自洽了才能放进来成为自己的核心观点。对深度阅读来说,各式各样的阅读材料,即便再权威也并非真理,而只是某个可信或者不可信的证据,需要带着批判的眼光去审视,去伪存真。
那么如何判断自己是否已经进行了深度阅读呢?一个简单方案是通过自己的“猜功”来检验。一段文章,看了上面猜下面,看了几个词猜其它的,能猜中说明对主题有相对深入的理解,即便猜不中也是一个很好的思维训练。猜不出来,抹掉文字之后没意识到接下来会发生什么,一般是因为相关的文章看得太少,没有对照和比较的经验,对这个方向是外行,只能文章里说啥就是啥,被动接受,当复读机,这样的阅读就比较浅,也很容易忘掉,花再多的时间也是无用的。
猜功不行,基本可以判断不是深度阅读;但猜功很好,未必说明真的“读进去了”。很多时候可以通过各种浅显的证据来进行猜测,对深度理解内容并没有实质作用。猜功只是入门的手段,再往上走,接下来是要总结提炼出自己想看的关键点。
想一想,为什么文章中有的结论好猜,有的结论难猜?是因为它是一个复杂逻辑后得出的重要结论?一个意料之外却是情理之中的现象?抑或只是一个随机出现的有趣事实?把它们分门别类地整理好,建立起脑中的模型和知识网络,明白有些结点是重要的,有些则是可有可无的,这才是前文中提到的“观其大略”。
最后,再回头来看其它相关的文章,对于这些关键点,这些文章又是如何阐述,如何解释,用什么样的方案,如何在具体问题上解决的。带着目的去看文章,跳跃阅读,只抓住重要的细节和观点,有的放矢地深入,并知道读到什么程度算是读完了,马上可以去下一篇。这样可以做到”一目十行“,看得快又看得好。
脑中建立的模型,是要不停地迭代更新的。如果文章在某个你觉得莫名其妙的方向上,花了很多篇幅阐述一个没见过的主题,那说明也许自己之前忽略了一些重要的问题。这时候就不能再“不求甚解”了,需要好好读一下,好好想想那些问题是什么,并且补充进自己的知识体系里去。然后再多看看别的文章,是否有同样的讨论和分析,它们的见解又是什么样的,等等。
猜测,建模,更新,如此反复运转几个回合,至此整个深度阅读体系才建立起来。这里可以看到,什么时候仔细,什么时候粗略,都是要依照情况而定的,不是用几个成语能完全概括,需要亲力亲为,深入体验。对于一般人而言,为了习得知识,能有一定程度的深度阅读已是不易。如果想要提高效率,就不要被阅读牵着走。为好奇而阅读当然可以(这也是知乎吸引人的地方),但带着问题和目的来读来思考,几乎总是更有效率的方案。
为了学术工作而阅读,则要求更高。以上所说的几个阶段,不过只是学术阅读的入门罢了,在这基础上,需要不停地做好“掀桌子重来”的准备。为完成一件事情打的这些补丁,是否存在未覆盖的漏洞?这乱成一团的知识体系,是否不过是为了现象而强行编造出来的故事,其实有更好的解释?那些在文章中大段阐述的事实,是否存在一个更为深刻而简单的原因?在读完大量文献后好不容易构建出来的知识网络,是否又是更深层次“真理”的种种表象?
达到了这一步,才学会了如何进行评审,如何问出深刻的问题,渐渐形成自己的想法,提出独到的见解,在学术上有所突破。
从人工智能的发展上来看,以上说的,其实和“通过自监督学习来学习有用表示(representation)”是有很强的对应的。我们现在看到的预测式模型(predictive model)和对比学习(contrastive learning),其实就是深度阅读入门阶段“猜功”的对应——一句句子里抹掉一个词或者改换一个词,一张照片里挖去一块区域,通过让模型去预测,来学习到数据中潜藏着的重要知识。自监督学习中出现的各种问题,比如说模型找到了各类作弊方案而未能学习出有用的表示,也正印证了猜功不一定有效。而猜功之后,人工智能领域还能设计出什么样的模型,如何让人一样做到深度阅读,能纲举目张地归纳知识体系,并提出质疑?在这点上,AI还有很长的路要走。
最后,这一切之上,这些行之有效的学习方案背后,究竟是什么样的数学机制在起作用,则是一个更深刻更困难的学术问题了。
