English Version in here.
有读者看完《2023 年值得持续阅读的内容平台》后给我留下了一条评论:
其实我现在最大的问题不是没有好的阅读内容,而是好的阅读内容太多了,根本看不过来,稍后读的积累速度远快于消化速度。我不太相信作者能够将上面这么多内容每周都过一遍。
我完全能理解这位读者的疑虑。的确,我在那篇文章中列出了多达 39 个信息源,还不包括那些未提及的。那么,究竟是如何在有限的时间里处理这些信息的呢?
在写那篇文章的时候,我其实已经在考虑是否需要解释我的信息消费流程。但为了保持文章主题的专注性,最终我选择了不在那时展开。这是我的一个疏忽。
需要澄清的是,我并不是每周都要阅读所有信息源。一方面,时间上不允许;另一方面,并非所有信息源每周都有更新。信息消费需要有选择性,根据内容的重要性和紧急性来决定阅读优先级。
信息消费的流程
我的信息源主要分为七个大类:新闻、Telegram Channel、订阅的 blog 和 newsletter、𝕏、电子书,以及这些来源衍生出的网页内容。
我在 VPS 上部署了 RSSHub 和 Telegram RSSbot 这两个项目(部署教程参见《用 RSSHub 打造专属信息流》和《Telegram RSSbot 搭建简要说明》)。这样,我就可以通过 RSS 订阅一些新闻网站和 Channel,并在 Telegram 上进行浏览。我在这里用「浏览」而不是「阅读」的原因是,对于新闻,我不需要了解太多细节。我订阅的新闻网站多是严肃媒体,通常标题就能传达主要信息。而我关注的 Channel 内容,大多也只需浏览查看。在这两者中,那些需要进一步阅读的内容我会先保存到 Telegram 的「save message」,然后找一个专门的时间清空。
对于其他五个类别,我使用 Readwise Reader 进行阅读。通常情况下,我会先阅读由 AI 生成的摘要,以此来判断是否需要深入阅读。并没有固定的判断标准,这更多取决于个人的兴趣以及内容是否和我关注的领域相关。
在深入阅读时,我会首先打开 Heptabase,在 Journal 中记录下与文章主题相关的我所知晓的信息。比如,对于一篇讲述知识管理的文章,我会在 Journal 中写下我对知识管理的理解,并 mention 相关笔记。
接着,我会仔细逐段阅读,并做出标注,记录下触动我的思考或感受。这些标注会通过 API 自动同步到 Heptabase,便于我后续进一步消化文章内容。接下来,我会将这些标注整合到 Journal 中,进行梳理,考虑是否需要对现有笔记进行补充或修改,以及哪些内容可以发展成新的笔记。
最后,我会将这些整理过的内容放到白板上,进行一轮新的思考和沉淀。具体过程就不再赘述了。
在这个信息爆炸的时代,我无法消化世间所有的精彩内容,就像我不可能尝遍世界上所有的美食一样。希望我的信息消费流程对您有所启发,但更重要的是找到适合自己的节奏和方法。