预测AI啥时候“接管一切”或者实现“全面自动化”,这事儿,啧,比算命先生解签还玄乎。为啥?因为它压根儿就没发生过啊!就像哥伦布出海前,你跟他说地球是圆的,他手下那帮水手估计得把你当海怪祭天。但话说回来,咱们也不是完全没参照物。想想看,人类智能的崛起,那算不算一次“接管”?只不过是咱们智人接管了其他物种的“生态位”。再近一点,工业革命,那家伙,蒸汽机一响,多少膀大腰圆的汉子瞬间觉得胳膊没以前好使了。那会儿是机器革了体力劳动的命,现在轮到AI,瞄准的可是咱们引以为傲的“认知劳动”。简单说,就是AI要开始“动脑子”干活了,而且可能比你我动得还快还好。
这不,有个叫汤姆·戴维森(Tom Davidson)的研究员,估计也是个爱琢磨的哥们儿,在2023年6月整了份报告。他没拍脑袋瞎猜,而是搬出了经济学里的自动化模型,建了个数学模型来估算AI啥时候能把咱们人类的活儿100%全包圆了。你要是也手痒想试试,可以去一个叫 “takeoffspeeds.com” 的网站上体验一把,看看AI在你心目中啥时候“C位出道”。
戴维森这模型啊,主要想预测俩事儿:一个是AI时间线,说白了就是AI啥时候能解锁某些“成就”,比如自动化20%的人类劳动算不算一个里程碑?100%全自动化那更是终极目标了。时间线短,就意味着AI“光速”进化;时间线长,那咱们就还能多摸几年鱼。另一个概念叫AI起飞,这个词儿形象得很,就是AI从一个战五渣,突然之间“咻”地一下,变得比你我还聪明,甚至远超人类。而AI起飞速度,就是这个“咻”的过程要花多久。可能是“快速”模式,眨眼几个月;也可能是“慢悠悠”模式,几十年晃过去;或者不快不慢,“中等”意思,几年光景。
他这个模型挺有意思,把“较弱的AI”——就是能干掉目前20%人类工作量的AI——设为起跑线,终点呢?自然是“更强的AI”,能把100%的活儿都给包了。你想想,从20%干到100%,那得加多少“料”啊!这“料”主要有两种:
一种是实打实的算力,就是更多的计算机芯片、更长的运行时间。想想你打游戏,显卡越牛,画面越流畅,一个道理。
另一种是更牛掰的AI算法。好算法就像个聪明的厨子,同样的食材(算力)能做出更美味的菜(更好的性能)。所以模型假设,算法进步了,开发同样厉害的AI系统,需要的算力就能省一点。
戴维森估摸着,从20%自动化到100%这条路,咱们可能需要把算力或者算法效率,或者两者加起来,提升个大约一万倍!当然,这只是个大概齐的数,模型里也考虑了从十倍到一亿倍这种听着就头皮发麻的各种可能性。为啥是一万倍?他是拿动物大脑跟人脑比,再跟那些已经有点超越人类意思的AI模型比,这么估算出来的。我寻思着,这就像当年我从DOS系统换到Windows 95,那感觉,简直是鸟枪换炮,性能提升何止一万倍啊!
这模型还有个挺大胆的假设,就是咱们目前这套AI技术框架,可能就足够鼓捣出超越人类的AI了。你瞅瞅最近AI进步多快,很多时候不是因为技术上有了啥石破天惊的“根本性突破”,而是因为咱们往里面砸了更多的算力和数据。就拿GPT-4来说,它用的算法跟它爷爷辈的GPT-1比,骨子里没啥大变化,但烧的算力,乖乖,那可是一百万倍起步!
戴维森模型估算,要想让AI在2022年的算法基础上达到100%自动化,总共需要的算力大概是10的36次方 FLOPs。这是个啥概念?就是1后面跟36个0!这数字,就算往少里说,也有差不多一千倍的误差幅度。即便取最低估算值(10的34次方FLOPs),也得让2022年最顶尖的超级计算机,从恐龙还在地球上溜达的侏罗纪时代开始算,一直算到现在才能搞定。听着是不是想直接躺平了?
不过别急,AI的发展自己也会加速。比如:
- 投资者一看有戏,就会砸更多的钱买芯片。有钱能使磨推鬼,也能使AI跑得飞快。
- 同样价钱的芯片,性能会越来越强。这就是摩尔定律(虽然最近有点后劲不足,但趋势还在)。
- AI软件也会不断进化,更有效地利用已有的算力。这就好比以前一个软件傻大黑粗,现在优化得小巧精悍,干活效率还高。所以,有效算力 = 实际硬件算力 × 软件效率这个“放大器”。
影响这个“资源增长速度”和“起飞速度”的关键因素,那可就多了去了。其中一个特别有意思的,就是AI自己加速AI开发的能力。你想想,这不就是个正反馈循环嘛!现在很多大型语言模型已经开始帮程序员写代码了,虽然有时候写的代码也挺“幽默”的,净整些bug出来,但我亲眼见过有团队用AI辅助编程,效率确实高了一截。还有,AI越牛,吸引的投资就越多,这雪球就越滚越大。
模型里还考虑了其他一些参数,比如自动化AI研究本身有多难,训练好的AI模型在使用方式上改进后性能能提升多少等等,细节就不一一赘述了,不然我这口水都说干了。
为了算出这些个花里胡哨的未来情景,模型用了个叫“蒙特卡洛方法”的玩意儿。简单说,就是随机扔骰子,哦不,是随机选一堆输入参数,然后跑一遍模型,看看结果是啥,跑个成千上万遍,就能得出一个概率分布。
那么,这模型算出来的“中位数”预测是啥呢?(中位数就是把所有结果排个队,取最中间那个)
- AI大概会在2043年能够自动化所有人类劳动。嗯,2043年,我琢磨着那时候我可能已经退休在家逗孙子了,希望AI能帮我把养老金算明白点。
- 这个“起飞过程”大约需要三年。也就是说,可能在2040年,AI先帮你干20%的活儿,然后一眨眼,到2043年,你的活儿就全归它了。想想这三年,跟坐过山车似的。
当然,预测总有个范围:
- AI在2030年前就达到100%自动化的可能性,大概有10%。挺刺激的,不是吗?
- AI拖到2100年后才搞定100%自动化的可能性,也有10%。嗯,那时候咱们估计都成历史书里的人物了。
- 起飞速度不到10个月的可能性,也是10%。这意味着“狼来了”喊着喊着,狼真的一下子就扑到眼前了!
- 起飞速度超过12年的可能性,同样是10%。这就给了我们更长的“缓冲期”。
戴维森的模型还告诉我们一些挺重要的事儿:
- 就算AI没有啥惊天动地的技术大跳跃,只要它持续发展,一旦“起飞”,几年甚至更短的时间内就能轻松碾压人类。
- 很多因素都在给AI时间线“踩油门”,比如投资越来越多、AI自己能帮自己进步、算法越来越牛、还有训练AI比运行AI费劲得多(意味着一旦训练好了,跑起来就快了)。
- 你很难找到一套听起来还算靠谱的输入参数,让模型算出AI到2060年左右还啥认知任务都干不了。也就是说,AI变强,是大趋势。
- 尽管AI进步也可能比咱们想的慢,达到人类水平可能更难,但一个能影响全世界的AI系统,离咱们不太可能超过几十年了。当然,这一切都建立在“当前这套技术路子能搞出超人AI”这个大前提上。
好了,吹了半天模型,也得泼盆冷水。模型的质量嘛,全看它的假设靠不靠谱。不过话说回来,做点有根据的假设,总比两眼一抹黑直接瞎猜最终答案要强点儿。再说了,这模型也没把所有因素都考虑进去,比如那些高级AI模型到底要“吃”多少训练数据,这还是个未知数。就像我当年装第一台电脑,以为买个好CPU就行了,结果忘了内存和硬盘也得跟上,跑起来照样卡成PPT。
说到底,像这类模型,更多的是帮助我们思考它所描述的那个世界的工具。经济学本身也不是以做出完美的长期预测而闻名的,对吧?所以啊,这2043年,咱们是“躺平”享受AI服务,还是被AI“优化”掉,这事儿,走着瞧吧!没准到时候AI最大的用处是帮我们写这种预测未来的文章呢,而且写得比我还快,还没错别字。哎,想想都有点小失落又有点小期待呢!