财会AI:九分靠谱一分瞎掰,信任怎么建?

财会AI:九分靠谱一分瞎掰,信任怎么建?

这年头,你要是没跟人聊过几句AI,简直就像上个世纪穿越过来的老古董。AI写稿、AI画画,甚至还能陪你聊天解闷,听起来是挺神的。不过啊,这玩意儿也不是万能的。你让它写个市场推广文案,或者弄个啥战略规划,就算有那么一点点不靠谱,比如90%到95%的准确率,大家可能眼一闭也就过去了,毕竟“创意”嘛,有时候就需要点天马行空。可要是把这套标准搬到财务和账本上,那可真能酿成一场“灾难片”的开场白。

你想想,CFO和整个财务团队,他们吃饭的家伙是啥?是信任,是信心!他们的核心任务就是保证财务报告和预测的每一个数字都精确无误。别说差一大笔,就是“一分钱对不上”,那整个团队的信誉就可能瞬间崩塌,信任的小船说翻就翻。我跟你说,我年轻时在一家小公司管过账,有一次季度报表因为一个小数点点错了位置,老板直接把我叫进办公室,那脸色,啧啧,比我失恋那天还难看。他没骂我,就说了一句:“小王啊,账上的一分钱,就是公司的一条命啊。”从那以后,我对数字就有了敬畏之心。

现在这些大型语言模型,就是我们常说的LLM,比如那个聊天很厉害的ChatGPT,它们天生就是被训练来“创造”的,喜欢自由发挥,语不惊人死不休。这不正好跟会计行业的要求背道而驰嘛?咱们财务最怕的就是“创造性会计”,那可是要出大事的!而且说句实话,这些AI在数学计算方面,有时候也挺让人捏把汗的,你让它算个数,它可能都得掰扯半天,还未必对。

所以啊,像Sage这样在财会软件领域摸爬滚打了这么多年的“老江湖”,他们一开始就明白一个道理:别迷信AI。他们的第一条军规就是,“如果传统开发方式能更好地解决问题,就别硬上AI。”比如说,如果AI需要做数学计算,那就老老实实给它配个计算器程序,别让它自己在那儿瞎琢磨。这话说得实在,就跟你不能指望一个诗人去做精密仪器装配一样,术业有专攻嘛。

他们部署AI也是分两步走的,挺有章法。第一波是那种“幕后英雄”式的任务型AI,用户根本感觉不到它的存在。这种AI是被“精心编排”和“严格限定”的。我记得当年我们团队刚开始尝试用那些“开箱即用”的模型去读发票、分类,那准确率叫一个惨不忍睹,也就75%-80%。尤其是让它找发票上的总金额,十次有六七次都给你指到不知道哪个犄角旮旯去,准确率只有30%-40%!Sage他们也遇到了类似的问题,所以硬是自己吭哧吭哧搞了几十个模型出来,有些模型专门干活,有些模型专门盯着干活的,互为备份,生怕出一点岔子。这就好比一个工厂的流水线,每个环节都有质检员,层层把关。

后来,大型语言模型火了,这就是第二波AI部署浪潮,用户可以直接跟AI“对话”,指挥它干活。这下子产品设计思路都得跟着变,核心就是要让用户“用得放心”。你以为直接拿个GPT-4过来就能搞定财会了?太天真了!这些通用大模型,时不时给你来个“一本正经地胡说八道”,也就是所谓的“幻觉”,而且还死贵死贵的。Sage他们就聪明了,没去追那个参数量最大的模型(据说GPT-4有两万亿参数,吓死人),而是选了个70亿参数的模型,然后开始“魔鬼训练”,也就是深度定制化。

这个定制化可不是闹着玩的。他们能把模型里那些不好的“毛病”,比如输出不健康内容、或者胡乱接话茬的习惯,都给“刮掉”。然后呢,就拼命让这个模型专攻会计那点事儿,让它“特别特别特别擅长这些会计任务”。你要是跟它聊的不是会计问题,它干脆就不搭理你,够专一吧?为了达到这个效果,Sage可是下了血本。他们把所有的产品说明书、最佳实践案例、开发代码、会计教科书、甚至会计考试题都喂给这个模型学习。不仅如此,还专门训练它“理解并使用会计师和财务分析师的行话”。你想想,会计和财务分析师说话都有他们那套“行话”,AI要是不懂这些,怎么跟人交流?这就好比你让一个老外去听相声,他可能连笑点在哪都找不到。

Sage还跟AICPA(就是那个给注册会计师认证的行业协会)合作,拿到了他们专业的学习资料来进一步训练模型。这可不是小事,相当于行业协会都出来给AI站台了,说明整个会计行业也在拥抱和参与AI的发展。当然,步子也不能迈得太大。Sage最初是把Copilot这个AI助手先给那些业务相对简单的小企业和小型会计师事务所用。他们特别谨慎,逐步扩展到更复杂的企业和产品(比如Sage Intacct),就是怕万一“初体验”不好,砸了口碑。他们自己也说了,要“接受谦逊,拥抱责任”,不能急吼吼地把不成熟的AI推给客户。这种态度,我个人是挺欣赏的。

为了真正建立信任,光有好模型还不够,配套设施和透明度也得跟上。Sage专门搞了个“AI工厂”,这是一套自动化的机器学习基础设施,能够自动训练和更新AI模型,甚至可以根据每个客户的具体情况进行“定制化训练”。这个工厂里还有各种安全控制机制,比如能检测到模型性能下降的“模型漂移”监测系统,还有他们自己专利的“幻觉”检测技术。

我最欣赏的是他们最近宣布的一个新东西,叫“Sage信任标签”。这玩意儿,说白了,就像食品包装袋上的营养成分表。它会告诉你这个AI功能用了什么模型,Sage是不是自己训练的这些模型,客户数据是怎么被用来训练的,他们采取了哪些措施来保护数据安全,以及有没有防止偏见或解决道德问题的保障措施。每个AI功能旁边都会有个按钮,用户一点就能看到这个“信任标签”,还能进一步了解Sage完整的AI承诺。这个做法挺聪明的,它把复杂的技术问题用简单明了的方式呈现给客户,也算是给其他AI厂商提了个醒:在法规还没完全跟上的时候,咱自己得先透明起来。这对于帮助财务人员信任AI,把自家数据交给AI处理,绝对是往前迈了一大步。现在这AI市场,说实话有点鱼龙混杂,法规又跟不上趟。Sage搞这么个“信任标签”,有点像是在说:“各位友商,都亮亮底牌吧,别藏着掖着了!”

说了这么多,到底啥是AI信任最重要的?其实很简单,就是看AI背后站着的是谁。一家公司必须透明、可信,并且敢于承认AI并非完美无缺,它也会犯错,也需要不断学习。敢于承认这一点,并且愿意为自己的AI承诺负责,这样的公司才值得托付那么一点点信任。毕竟,信任这东西,不是一锤子买卖,尤其是在AI这个日新月异的领域。今天你觉得可靠的理由,明天可能就成了新的疑点。所以啊,这是一场持久战,无论是开发者还是使用者,都得时刻保持警惕,不断学习和适应,才能在这波AI浪潮中不被拍晕在沙滩上。