偶然看到自己 2009 写的一篇文章,讲述 AI 的早期范式是符号处理,因此为契机阐述早期人工智能工作自然采用了 LISP 语言。文章结尾我说了下现在(2009年)AI 已经是多范式,包括统计方法,符号方法,概率方法等等,这是深度学习出现之前的人工智能领域概况。
再读时感慨万千。时隔十多年,如今AI 范式可以说分久必合,全部收敛成了张量(Tensor) 范式。这是我发明的词。之所以称之为范式,是因为无论输入是图片还是语音文字,都可以统一成张量表示,所有的中间结果也是张量。用深度网络不断处理张量,最终的输出张量能还原到具体的问题,无论是翻译画图生成段落折叠蛋白质都远超其他范式,比如统计,模式匹配或者符号处理。
张量处理需要的是高 FLOPs 数值计算,这个范式成就了做图形处理芯片的 NVIDIA,可见历史的偶然和奇妙。
张量范式也成就了 Python 这样一个多范式 duck-typing 语言, 能表示张量间的抽象计算,还能蒙住自己类型系统的眼睛让这种计算不报错,允许底层自由优化。强静态类型的语言比如 Java 即使当年如日中天,因为类型系统的不匹配,在张量范式前,毫无建树。
显然,一切范式都不是永久的。可以想象下一个人工智能范式正在地球的某个角落被人默默开发中。