密集型产业,是当前很多AI产品背后最脆弱的基础,更是东大AI产业能快速发力的一个关键因素。
本小章还未完,请点击下一页继续阅读后面精彩内容!
即面对较复杂的事务,超出字面意思的1+1=2,这种人类已经可以给AI提供成熟的公式体系的问题。
这种人类可以通过开销更小的程序直接解决的问题,也是人类最需要AI解决的问题时。
我们依然无法让AI像自然人一样直接学习“抽象”的自然界,必须通过人类的反刍才能使其渡过初学者阶段,而这种人类反刍过的数据,被称为AI的训练集。
在最初级别的AI训练中,想要AI能正确分辨与训练集同源的检测集(相当于AI是否训练成功的考试题),甚至会需要10倍甚至更多倍数量于检测集的训练集(比人类为了通过考试刷题库的效率还低)。
而这一训练量与分辨能力的比值,即使是加强型机器学习的算法不断提升的当下,也很难突破1:1。
所以现在很多AI公司,最重视的就是可以被AI训练使用的训练集。
各种AI企业会在用户协议中添加,允许其使用用户在使用产品时被动反刍出来的数据的条款,就是因为这一点。
当然,由于训练集的重要性,研究者一直在试图绕过人类反刍这一事实上是当前AI发展最大瓶颈的过程。
其中的方法很多,包括给AI提供基础的规则后,让AI自行生产可以用来学习的训练集,比如第二代阿尔法狗,通过自己和自己对弈生产棋谱,来学习围棋下法的方案。
以及通过训练一个通用性的,可以理解人类既有文献的大模型,为其他专业模型生产训练集等。
而后者正是现在所谓AI语言大数据模型铺天盖地的原因之一。
只是这种试图一劳永逸的为专业AI生成一个,类似于汇编语言在编程语言和机器语言之间作用的大模型的难度,显然很高。
并且这一技术路线,不止面临技术问题,还面临很多政治、伦理问题。
即相比专业化的AI生产工具,存在真专业壁垒保障安全,这类直接获取文字这一代表文明基础的AI,会更容易产生“天网”问题。
因为AI训练的本质,是一种黑箱化的随机归类过程,人类虽然暂时无法彻底理清训练过程,但依然可以抓到一些既有的规律。
这会让这类AI在事实上受到训练集的影响,并产生所谓“人格
本章未完,请点击下一页继续阅读! 第5页 / 共7页