p;当然,也有可能是他提供的参考数据和资料太少的缘故——模型的能力是推演,而不是创造,它要做一件事儿,是需要数据支撑的。
\n
而他能提供的数据,都是现实中已经存在的——
\n
无非就是动作和手势之类的隔空操作,比如华为的抓手截屏,vision pro的集中手指交互手势,以及一些眨眼翻页之类的东西。vision pro还有眼球追踪配合手势的一系列操作。
\n
但这些还是相对复杂,而且效果也不是很好。
\n
初次尝试可能觉得很好玩,咦,我瞪着某个图标,双手一捏,它就打开了,很神奇的样子,但是这么玩儿一个小时试试?还不得累死!
\n
所以,vision pro看似走出了混合显示很神奇的一步,将app啊、页面啊什么的都可以虚拟在现实中展示出来,还能有很多的互动,看起来很科幻,但是其实很鸡肋。
\n
这东西也就看个电影电视啥的操作比较简单比较少的场景还有点儿用,玩其他的,尤其是需要频繁操作的东西,那太累了。
\n
人机的交互方式会是限制这一切更进一步发展的关键一环。
\n
纪弘经过一些实验之后,也是意识到,在不直接去读取大脑意识的情况下,哪怕是现在完整版的类思考模型,也没有什么太好的办法。
\n
这里边的问题其实是出现在“人”之上。
\n
人机交互,“机”这样东西,自从它一生产出来,它的性能,它的参数,它有什么功能,能干什么,它的一切数据都固定了,就像刚刚,纪弘把vision glass的数据一股脑的直接就提供给了天命,然后它就可以根据技术水准去推测去升级。
\n
但是“人”呢?“人”有什么功能,能干什么?数据又怎么体现?这其中的东西就太复杂了!
\n&nbs
本章未完,请点击下一页继续阅读! 第3页 / 共5页