对话Rokid副总裁:未来智能眼镜一定会取代手机,大厂加入能进一步教育市场
(整理/胡嘉烨 编辑/吕栋)
观察者网:今年,AI眼镜火爆出圈,引发了行业内外的广泛关注。许多人对AI眼镜的底层技术、未来发展前景以及行业竞争格局充满好奇。我们邀请了中国AR行业头部企业Rokid的副总裁蔡国祥,来与我们分享他的见解。
蔡国祥:大家好,我是蔡国祥。Rokid是一家以AI和AR为核心打造产品的平台公司。在市场上,大家熟知的产品是我们的AR眼镜,今天在展会现场,大家可以亲自体验。
蔡国祥:我清楚记得发生的时间是2月18日,在杭州余杭区高质量产业发展大会上,创始人Misa戴着AR眼镜进行了一场没有演讲稿的演讲,引发了广泛关注。这次事件的传播热度对我们企业带来了显著的积极影响。首先,它让很多人了解到Rokid这家公司以及我们的AR眼镜产品,极大地提升了公司和产品的知名度和流量。许多潜在的合作伙伴、投资人纷纷与我们接洽,带来了更多的合作和投资机会。从行业角度来看,这次事件也让更多人关注到AR眼镜这一新兴产品,推动了行业的普及和教育。
观察者网:这次事件是否也给Rokid带来了更多动力和压力?
蔡国祥:确实如此。动力方面,这次事件让我们更加自信和积极地推动产品的进展。然而,压力也很大,因为产品受到了更多关注,我们不得不投入更多时间打磨产品,确保其品质能够满足用户的期待。这导致我们的研发和生产压力增大。
观察者网:今天我们在世界人工智能大会的现场,主题自然是AI。能否请您介绍一下AI眼镜及其产品的底层能力,以及如何实现这些AI功能?
蔡国祥: Rokid的核心是围绕AI和AR开发产品。AI技术已经非常强大,并且正在成为各行各业的底层技术。我们的另一个核心是打造AR眼镜,并开发自己的AR操作系统。多年来,我们在操作系统方面积累了丰富经验。如何让这一全新设备的操作系统运行得更高效、延迟更低、功耗更小,以及交互效果更佳,这非常考验操作系统的性能。而将这些能力与大模型AI结合,不仅拓展了想象空间,也为用户提供了诸多实用的服务和功能。我们早期推出的提词器功能相对简单,仅通过蓝牙戒指实现翻页。如今,新的提词器已融入人工智能算法,能够识别演讲者的语句并自动跟踪翻页,显著提升了用户体验。在翻译功能方面,我们通过智能眼镜实现了多语言实时翻译。用户面对不同语言的外国人时,只需戴上眼镜即可将对方语言实时翻译成中文,实现无障碍沟通。这一功能在实际应用中获得了广泛认可。
我们与高德合作的导航功能,通过结合高德的导航智能体,实现了更精准的导航体验。此外,我们与支付宝合作推出的“看一眼支付”功能,利用大量人工智能算法确保支付的顺畅与安全。其中,有一个很重要的环节叫声纹识别,它通过声音判断用户身份,进一步提升了支付的安全性。未来,我们还将拓展更多生活服务场景,如打车、点餐和商品搜索等。大模型的广泛应用使其成为一个无所不知的知识库和万能助手。通过将大模型与智能眼镜结合,用户可以随时提问并获得解答。眼镜的摄像头为大模型增加了视觉能力,使其不仅能听懂用户的问题,还能看到用户眼前的世界,提供更全面的解答。这些功能不仅实用,还为用户带来了丰富的想象空间。
观察者网:那在AI能力打磨这方面,你们是跟行业协同发展?还是说自己构建自研AI呢?
蔡国祥:这两块都有。AI能力大多是基于基础大模型的。基础大模型需要大量投入,不是普通创业公司能够承担的,Rokid也明确了自己的定位,不涉足基础大模型的研发,但专注于自身擅长的领域。我们的AR眼镜能够对接多种大模型,例如通义、豆包、智谱以及DeepSeek等。用户可以根据自己的习惯和偏好选择使用哪一种大模型,我们提供了灵活的选择。此外,基于大模型,我们还自主研发了一些模型。以我们开发的意图识别模型为例,当用户通过眼镜与大模型进行交互时,该模型能够判断用户的意图,并据此调用大模型的相应能力进行处理。例如,用户询问眼前的花是什么,系统就会调用视觉大模型;若用户询问历史故事,则会调用语言大模型。由于每个大模型都有自己的侧重点和擅长领域,我们会根据用户的意图对大模型进行分类调用,以确保用户的问题能够得到最合适的解答。同时,像提词器功能的算法也是我们自主研发的。我们在视觉算法和语音算法方面有着丰富的经验和技术积累。我们利用行业内顶尖的大模型作为基础底座,并结合自身操作系统的研发,将人工智能算法和本地模型与大模型相结合,为用户提供更优质的交互体验。
观察者网:现在手机的AI能力是端云结合的模式,您认为未来在眼镜产品上,是否也会采用类似的模式?
观察者网:云和端的协同它其实一方面提高效率,另一方面隐私安全这块,端和端做得更好。
观察者网:目前智能眼镜行业吸引了众多企业,但各企业在未来规划及AI应用方面存在差异。Rokid在AI领域处于行业前列,但也有部分企业认为AI技术尚未成熟。若将智能眼镜的AI能力比照自动驾驶的L2至L5级别划分,您认为当前智能眼镜的AI水平处于哪个阶段?
蔡国祥:之前行业内也有这样的说法,将AI分为几个等级。L1是指令式,L2是推理和聊天,可以自由对话;L3是能够帮助执行任务的代理(Agent);L4是帮助创新;L5是大规模自主决策和组织。从这个角度看,我个人认为目前AI在L2阶段,发展已经较为成熟,但L3也已经开始起步。我个人认为,L2和L3并非完全独立,而是存在一定的重叠。L2发展到一定阶段后,L3就开始了。目前L2的推理能力已经很强,具备丰富的知识和强大的逻辑推理能力,甚至在医生、律师等职业资格考试中能够取得高分。因此,L2已经发展到一个比较高的阶段。与此同时,L3的代理和执行功能也开始出现。今年被认为是智能体(Agent)的元年,智能体代表L3。我认为目前AI整体处于L2的较高阶段,同时L3也已经开启。我们认为眼镜是人工智能的最佳载体,其发展与人工智能阶段大致匹配。但由于硬件是新出现的,将人工智能能力集成到眼镜上需要一个开发和对接的过程,因此可能会略晚于人工智能阶段,大约晚几个月。
总体而言,无论是AI还是AI眼镜,目前都处于L2和L3重叠的阶段,L3已经开始。今年我们看到了很多智能体的出现,例如之前很火的智能体Manus。然而,智能体面临一个问题:许多智能体的能力已经被基础大模型本身所涵盖。例如,通义和Gemini的新版已经具备了很强的Agent能力。但在一些深度和专业门槛较高的垂直领域,智能体创业可能仍有机会。如果智能体的门槛不高,大模型本身就能完成这些功能。因此,我认为今年正处于这个阶段,L3已经开始,从今年的展会来看,智能体已经迎来了大爆发。
1、罗马诺:曼联计划未来几天内与布莱顿就巴莱巴展开新一轮接触,曼联罗马全场录像