3月12日,2026年中国家电及消费电子博览会(AWE 2026)正式启幕,声网携两大新品亮相,包括对话式AI开发套件R全系列产品与“泛IPC实时交互+智能处理引擎”,并展示数十款搭载其技术的明星硬件产品组,向业界展示了其决定硬件交互体验的关键角色。
在本次AWE上,声网R2全场景AI机器人开发套件原型机首次亮相。R2在继承全双工语音优势的基础上,新增了本地视觉识别与多自由度运动控制,实现了从“能听会说”到“能看会动”的关键跨越。它能“看懂”手势、识别人脸轨迹,甚至实现“走到你面前打招呼”或“转头注视说话者”这类充满生命感的本能反应。这种“被看见”和“被注视”的体验,让AI从一个简单应答的硬件,进化成了有灵性的陪伴者,为后续复杂场景落地提供了标准化的“技术基座”。
在AWE上亮相的陆卡卡是搭载R2套件的桌面级情感机器人,如今陆卡卡不再被动等待对话。当你走近它时,它会转头凝视你;当你指向某处,它能循声辨位。这种“被注视”的体验,将人机交互从“命令—响应”的机械流程,推进到了“感知—共鸣”的情感层面。
声网表示,上述产品背后的技术主要是基于人类自然语言的对话式AI与高可靠的实时传输能力。公司希望通过开发套件迭代和行业解决方案升级,为硬件厂商提供多种交互能力,实现从“能听会说”到“能看会动”,从“看得见”到“能互动、会思考”。
今年年初,声网宣布了一项具有行业战略意义的举措:将核心的硬件抽象层项目AOSL在GitHub全面开源。AOSL在操作系统、芯片与RTC传输层之间定义了一套标准接口,屏蔽了底层FreeRTOS、Linux与不同芯片型号之间的差异。对于芯片厂商而言,接入AOSL意味着其硬件从出厂即具备了“声网级”的实时互动能力。
本次AWE上声网首次展现了最新的开源生态,这种“开源底座+商业套件”的模式,正在吸引越来越多芯片伙伴加入生态,将硬件的创新模式从过去的“一次性定制”推向了“可复用、可扩展”的生态协作。
同时,声网在本届AWE同步发布的“泛IPC实时交互+智能处理引擎”,则直面“如何让海量IoT设备在全球范围内稳定连接、实时交互”的刚需。
声网表示,当AI硬件从“功能机”向“情感机”“智能体”进化,实时互动体验的优劣将成为决定产品生死的关键。声网将继续通过对话式AI开发套件的一代代升级、通过AOSL开源生态的构建、通过泛IPC解决方案的全球部署,将复杂的实时互动能力标准化、模块化,为整个行业铺设通往万物智联时代的底层通路。