出门忘看天气预报淋成落汤鸡;赶时间叫车在APP里戳半天才点上确认;工作久坐8小时颈椎已经在喊救命了……
而且本月还将上线打车、闪购、拍题答疑等一箩筐的生活AI能力,直接一口气把智能体验铺到N个日常高频场景里。
通过增加眼镜信息展示的纵深感,让导航提示、信息卡片、内容展示这些信息也能「平面变3D」了~
能主动服务,能打车闪购,显示还来了波大升级,千问这波操作,是真冲着大家的生活痛点来的啊!?
功能点一个赛一个的炫,查看天气、定时提醒、翻译、提词、显示各种能力可以说是层出不穷。
但一个扎心的事实是,很多功能再丰富,本质上依然依赖用户主动发起,用户得先想起来用、主动唤醒、明确提出需求,这套智能链路才能真正跑起来。
一方面,在时间和精力都被分得很碎的生活中,我们大多数时间真的懒得动手或张嘴发号施令。(doge)
大家沉淀的设备使用习惯,很难让我们在第一时间自然联想到:这件事也可以交给一副眼镜来完成。
所以千问这次给S1眼镜做的一个关键升级,就是把人与AI眼镜的交互逻辑往前推了一步,让眼镜从等你指令变成「主动服务」。
它瞄准的,正是日常生活里那些最容易被忽略、也最容易忘记或懒得主动提需求的瞬间,让真正「有价值的协助」发生在我们开口之前——
举个再常见不过的例子:早上出门太赶,没来得及看天气预报,结果走到半路才发现没带伞。照以前的情况,大概率只能认倒霉,要么淋着走,要么临时找地方买伞。
而千问AI眼镜的主动服务能力,则能够在我们出门前结合当天的天气、时间、位置,主动提醒今天有雨,出门时记得带伞。(马大哈本人狂喜.jpg)
工作场景里也是一样,眼镜也不再只是定时提醒,其还能结合用户佩戴状态、使用时长、低头姿态等信息,判断并提醒该抬头活动一下。
当AI能在你开口之前,就察觉到那些容易被忽略的小需求,AI眼镜和用户之间的关系,也就从我问你答、被动响应变成了替你多想一步。
当然这还只是开胃菜,千问AI眼镜的主动服务能力还覆盖了更多领域,比如早间新闻播报、专属推荐歌单生成、运动轨迹记录等等~(期待.jpg)
大家也不难发现,相比过去你问我答、你说我做的被动式AI交互,AI眼镜主动服务的核心变化在于——
真正打破了AI眼镜与用户之间的指令壁垒,让AI眼镜真正具备更强的「需求预判」能力。
对于穿戴式智能终端来说,其核心竞争力从来不是功能的多少,而是融入场景的高效性和省力性,而主动服务,正是实现这一目标的关键。
在主动服务时,千问AI眼镜可以通过对用户偏好、行为的记忆,结合时间地点、外部环境等需求,为用户提供主动性的提醒或服务执行。
这也意味着AI眼镜也开始从一个等待被调用的工具,向更懂用户、更贴近日常的智能伙伴演进,千问AI眼镜,这波也是摇身一变成超贴心的「生活搭子」了……
能主动服务是一方面,但对于AI眼镜而言,真正决定体验上限的核心还有「AI能力」本身。
数字如此之惊人的背后,一个很明显的趋势是现在AI眼镜正在快速从小众尝鲜,走向更大规模的消费市场。
But,出货量涨得快归快,行业的快速扩张背后仍存在明显的AI能力上的体验短板——目前市面上大多数AI眼镜的「AI能力」仍然集中在翻译、识物、会议转录等基础场景里。
从大众日常生活来看,AI眼镜要真正成为高频入口,还需要进一步接住用户「每天都会反复发生」的生活需求。
基于阿里强大的应用生态,通过本月即将上线的「千问AI助手」一系列生活AI能力,让AI能力真正走进打车、点外卖、查店铺评分、拍题答疑、买电影票等更深度或更高频的生活场景。
当一副AI眼镜的AI能力足够支撑用户日常的高频需求场景后,很多原本需要每天掏手机点来点去才能完成的小事,都可以直接通过面前这副小小的眼镜来完成,自然就是一个《大省心》。
而这,也让AI眼镜从一个单纯能戴在脸上的智能硬件,成为了一个真正随时在线、能帮用户处理日常任务的AI入口。
这次同步升级的,还有一个看似微不足道,但事实上非常影响用户使用体验的能力——「行业首创空间3D显示」。
导航、提醒、信息卡片确实都能显示出来,但很多时候更像是在视野前多盖了一层画面,功能倒有,空间感却不够。
用户确实能看得到提示,但信息一多,就容易挤在同一层视觉平面里,显得生硬,也更容易打断注意力!!
而S1这次升级的重点之一,就是让眼镜显示能够从「2D变3D」(好家伙.jpg)——
通过首创真3D显示,双光机搭配双目立体成像技术,进而让信息拥有纵深、层次和距离感,这样一来无论是导航提示、信息卡片,还是内容展示,都可以更立体地出现在眼前~
在千问AI眼镜团队看来,现实世界天然是立体的,有景深感,而人的双眼天然具备双目视差,可以直接感受到立体环境的存在。
团队正是看透了人眼这套天然的视觉逻辑,顺着人类亿万年进化而来的视物习惯去做还原、去做适配。
贴合人眼本能,才让AI眼镜那副小小的显示屏像真实世界一样,感受到自然的景深和空间感。
当导航提示有了前后关系,信息卡片有了空间层次,内容展示有了距离感,AI眼镜就不再只是把手机里的信息搬到眼前,而是开始形成一种更适合头戴设备的显示逻辑。
毕竟,真正好用的眼镜不能只负责把信息显示出来,还得让信息出现得自然、舒服、刚刚好,妙啊妙啊……
市场不会为谁先入局盲目买单,用户最终认的一定是产品力,能否做到体验好用、场景实用、品质耐用,才是决定品牌立足的核心根本。
而千问AI眼镜在AI能力、续航、显示等关键体验上持续打磨,也正好踩中了用户最关心的生活痛点。
维深Wellsenn XR最新数据显示,自3月8日正式开售以来,千问AI眼镜线上累计销量占国内AI眼镜市场总份额达53%,位居线上市场第一。
不仅如此,G1眼镜发售后,连续8日位居全网销量第一,而S1开售10小时便登上多个平台榜单,也让市场对千问AI眼镜的关注度持续升温。
当前大家对AI眼镜的期待,正在从「它能展示什么功能」转向「它能不能真的帮我过好每天」。
但未来真正有想象空间的AI眼镜,应该能理解用户当下的状态,接入用户最高频的生活入口,判断用户此刻可能需要什么,把提醒、信息和服务更自然地送到眼前。
它可以在你出门前提醒带伞,在你低头太久时提醒活动,在你运动时主动告知运动表现、记录高光时刻等等。
在这个过程中,AI眼镜的角色也在发生迁移,通过更贴近用户的佩戴形态,把AI能力嵌进那些最容易被忽略、也最容易让人嫌麻烦的生活缝隙里。
当一副小小的眼镜框,既能感知你的状态,也能连接你需要的服务,还能在合适的时间把提醒和信息递到眼前,它就不再只是一个硬件,而是有机会成为一个真正随身、实时、主动的个人AI入口。
量子位 QbitAI