苹果新获手势专利,未来iPhone等设备有望实现空中操作
《苹果手势专利概述》
去年年底美国专利商标局公开了苹果拿到的一项新授权专利,专利名称是「具有基于手势的输入检测的电子设备」,消息出来之后,不少科技圈和消费电子用户都在讨论——苹果这是要把Vision Pro的空中手势,搬到咱们日常用的iPhone、iPad上了。
这项专利的核心,其实不是从零做一套全新手势技术,而是把Vision Pro上已经验证过的空中手势交互,适配到非头显的常规消费电子设备上。简单说就是,Vision Pro现在需要用户直接在头显摄像头前伸手比划,现在苹果想把这套逻辑挪到普通的手机、平板和笔记本上,不用碰屏幕,隔空就能完成操作。
根据专利公开的文件,苹果这套技术会在设备上集成多个不同位置的检测传感器,不光能捕捉手势的整体动作,还能识别不同手指的细微运动,甚至能感知到用户手掌距离设备的距离,区分用户是无意晃了晃手,还是真的想要操作设备。
和很多人猜测的不一样,苹果这次申请的专利,从申报内容开始就明确覆盖了iPhone、iPad、MacBook、iPod甚至苹果电视这些全产品线,不是给某一款新品单独做的技术。专利申报文件里还附上了多个实施例示意图,其中一张就是用户对着MacBook隔空滑动翻网页,还有一张是用户在iPhone前捏合手指缩小图片,能看出来苹果早就把不同设备的适配场景都摸过一遍了。
其实Vision Pro发布之后,苹果对外释放的信号一直很明确:Vision Pro不只是一款单独的头显产品,它更是苹果下一代交互技术的试验场。头显因为没有实体键盘鼠标,天生需要空中手势这种交互方案,现在苹果在头显上跑通了用户习惯和技术基础,下一步就是把成熟的方案下放到销量更高的核心产品线里。
现在苹果的推进计划也能从专利布局看出来,第一步是先完成基础专利的覆盖,把技术原理、适配方案各个环节都注册专利保护,接下来应该会先在部分机型上做小规模功能测试,比如先给iPad Pro上开放部分隔空手势操作,用来翻页、切换App这类简单操作,等用户反馈和技术调试都稳定之后,再逐步下放到iPhone和MacBook上。
从目前的专利信息来看,苹果的目标不是完全取代触摸屏和键盘鼠标,而是给用户多一个不用碰设备的操作选择——比如手上沾了水吃零食的时候,做饭的时候看菜谱,隔空划两下就能翻页,不用把手擦干净再碰屏幕,这个场景其实已经足够实用了。
# 《手势专利技术细节》
这项苹果手势专利,核心是基于设备自带的红外扫描系统做手势识别,原理其实很好懂——设备的红外发射器会向设备前方的空间发射低功率红外点阵,这些点阵碰到用户的手之后会反射回设备的红外接收传感器,传感器捕捉到点阵变形和距离数据后,再交由芯片上的专属算法做计算,就能还原出手的三维轮廓、关节角度和运动轨迹。
和目前市面上已经在用的触控手势、隔空轻点不一样,这项专利的识别范围覆盖了设备前方0到1米左右的半开放空间,既能识别整个手掌的大范围移动,比如挥手翻页、挥手切歌,也能精准捕捉单个手指的细微动作,比如拇指和食指捏合缩小图片、指尖点选屏幕上的应用图标、转动手腕调整照片角度。哪怕你的手没有完全对准设备镜头,只要在识别空间范围内,算法都能排除背景杂物的干扰,只追踪手部动作,不会误触发其他操作。
这套技术识别的不仅是静态手势,还能追踪动态连续动作。比如你从屏幕左侧隔空向内划,就能返回上一页,从底部向上划就能回到主界面,这些操作逻辑和用户已经习惯的触控手势保持一致,不用重新学习成本。
放到实际使用场景里,体验提升其实很明显。比如冬天在家窝在沙发上玩手机,手插在暖水袋旁边不想拿出来,隔着几十厘米隔空挥一下就能切歌、刷短视频,不用把手伸出来冻着。做饭的时候看菜谱,手上沾了面粉或者油,不用碰脏手机屏幕,隔空点一下就能翻页,不用找纸巾擦手再操作。
用平板画画的时候,也不用频繁切换笔和手指,隔空做个捏合动作就能缩放画布,做个挥手动作就能撤销上一步,比频繁点击工具栏省了不少步骤。哪怕是放在MacBook上,用户坐着打字的时候,不用伸手去碰触控板调整音量,对着电脑做个向上抬的手势就能直接调高音量,开会的时候翻PPT,不用凑到电脑前操作,站在演讲台就能隔空翻页,流畅很多。
而且这项专利用的是设备自带的红外组件,不用额外加太多硬件成本,识别的响应延迟也控制在几十毫秒以内,普通用户几乎感觉不到卡顿,不会出现做了动作半天没反应的情况。
《对未来设备操作的影响》
如果苹果真的把这套空中手势操作落地到iPhone、iPad这些大众设备上,对整个消费电子行业的操作逻辑,都会产生不一样的化学反应。
最直接的改变,就是用户和设备的交互边界被打破了。现在我们用手机,必须贴手触摸,手上沾了水、戴着手套的时候,操作体验就会变得很差,吃饭的时候想刷手机,还得先擦干净满手油。要是用上空中手势,这些问题就都不存在了——哪怕手脏、戴着手套,甚至隔着桌子,抬抬手就能滑动页面、接电话、切歌。更有意思的是场景延伸,比如做饭的时候对着手机比个手势就能翻菜谱,躺床上举着手机刷久了手酸,离远一点挥挥手就能切下一条视频,这些小细节积累起来,用户的使用习惯会慢慢发生改变。
当不需要紧贴屏幕操作变成现实,设备本身的设计逻辑也会变。现在手机厂商都在卷全面屏,把边框越做越窄,还要预留屏下指纹、Face ID的位置,如果操作都能在空中完成,是不是意味着屏幕可以完全做成整块玻璃,甚至侧边都不需要预留按键?未来说不定真的能出现完全无按键的iPhone,整机一体性会比现在强太多。
这种变革不止会改变苹果自己的产品,整个手机行业的竞争方向都会被带偏。一直以来,安卓厂商都喜欢跟着苹果的创新方向走,当年苹果做了触控屏,整个功能机市场直接被颠覆,后来苹果推Face ID,一堆厂商跟着做3D结构光。这次苹果如果把手势操作做成了iPhone的标配功能,其他厂商肯定会快速跟进,三星、小米这些本身就在布局AR交互的品牌,大概率会加快自己的空中交互技术研发,说不定再过两三年,中高端机型都会开始搭载类似功能,整个市场的产品卖点都会从拼处理器、拼影像,慢慢转变成拼交互体验。
当然也不是说马上就能替代触控,至少很长一段时间里,空中手势都会是触控的补充,而不是替代——比如打字这种精细操作,还是直接触屏更顺手。但哪怕只是作为辅助交互,它也打开了新的可能性,未来甚至能和现在的AR、VR技术结合,让移动端的交互体验跳出屏幕的限制,这对整个行业来说,都是值得期待的新方向。
去年年底美国专利商标局公开了苹果拿到的一项新授权专利,专利名称是「具有基于手势的输入检测的电子设备」,消息出来之后,不少科技圈和消费电子用户都在讨论——苹果这是要把Vision Pro的空中手势,搬到咱们日常用的iPhone、iPad上了。
这项专利的核心,其实不是从零做一套全新手势技术,而是把Vision Pro上已经验证过的空中手势交互,适配到非头显的常规消费电子设备上。简单说就是,Vision Pro现在需要用户直接在头显摄像头前伸手比划,现在苹果想把这套逻辑挪到普通的手机、平板和笔记本上,不用碰屏幕,隔空就能完成操作。
根据专利公开的文件,苹果这套技术会在设备上集成多个不同位置的检测传感器,不光能捕捉手势的整体动作,还能识别不同手指的细微运动,甚至能感知到用户手掌距离设备的距离,区分用户是无意晃了晃手,还是真的想要操作设备。
和很多人猜测的不一样,苹果这次申请的专利,从申报内容开始就明确覆盖了iPhone、iPad、MacBook、iPod甚至苹果电视这些全产品线,不是给某一款新品单独做的技术。专利申报文件里还附上了多个实施例示意图,其中一张就是用户对着MacBook隔空滑动翻网页,还有一张是用户在iPhone前捏合手指缩小图片,能看出来苹果早就把不同设备的适配场景都摸过一遍了。
其实Vision Pro发布之后,苹果对外释放的信号一直很明确:Vision Pro不只是一款单独的头显产品,它更是苹果下一代交互技术的试验场。头显因为没有实体键盘鼠标,天生需要空中手势这种交互方案,现在苹果在头显上跑通了用户习惯和技术基础,下一步就是把成熟的方案下放到销量更高的核心产品线里。
现在苹果的推进计划也能从专利布局看出来,第一步是先完成基础专利的覆盖,把技术原理、适配方案各个环节都注册专利保护,接下来应该会先在部分机型上做小规模功能测试,比如先给iPad Pro上开放部分隔空手势操作,用来翻页、切换App这类简单操作,等用户反馈和技术调试都稳定之后,再逐步下放到iPhone和MacBook上。
从目前的专利信息来看,苹果的目标不是完全取代触摸屏和键盘鼠标,而是给用户多一个不用碰设备的操作选择——比如手上沾了水吃零食的时候,做饭的时候看菜谱,隔空划两下就能翻页,不用把手擦干净再碰屏幕,这个场景其实已经足够实用了。
# 《手势专利技术细节》
这项苹果手势专利,核心是基于设备自带的红外扫描系统做手势识别,原理其实很好懂——设备的红外发射器会向设备前方的空间发射低功率红外点阵,这些点阵碰到用户的手之后会反射回设备的红外接收传感器,传感器捕捉到点阵变形和距离数据后,再交由芯片上的专属算法做计算,就能还原出手的三维轮廓、关节角度和运动轨迹。
和目前市面上已经在用的触控手势、隔空轻点不一样,这项专利的识别范围覆盖了设备前方0到1米左右的半开放空间,既能识别整个手掌的大范围移动,比如挥手翻页、挥手切歌,也能精准捕捉单个手指的细微动作,比如拇指和食指捏合缩小图片、指尖点选屏幕上的应用图标、转动手腕调整照片角度。哪怕你的手没有完全对准设备镜头,只要在识别空间范围内,算法都能排除背景杂物的干扰,只追踪手部动作,不会误触发其他操作。
这套技术识别的不仅是静态手势,还能追踪动态连续动作。比如你从屏幕左侧隔空向内划,就能返回上一页,从底部向上划就能回到主界面,这些操作逻辑和用户已经习惯的触控手势保持一致,不用重新学习成本。
放到实际使用场景里,体验提升其实很明显。比如冬天在家窝在沙发上玩手机,手插在暖水袋旁边不想拿出来,隔着几十厘米隔空挥一下就能切歌、刷短视频,不用把手伸出来冻着。做饭的时候看菜谱,手上沾了面粉或者油,不用碰脏手机屏幕,隔空点一下就能翻页,不用找纸巾擦手再操作。
用平板画画的时候,也不用频繁切换笔和手指,隔空做个捏合动作就能缩放画布,做个挥手动作就能撤销上一步,比频繁点击工具栏省了不少步骤。哪怕是放在MacBook上,用户坐着打字的时候,不用伸手去碰触控板调整音量,对着电脑做个向上抬的手势就能直接调高音量,开会的时候翻PPT,不用凑到电脑前操作,站在演讲台就能隔空翻页,流畅很多。
而且这项专利用的是设备自带的红外组件,不用额外加太多硬件成本,识别的响应延迟也控制在几十毫秒以内,普通用户几乎感觉不到卡顿,不会出现做了动作半天没反应的情况。
《对未来设备操作的影响》
如果苹果真的把这套空中手势操作落地到iPhone、iPad这些大众设备上,对整个消费电子行业的操作逻辑,都会产生不一样的化学反应。
最直接的改变,就是用户和设备的交互边界被打破了。现在我们用手机,必须贴手触摸,手上沾了水、戴着手套的时候,操作体验就会变得很差,吃饭的时候想刷手机,还得先擦干净满手油。要是用上空中手势,这些问题就都不存在了——哪怕手脏、戴着手套,甚至隔着桌子,抬抬手就能滑动页面、接电话、切歌。更有意思的是场景延伸,比如做饭的时候对着手机比个手势就能翻菜谱,躺床上举着手机刷久了手酸,离远一点挥挥手就能切下一条视频,这些小细节积累起来,用户的使用习惯会慢慢发生改变。
当不需要紧贴屏幕操作变成现实,设备本身的设计逻辑也会变。现在手机厂商都在卷全面屏,把边框越做越窄,还要预留屏下指纹、Face ID的位置,如果操作都能在空中完成,是不是意味着屏幕可以完全做成整块玻璃,甚至侧边都不需要预留按键?未来说不定真的能出现完全无按键的iPhone,整机一体性会比现在强太多。
这种变革不止会改变苹果自己的产品,整个手机行业的竞争方向都会被带偏。一直以来,安卓厂商都喜欢跟着苹果的创新方向走,当年苹果做了触控屏,整个功能机市场直接被颠覆,后来苹果推Face ID,一堆厂商跟着做3D结构光。这次苹果如果把手势操作做成了iPhone的标配功能,其他厂商肯定会快速跟进,三星、小米这些本身就在布局AR交互的品牌,大概率会加快自己的空中交互技术研发,说不定再过两三年,中高端机型都会开始搭载类似功能,整个市场的产品卖点都会从拼处理器、拼影像,慢慢转变成拼交互体验。
当然也不是说马上就能替代触控,至少很长一段时间里,空中手势都会是触控的补充,而不是替代——比如打字这种精细操作,还是直接触屏更顺手。但哪怕只是作为辅助交互,它也打开了新的可能性,未来甚至能和现在的AR、VR技术结合,让移动端的交互体验跳出屏幕的限制,这对整个行业来说,都是值得期待的新方向。
评论 (0)
