编者按:本文来自微信公众号“量子位”(ID:QbitAI),作者:夏乙,36氪经授权发布。

在iPhone自带的“照片”应用中搜“brassiere”,它就会把所有内衣照(如果你有)都给你汇总在一起展示出来……

这你知道嘛?

反正美国妹纸ellieeewbu之前不知道。她“发现这个新功能”之后,就炸裂了,在Twitter上惊呼:

姐妹们姐妹们大事不好了啊!在苹果相册里搜一下“Brassiere”!苹果为什么要把这些存成一个文件夹!!?!!?😱😱😱😱

就是!可怕!

Twitter上的女性用户们搜了搜自己的相册,开始了后续的连环炸裂……不出一天,上边这条“可怕!”的推文就被转发了上万次,收获了2万多个赞,以及近千条评论。

在这场连环炸裂中,评论区损毁严重,比如说,有一群搜完发图惊呼“WTF”的:

也有虽然能保持文明用语,但明显被吓了一跳,无论如何也想不明白“天啊苹果怎么知道”的:

当然,也少不了各种乱入,从大家发在评论中的图片来看,很多吊带裙、晚礼服都被认成了内衣。还有更惨的,比如这个少年的脸,苹果的算法也觉得和内衣很相似:

苹果甚至还把两条腿,给认成了热狗:

在一众惊慌失措的妹子中,终于有人站出来摆事实、讲道理,展示“苹果真的不是只关心你们的内衣照”。她对妹子们说:你也可以搜“dog”啊,你所有狗狗的照片就都出来了,拿好不谢。

身为全球第一网红的猫,当然也能搜出来。

总的来说,不要慌不要炸,苹果并不是一个只对你内衣照有兴趣的变态。系统自带的“照片”应用能搜出来的物品,从内衣、烤肉、猫猫狗狗,到天空海滩,范围广得很。

而且苹果对内衣的识别,也没有上文几位姑娘想象得那么危险,这个我们后面再说。

在谈图像识别之前,我们先思考一个有趣的问题:苹果自带的“照片”应用,从什么时候开始有这个功能的,你还记得吗?从iPhone 8开始?从iOS 11开始?

认为上边两项是正确答案的,都不是合格的果粉。

量子位来带大家温习一下历史。这项功能,在苹果公司2016年6月的WWDC上首次展示出来,是“照片”应用在iOS 10和macOS Sierra中获得的重大更新,借助人工智能技术,引入了对人脸、物体和场景的识别。

人脸识别带来的新功能,是“人物”相册。苹果会自动按照照片中的不同人物,分成不同相册,用户还可以为每个相册添加名字,便于查找。

而对物体和场景的识别,带来的是“强大的搜索”。比如说一张有山有水有人有马的照片,以后就可以根据其中的场景(山、河)和物体(人、马)搜索出来。

另外,新版的照片还增加了按地点来检索照片的功能。

这三者结合起来,就有了新“照片”应用中的“回忆”功能。苹果会根据照片的拍摄时间地点、其中的人、物体和场景,将它们以“回忆”的形式组织起来,还附赠苹果帮你配了背景音乐的视频,比如说某次全家出门旅行的照片,就会被自动放在同一个“回忆”中。

同年10月,iOS 10更新推送,大部分苹果用户就都用上了新版的“照片”。广大用户用着用着,感觉眼前一亮的大概是新增的“回忆”功能,其次是“人物”和“地点”相册。

而需要用户主动发起交互的“强大的搜索”,就渐渐被淡忘了,大多数用户“从来没用过”,甚至有不少人从来都不知道它的存在。

温习完毕,我们再来谈一谈苹果“照片”里的物体和场景识别。

iOS 10刚刚发布时,有网友根据macOS Sierra照片应用中的代码统计得出,这一版照片应用可以识别7种面部表情,包括贪婪、厌恶,中性,尖叫,微笑,惊讶和怀疑,而能够识别的物体和场景,有3787种,支持中文的有3696种。

而现在,据说“照片”应用能识别的物体和场景已经有4000多种,其中甚至能看到不少中国用户并不熟悉的的名字,比如地中海雪貂、中东蔬菜球、伽蓝鸟等充满异域风情的名词,甚至还有“介质”这种抽象的东西。

完整列表见:
https://zhuanlan.zhihu.com/p/21390428

图像识别这个功能之所以没有受到太多关注,除了需要主动搜索之外,大概也因为它并没有什么新鲜感。

这两年,从机场火车站,到手机上的支付宝、甚至你还没收到货的iPhone X,“刷脸”已经变成了一件司空见惯的事。识别除了人脸之外那些普通的物体、场景的功能,也渐渐普及起来。

“照片”应用里识别物体和场景的基本原理,就是大家已经渐渐熟悉的图像分类。

不过,苹果的图像分类算法有一点特别之处:他们的图像识别模型在手机上运行,而不是云端的服务器。在一张照片被识别的过程中,它不需要经历“传送到服务器→识别,打上类别标签→传送回来”这个过程,一切都在手机本地完成。

这也就是为什么说苹果识别内衣这件事,“没有上文几位姑娘想象得那么危险”,起码比将这些照片同步到iCloud要安全多了。

在移动设备本地运行图像识别模型这件事,苹果算是业内较早提出的。现在,让深度学习模型能在移动设备本地运行,也成了一股潮流。

早在今年4、5月份,Facebook和Google就抢在苹果之前,分别发布了适用于移动端的深度学习框架Caffe2和TensorFlow Lite。

而苹果为了让iOS生态中的App的开发者,也具备把图像分类模型压缩到能直接在iPhone上运行的能力,也在2017年6月的WWDC上推出了CoreML。

苹果说,用了Core ML,iPhone上的人脸识别比Google Pixel上快6倍。

当时,关于CoreML是什么、怎么用,量子位都有相关文章:

苹果大秀AI肌肉:详解Core ML框架及智能音箱HomePod

苹果新推出的CoreML怎么用?有哪些bug?这里有一份教程

更多详细内容,还可以访问开发者文档:https://developer.apple.com/documentation/coreml

iPhone相册会自动归类内衣照?这项机器学习功能让妹子们炸了

发表评论

电子邮件地址不会被公开。 必填项已用*标注