谷歌在智能手机相机上捕捉和了解我们的情绪?


谷歌在智能手机相机上捕捉和了解我们的情绪?

三年前,我写了一篇关于Google专利的文章,该专利考察了搜索者对搜索结果的反应,以便对这些搜索结果进行排名 生物特征参数作为Google搜索结果中的排名信号?

基于智能手机相机机器学习的生物识别排名“width =”480“height =”582“sizes =”(最大宽度:480px)100vw,480px“data-srcset =”https://cdn.searchenginejournal.com/ wp-content / uploads / 2019/07 / biometric-machine-learning-google-480x582.jpg 480w,https://cdn.searchenginejournal.com/wp-content/uploads/2019/07/biometric-machine-learning-google .jpg 583w“data-src =”https://cdn.searchenginejournal.com/wp-content/uploads/2019/07/biometric-machine-learning-google-480x582.jpg

从那时起,我一直在关注谷歌的专利申请,该专利申请使用智能手机相机来查看该设备用户的表情,以便更好地了解该人的情绪。

已经提交了关于这种过程的专利申请。我想知道大多数人是否会对使用这项新专利申请中描述的流程感到满意。

这个新专利方法的摘要背景是我见过的最短的一个,告诉我们:

“一些计算设备(例如,移动电话,平板电脑等)提供图形键盘,手写识别系统,语音到文本系统,以及用于组成电子文档和消息的其他类型的用户界面(”UI“)。这样的用户界面可以为用户提供输入文本的方式以及散布在其中的一些其他有限形式的媒体内容(例如,情感图标或所谓的“表情符号”,图形图像,语音输入和其他类型的媒体内容)。文件或信息的文本。“

专利申请是:

基于计算设备用户情绪状态的图形图像检索
发明人:Matthias Grundmann,Karthik Raveendran和Daniel Castro Chin
美国专利申请:20190228031
发布时间:2019年7月25日
提交日期:2019年1月28日

抽象

描述了一种计算设备,其包括:相机,被配置为捕获计算设备的用户的图像;存储器,被配置为存储用户的图像;至少一个处理器;以及至少一个模块。所述至少一个模块可由所述至少一个处理器操作,以从所述存储器获得所述计算设备的用户的图像的指示,基于所述图像确定第一情绪分类标签,并基于所述识别来识别在第一情绪分类标签上,来自具有与第一情绪分类标签相关联的情绪分类的预分类图像的数据库中的至少一个图形图像。所述至少一个模块还可由至少一个处理器操作,以输出至少一个图形图像用于显示。

基于人的情绪状态的图像检索

我注意到最近有一个Apple商业广告显示,当他们的iPhone响起时,有人会在热带环境中闲聊。他们让自己放松地看着可以抓住他们脸部的电话,并显示有关电话的通知以及之前的通知。

它是 面部识别码 现在推出iPhone或iPad专业版的功能。听起来像谷歌Pixel 4可能会带来一个 面部识别码 功能也是如此。

在该专利中没有提到关于基于用户的情绪状态检索图像的这种面部ID。

但它确实听起来像是可以让人们舒服地使用他们的智能手机相机拍摄照片并使用它来拍摄照片。

使用Face ID,可以使手机更安全。

通过三年前我写的生物识别方法,它可以在排名搜索结果中发挥作用。

生物识别专利告诉我们,根据搜索者对他们所看到的搜索结果的反应,它可能会改变结果的排名。

这项关于基于情绪状态返回图形图像的专利似乎是测试人们情绪的好方法,使这种生物识别方法成为可能。

我之前引用的生物识别专利的片段告诉我们,根据搜索结果,有些特定的事情可能会引发排名提升或降低:

“这些行动包括向用户提供搜索结果;接收用户的一个或多个生物特征参数和满意度值;并使用生物特征参数和满意度值训练排名模型。确定一个或多个生物特征参数指示用户可能对第一搜索结果的负面参与包括检测:

  • 体温升高
  • 瞳孔扩张
  • 眼睛抽搐
  • 面部潮红
  • 眨眼率下降
  • 心率加快。“

这个新的专利申请提供了有关如何理解智能手机相机用户情绪的更多细节:

“计算设备可以分析可以根据人的情绪状态而改变的照片的面部特征和其他特征,以确定一个或多个情绪分类标签。情绪分类标签的示例包括例如眼睛形状,嘴张开尺寸,鼻孔形状,眉毛位置以及可能基于人类情绪而改变的其他面部特征和属性。然后,计算设备可以识别具有与一个或多个情绪分类标签相关联的情绪分类(在本文中也称为“人类情绪”)的一个或多个图形图像。情绪分类的例子包括愤怒,恐惧,焦虑,快乐,悲伤和其他情绪状态。使用图像的情绪分类,计算设备可以找到具有与相机捕获的图像类似的情感内容的图形图像。

除了告诉我们可归类的情绪范围外,该专利还提供了有关分类本身的更多详细信息,就好像他们一直试图了解如何最好地捕获此类信息:

“例如,计算设备可以确定捕获的图像包括定义一阶情感分类标签的某些面部元素,例如睁大的眼睛和喇叭形的鼻孔,并且可以将一阶情感分类标签与二阶情感匹配。分类如震惊或恐惧。基于二阶情绪分类,计算设备可以识别一个或多个图形图像,其可以类似地描绘用户可能在捕获的图像中表达的情绪。例如,计算设备可以检索已经被分类为具有震惊或恐惧的面部表情的着名演员或女演员的图形图像。

这个过程涉及返回一个图像以响应智能手机用户的照片,这将允许人们选择返回的图形图像的各个方面 – 这将是一种方法,让他们帮助训练他们在这个过程中提交的图像中的情绪识别。

小贴士

三年前,当我第一次使用智能手机相机撰写有关生物识别排名专利流程的文章时,我没想到任何人都会觉得谷歌可能会利用一个人对搜索结果的反应来影响这些结果的排名。

我还质疑Google能够识别搜索者对搜索结果的反应背后的情绪。我发现自己仍在质疑搜索引擎中的搜索者和能力是否会如此舒适。

然后我开始看到来自Apple的视频,关于使用带有面部识别功能的智能手机相机来解锁手机。而Google似乎可以为Pixel Phones添加这样的功能。

这会让人们对智能手机相机读取他们的脸并试图了解他们搜索时的情绪以便对搜索结果进行排名感觉更舒服一点吗?

该专利试图了解人们脸上的情绪,并返回图形图像,以反映这些情绪。这是人们会使用和感觉舒适的东西吗?

互联网向我们介绍了与世界互动的新方式 – 将我们中的许多人转变为每天在博客和社交网络等地方发布的作者。

我们提供日常生活中的照片,这些博客和社交网络以及Instagram等服务。

人们每天都会将自己的视频录制到YouTube等地方。

谷歌是否可以利用我们对智能手机相机搜索结果的情绪反应来影响WebPages的排名?

图片来源

截图由作者拍摄,2019年7月

Total
0
Shares
相关文章