谷歌在智能手機相機上捕捉和了解我們的情緒?


谷歌在智能手機相機上捕捉和了解我們的情緒?

三年前,我寫了一篇關於Google專利的文章,該專利考察了搜索者對搜索結果的反應,以便對這些搜索結果進行排名 生物特徵參數作為Google搜索結果中的排名信號?

基於智能手機相機機器學習的生物識別排名「width =」480「height =」582「sizes =」(最大寬度:480px)100vw,480px「data-srcset =」https://cdn.searchenginejournal.com/ wp-content / uploads / 2019/07 / biometric-machine-learning-google-480x582.jpg 480w,https://cdn.searchenginejournal.com/wp-content/uploads/2019/07/biometric-machine-learning-google .jpg 583w「data-src =」https://cdn.searchenginejournal.com/wp-content/uploads/2019/07/biometric-machine-learning-google-480x582.jpg

從那時起,我一直在關注谷歌的專利申請,該專利申請使用智能手機相機來查看該設備用戶的表情,以便更好地了解該人的情緒。

已經提交了關於這種過程的專利申請。我想知道大多數人是否會對使用這項新專利申請中描述的流程感到滿意。

這個新專利方法的摘要背景是我見過的最短的一個,告訴我們:

「一些計算設備(例如,行動電話,平板電腦等)提供圖形鍵盤,手寫識別系統,語音到文本系統,以及用於組成電子文檔和消息的其他類型的用戶界面(」UI「)。這樣的用戶界面可以為用戶提供輸入文本的方式以及散布在其中的一些其他有限形式的媒體內容(例如,情感圖標或所謂的「表情符號」,圖形圖像,語音輸入和其他類型的媒體內容)。文件或信息的文本。「

專利申請是:

基於計算設備用戶情緒狀態的圖形圖像檢索
發明人:Matthias Grundmann,Karthik Raveendran和Daniel Castro Chin
美國專利申請:20190228031
發布時間:2019年7月25日
提交日期:2019年1月28日

抽象

描述了一種計算設備,其包括:相機,被配置為捕獲計算設備的用戶的圖像;存儲器,被配置為存儲用戶的圖像;至少一個處理器;以及至少一個模塊。所述至少一個模塊可由所述至少一個處理器操作,以從所述存儲器獲得所述計算設備的用戶的圖像的指示,基於所述圖像確定第一情緒分類標籤,並基於所述識別來識別在第一情緒分類標籤上,來自具有與第一情緒分類標籤相關聯的情緒分類的預分類圖像的資料庫中的至少一個圖形圖像。所述至少一個模塊還可由至少一個處理器操作,以輸出至少一個圖形圖像用於顯示。

基於人的情緒狀態的圖像檢索

我注意到最近有一個Apple商業廣告顯示,當他們的iPhone響起時,有人會在熱帶環境中閑聊。他們讓自己放鬆地看著可以抓住他們臉部的電話,並顯示有關電話的通知以及之前的通知。

它是 面部識別碼 現在推出iPhone或iPad專業版的功能。聽起來像谷歌Pixel 4可能會帶來一個 面部識別碼 功能也是如此。

在該專利中沒有提到關於基於用戶的情緒狀態檢索圖像的這種面部ID。

但它確實聽起來像是可以讓人們舒服地使用他們的智能手機相機拍攝照片並使用它來拍攝照片。

使用Face ID,可以使手機更安全。

通過三年前我寫的生物識別方法,它可以在排名搜索結果中發揮作用。

生物識別專利告訴我們,根據搜索者對他們所看到的搜索結果的反應,它可能會改變結果的排名。

這項關於基於情緒狀態返回圖形圖像的專利似乎是測試人們情緒的好方法,使這種生物識別方法成為可能。

我之前引用的生物識別專利的片段告訴我們,根據搜索結果,有些特定的事情可能會引發排名提升或降低:

「這些行動包括向用戶提供搜索結果;接收用戶的一個或多個生物特徵參數和滿意度值;並使用生物特徵參數和滿意度值訓練排名模型。確定一個或多個生物特徵參數指示用戶可能對第一搜索結果的負面參與包括檢測:

  • 體溫升高
  • 瞳孔擴張
  • 眼睛抽搐
  • 面部潮紅
  • 眨眼率下降
  • 心率加快。「

這個新的專利申請提供了有關如何理解智能手機相機用戶情緒的更多細節:

「計算設備可以分析可以根據人的情緒狀態而改變的照片的面部特徵和其他特徵,以確定一個或多個情緒分類標籤。情緒分類標籤的示例包括例如眼睛形狀,嘴張開尺寸,鼻孔形狀,眉毛位置以及可能基於人類情緒而改變的其他面部特徵和屬性。然後,計算設備可以識別具有與一個或多個情緒分類標籤相關聯的情緒分類(在本文中也稱為「人類情緒」)的一個或多個圖形圖像。情緒分類的例子包括憤怒,恐懼,焦慮,快樂,悲傷和其他情緒狀態。使用圖像的情緒分類,計算設備可以找到具有與相機捕獲的圖像類似的情感內容的圖形圖像。

除了告訴我們可歸類的情緒範圍外,該專利還提供了有關分類本身的更多詳細信息,就好像他們一直試圖了解如何最好地捕獲此類信息:

「例如,計算設備可以確定捕獲的圖像包括定義一階情感分類標籤的某些面部元素,例如睜大的眼睛和喇叭形的鼻孔,並且可以將一階情感分類標籤與二階情感匹配。分類如震驚或恐懼。基於二階情緒分類,計算設備可以識別一個或多個圖形圖像,其可以類似地描繪用戶可能在捕獲的圖像中表達的情緒。例如,計算設備可以檢索已經被分類為具有震驚或恐懼的面部表情的著名演員或女演員的圖形圖像。

這個過程涉及返回一個圖像以響應智能手機用戶的照片,這將允許人們選擇返回的圖形圖像的各個方面 – 這將是一種方法,讓他們幫助訓練他們在這個過程中提交的圖像中的情緒識別。

小貼士

三年前,當我第一次使用智能手機相機撰寫有關生物識別排名專利流程的文章時,我沒想到任何人都會覺得谷歌可能會利用一個人對搜索結果的反應來影響這些結果的排名。

我還質疑Google能夠識別搜索者對搜索結果的反應背後的情緒。我發現自己仍在質疑搜索引擎中的搜索者和能力是否會如此舒適。

然後我開始看到來自Apple的視頻,關於使用帶有面部識別功能的智能手機相機來解鎖手機。而Google似乎可以為Pixel Phones添加這樣的功能。

這會讓人們對智能手機相機讀取他們的臉並試圖了解他們搜索時的情緒以便對搜索結果進行排名感覺更舒服一點嗎?

該專利試圖了解人們臉上的情緒,並返回圖形圖像,以反映這些情緒。這是人們會使用和感覺舒適的東西嗎?

互聯網向我們介紹了與世界互動的新方式 – 將我們中的許多人轉變為每天在博客和社交網路等地方發布的作者。

我們提供日常生活中的照片,這些博客和社交網路以及Instagram等服務。

人們每天都會將自己的視頻錄製到YouTube等地方。

谷歌是否可以利用我們對智能手機相機搜索結果的情緒反應來影響WebPages的排名?

圖片來源

截圖由作者拍攝,2019年7月

Total
0
Shares
相關文章