歡迎,客人 | 請登錄 | 免費注冊 | 忘記密碼?

 
當前位置: 首頁 » 綜合資訊 » 媒體之聲 » 科技 »

Audience推出受神經(jīng)科學啟發(fā)的自然用戶體驗技術(shù)NUE

發(fā)布日期:2015-03-03  中國POS機網(wǎng)
高級語音(Advanced Voice)技術(shù)的領(lǐng)導者及消費電子設(shè)備多元感知處理和自然用戶體驗(NUE)技術(shù)的開創(chuàng)者Audience公司(納斯達克股票代碼:ADNC)今天宣布推出NUE多元感知處理器系列的第一款產(chǎn)品N100。NUE產(chǎn)品瞄準智能手機、平板電腦、可穿戴設(shè)備和物聯(lián)網(wǎng)設(shè)備,首款N100處理器預計在2015年年中提供樣品。NUE多元感知技術(shù)能夠從現(xiàn)代移動設(shè)備獲取的大量傳感器數(shù)據(jù)中提取有關(guān)用戶和用戶環(huán)境的信息——支持真正環(huán)境感知——使這些設(shè)備能為用戶的日常生活提供洞察力和感知能力。

  Audience總裁兼首席執(zhí)行官Peter Santos表示:“我們憧憬著一個基于多元感知處理技術(shù)提供的洞察力和感知能力,讓人們和移動設(shè)備進行自然互動的世界。這個愿景驅(qū)使著Audience開發(fā)NUE技術(shù),包括多元感知處理器和軟件。我們開發(fā)的NUE多元感知技術(shù)能從傳感器和麥克風數(shù)據(jù)中提取有關(guān)用戶和用戶環(huán)境的信息,提供有用和持續(xù)偵測的用戶情境,同時保護電池使用壽命。”

  關(guān)于NUE N100多元感知處理器

  N100將是Audience第一款支持全部多元感知體驗的產(chǎn)品。它將集成Audience VoiceQ和MotionQ技術(shù),為應(yīng)用賦予情境感知能力。實現(xiàn)情境感知能力需要在N100的傳感智能基礎(chǔ)上運用復雜的算法——解譯傳感器和麥克風數(shù)據(jù),提取更高層次的信息。N100將能通過傳感器獲取的一系列典型語音和運動特征解譯用戶情境,比如“用戶正在跑步”。

  VoiceQ技術(shù)

  VoiceQ是Audience的免動手語音識別技術(shù),只要說出關(guān)鍵詞就能通知設(shè)備執(zhí)行操作。N100 VoiceQ功能被分成三個階段。利用低功耗的持續(xù)偵聽語音活動檢測器持續(xù)偵聽語音信號,同時保持超低功耗模式。一旦檢測到語音,便將輸入信號和由參數(shù)定義的觸發(fā)關(guān)鍵詞加以比較。在這兩個階段,只有N100和數(shù)字麥克風處在喚醒狀態(tài)。設(shè)備中的其他組件都處于低功耗睡眠模式。如果檢測到關(guān)鍵詞,N100將喚醒設(shè)備,表示用戶準備通過語音用戶界面和設(shè)備交談。N100中的VoiceQ最多支持五個關(guān)鍵詞,由用戶選擇或OEM廠商設(shè)定的關(guān)鍵詞組成。

  N100中的VoiceQ技術(shù)與以往的聲控功能相比大大降低了錯誤接受率,從而節(jié)省電能。接受一次錯誤的關(guān)鍵詞大約相當于兩個小時的關(guān)鍵詞偵聽或20分鐘的電話無效使用。N100還加入了功耗優(yōu)化的谷歌熱詞檢測功能,允許N100以低于17 MIPS的速度同時檢測VoiceQ和谷歌關(guān)鍵詞。

  Motion Q技術(shù)

  N100將首次以硬件方式實現(xiàn)Audience收購Sensor Platforms后獲得的MotionQ 1.0庫。NUE MotionQ軟件包含高級算法、節(jié)能架構(gòu)和出色的情境感知能力。在持續(xù)偵測模式下,N100可持續(xù)檢測與其相連的傳感器,根據(jù)需要重新校準傳感器,從傳感器輸入的信息中提取用戶情境。N100可配合許多領(lǐng)先供應(yīng)商的傳感器使用,支持全部支持開放傳感器平臺(OSP)的傳感器驅(qū)動程序。

  N100 MotionQ功能被劃分為執(zhí)行各種不用的低功耗關(guān)鍵任務(wù),如N100中的傳感器融合和情境偵測,以及應(yīng)用處理器(AP)中的內(nèi)存密集型情境分類。N100支持OSP Host API,可利用OSP協(xié)議和AP通信。N100 MotionQ功能對N100中的Audience指令集進行了優(yōu)化,能以低于2 MIPS的速度提供一流的傳感器中心處理、傳感器融合和自動校準。

  有關(guān)Audience(R)處理器和智能編解碼器的詳情,請訪問:www.audience.com/nue 。

  關(guān)于Audience

  高級語音技術(shù)的領(lǐng)導者Audience是消費電子設(shè)備多元感知處理和自然用戶體驗技術(shù)的開創(chuàng)者。其技術(shù)以聽覺神經(jīng)科學為基礎(chǔ),改善移動語音體驗,增強基于語音的服務(wù)和多媒體音頻質(zhì)量。2014年初,公司宣布進軍多元感知和動作處理領(lǐng)域。通過整合高級語音和多元感知處理技術(shù),Audience旨在改變消費者使用設(shè)備的方法,支持無縫的自然用戶體驗和情境感知服務(wù)。公司的產(chǎn)品已被應(yīng)用于全球超過5億臺設(shè)備。了解詳情,請訪問:http://www.audience.com 。

  有關(guān)前瞻性陳述的警示性說明

  本新聞稿中有關(guān)Audience公司的非歷史事實的陳述屬于1995年《美國私人證券訴訟改革法案》中所界定的“前瞻性陳述”。這些前瞻性陳述通常采用特定的詞語,例如相信、將要、預計、計劃、或許、期待和可能或這些詞語的否定式或其它類似的表述。這些陳述,包括但不限于我們當前和未來產(chǎn)品的功能、特性和性能,是基于目前的預期和假設(shè),面臨風險和不確定性。我們的實際結(jié)果可能因為各種因素而與我們的預期存在實質(zhì)不同,包括:我們成功設(shè)計開發(fā)新產(chǎn)品的能力;我們的產(chǎn)品的市場需求和接受度;我們整合我們的OEM廠商的產(chǎn)品設(shè)計的能力;以及無廠半導體企業(yè)面臨的其他固有風險。對于這些以及其它風險,請參考我們最近提交的Form 10-Q,該文件見SEC的網(wǎng)站 www.sec.;v 。前瞻性陳述代表我們的管理層在截至做出前瞻性陳述當日的信念和假設(shè)。我們不負責更新這些前瞻性陳述。

  ADNC-G

  了解詳情,請聯(lián)系:

  Diane Vanasse

  Audience, Inc.

  408-242-0027

  dvanasse@audience.com

打賞
 
?
免責聲明:
本網(wǎng)站部分內(nèi)容來源于網(wǎng)站會員、合作媒體、企業(yè)機構(gòu)、網(wǎng)友提供和互聯(lián)網(wǎng)的公開資料等,僅供參考。本網(wǎng)站對站內(nèi)所有資訊的內(nèi)容、觀點保持中立,不對內(nèi)容的準確性、可靠性或完整性提供任何明示或暗示的保證。如果有侵權(quán)等問題,請及時聯(lián)系我們,我們將在收到通知后第一時間妥善處理該部分內(nèi)容。

圖文推薦

您在本欄的歷史瀏覽
熱門資訊

中國POS機行業(yè)權(quán)威門戶網(wǎng)站 引領(lǐng)行業(yè)發(fā)展


微信號:pos580com

網(wǎng)站首頁 | 網(wǎng)站地圖 | 誠征英才 | 關(guān)于我們 | 聯(lián)系方式 | 使用協(xié)議 | 版權(quán)隱私 | 排名推廣 | 廣告服務(wù) | 積分換禮 | 網(wǎng)站留言 | RSS訂閱

版權(quán)所有:POS機網(wǎng) 北京瑞紀華人科技有限公司 京ICP證060984  |  京ICP備07503063號

聯(lián)系電話:010-51658061 E-mail:bjsale#pos580.com(請把#替換成@)在線QQ:841617225

站所有信息均屬本站版權(quán)所有,如需轉(zhuǎn)載請注明來源地址 域名:500635.com