2月4日消息,據(jù)外媒報(bào)道,在過去的一周時(shí)間里,蘋果公司在語音識(shí)別領(lǐng)域發(fā)表了一系列研究論文,主要研究改善語音觸發(fā)檢測、說話人驗(yàn)證以及對(duì)多個(gè)說話人進(jìn)行語言識(shí)別的技術(shù)。在《用于說話人驗(yàn)證和語音觸發(fā)檢測的多任務(wù)學(xué)習(xí)(MULTI-TASK LEARNING FOR SPEAKER VERIFICATION AND VOICE TRIGGER DETECTION)》論文中,蘋果研究人員提出了一種經(jīng)過訓(xùn)練后可同時(shí)執(zhí)行自動(dòng)語音識(shí)別、說話人識(shí)別任務(wù)的AI模型。在《提高多語言使用者的語言識(shí)別能力(IMPROVING LANGUAGE IDENTIFICATION FOR MULTILINGUAL SPEAKERS)》論文中,蘋果研究人員探索了一種針對(duì)多語言使用者量身定制的說話人語言識(shí)別系統(tǒng)。



19


