Contents ...
udn網路城邦
為領會決機械翻譯的理解障礙,Google 要讓機械在句子中找線索
2018/07/04 12:08
瀏覽20
迴響0
推薦0
引用0
普什圖文翻譯翻譯社

Google’s Transformer solves a tricky problem in machine translation
Transformer: A Novel Neural Network Architecture for Language Understanding

看更多 科技新報 的相關文章:
離線也能重播經驗進修,DeepMind 讓 AI 學會「打瞌睡」
DeepMind 開辦人:AI 要展現出真正潛力,得從人類智慧中取得更多靈感

但是在說話理解上,機器常常會面臨一些語意的理解問題,像是「bank」同時有銀行、河岸等多種意思,在分歧的文法句子中,人們很快就可以根據前後文揣度出代表的意義,但逐字翻譯的演算法很有可能出錯,因為它沒法肯定哪一個意思才是准確的。

這類毛病常常在機械翻譯出現,但假如只為了句子的語義問題就反覆修改神經網路,其實不太有效率,是以 Google 團隊在進行研究後,直接推出一套搭載解決方案的新型翻譯系統「Transformer」。

只是在翻譯上,機器可能還有許多需要學習,究竟結果說話老是有一些意義不明白的詞,像是英文的它(it),可所以街道、動物也許多事物,人的大腦會主動分辯並理解,但機械就照舊需要「補習」了。

在 Google 團隊的測試中,Transformer 系統非論在「英文→德文」或是「英文→法文」的翻譯中,在 BLEU 評價都勝過利用 RNN 和卷積神經網路(CNN)的翻譯系統。

其實不但 Google,翻譯公司 DeepL 也正在開辟近似的關注機制,結合開創人 Gereon Frahling 乃至認為,他們的版本將比 Google 的系統更好。

機器進修(Machine learning)已經證實是很有效的翻譯對象,但在人們利用語言的轉變多元情況下,偏向逐字逐句翻譯的機器仍可能呈現嚴重錯誤,Google 負責研究的部門近日發文註釋了這個問題,以及他們找到的解決方案翻譯

Google 天然語言處置懲罰部門(NLU)的 Jakob Uszkoreit 透露表現,目前說話理解任務首要都是透過神經網路進行,其中又以遞歸神經網路(RNNs)為首要核心,像是創立語言模型、機械翻譯和問答都是基於此在成長。

(首圖來曆:shutterstock)
更多

在 Transformer 系統中有設定所謂的「關注機制」(Attention Mechanism),在這個機制設定下,系統會將句子中每一個單詞配對照較,來查看此中是不是存在任何一個單詞,會以某種關鍵體式格局產生相互影響,進而理解是「他」照舊「她」在說話,又或「bank」代表河岸還是銀行。

有趣的是,在關注機制之下,人們得以一窺翻譯系統的思慮邏輯:在 Google 團隊的設定中,Transformer 系統會針對每個「單詞」與「單詞」間的相關性賜與評分,因此你可以看到哪些它認為是相幹的,哪些又認為是無關緊要翻譯



引用自: https://tw.news.yahoo.com/%E7%82%BA%E4%BA%86%E8%A7%A3%E6%B1%BA%E6%A9%9F%E5%99%A8%E7%BF%BB%E8%AD%AF%E有關各國語文翻譯公證的問題歡迎諮詢萬國翻譯公司02-23690931

限會員,要發表迴響,請先登入