英特爾與日商Preferred Networks結盟,加速深度學習效能

記者洪聖壹東京報導

聯網(Internet of Things,IoT)、第5代行動通訊網路(5G)、以及人工智慧(Artificial Intelligence,AI)等技術,是推動產業運用資料科技的主要動力,爲加速業界在各種應用的創新,intel(英特爾)選擇從 AI技術與深度學習的演進下手,稍早與日本株式會社Preferred Networks (以下簡稱:PFN)共同宣佈雙方攜手開發爲深度學習(deep learning)所設計的開放原始碼(open source)框架Chainer,讓注入英特爾動力的通用型基礎架構得以加速深度學習效能

由PFN開發的Chainer是一款以Python語言爲基礎的深度學習框架,具備獨特性以及強大效能,其「Define-by-Run」的特性,讓使用者能簡單且直覺地設計出複雜的類神經網路(neural network)。自2015年6月Chainer開放其原始碼起,在雅馬遜倉庫機器手臂測試中,得到105分的高分,除了引起學術界關注之外,還吸引許多產業界使用者,這些用戶需要彈性的框架來使用深度學習於研究以及實際應用等範疇

採用特定用途運算環境來開發與建置AI應用以及深度學習框架,對開發者社羣形成諸多挑戰,包括開發的複雜度時間、以及成本等。PFN 開發了先進深度學習框架 Chainer,其簡單易用的特性被各行各業的程式開發者廣爲推崇,英特爾則是廣用型運算技術以及AI/深度學習加速器供應商之一,這項合作結合雙方技術,爲使用先進AI與深度學習框架的應用程式之開發/執行成果進行最佳化。intel 表示,2020 年 AI 在伺服器運算需求將比現在還要高 12 倍,此項合作案成形後,英特爾將協助Chainer提供突破性的深度學習處理能力發展出業界最全方位的AI運算方案組合,其中包括Intel Xeon處理器、Intel Xeon Phi處理器、Intel Arria 10 FPGA、Intel Nervana技術、以及其他相關產品

此框架將採用英特爾高度最佳化的開放原始碼程式庫Intel Math Kernel Library (MKL)以及Intel Math Kernel Library Deep Neural Network (MKL-DNN)作爲基礎建構元素

除此之外,英特爾將持續針對Chainer在英特爾架構(Intel Architecture,IA)的效能進行最佳化,同時也會針對Chainer的更新作調整,包括針對Chainer進行最佳化以更新至廣用型運算、加速器、程式庫以及其他應用的英特爾架構。此外,雙方將透過英特爾的GitHub儲存庫(https://github.com/intel/chainer) 與社羣分享雙方共同開發原始碼的成果。同時推廣多項聯合行銷活動以加速AI/深度學習市場的成長。