近年来,机器学习技术,特别是深度学习子领域已经成功地用于高级模式识别应用,例如图像识别、语音识别和自然语言处理。包括英特尔在内的硬件供应商正在积极优化深度学习工作负载的性能,不仅要扩展 CPU 和 GPU 的功能,还要引入新的专用加速器。但是,在 Web 平台上运行的程序仍然缺乏和原生程序类似的性能。为了解决这种情况,我们提出了 Web 神经网络(WebNN)API,用于访问 Web 浏览器中的深度学习硬件加速。我们在 Chromium 中构建了 WebNN API 原型,我们的原型运行在 Windows、Linux、macOS 和 Android 等平台上。我们在 TensorFlow 和 ONNX 的深度学习模型上尝试了我们的 WebNN 原型,在 GPU 上观察到 3-13 倍的加速,并且在CPU 上加速超过 10 倍。
本次分享将以目前 Web 平台深度学习框架的性能分析为起点,详细介绍 Intel Web 团队对 WebNN 的原理和实现,以及带来的真实的性能提高等内容。希望能够对关注深度学习框架,尤其是在 Web 端应用以及 Web 端深度学习框架的与会者带来新的技术和帮助。
演讲提纲:
1. 背景
(1)AI 技术在 Web 端的演进和发展
(2)现有 Web 端 AI 框架的性能问题
2. 提案
(1)WebNN API 的提案
(2)WebNN API 的分层架构
(3)WebNN API 的实现
3. API 及代码示例
4. 结果数据
(1)基准测试
(2)性能数据
5. 现场体验(Demo)
(1)现有示例及 Demo 体验
(2)性能展示
6. 在 W3C 社区组的最新进展
7. WebNN API 对前端开发者的帮助
8. WebNN API 对 AI 框架和浏览器内核的助力
听众收益:
1. WebNN API 会使 Web 前端开发者了解在深度学习领域的性能提升新方案
2. 有助于 Tensorflow.js、ONNX.js等框架使用者了解适配 WebNN API 后的性能改进结果
3. 帮助国内其他厂商应用 WebNN API,显著助力自己深度学习框架的性能提高
听懂我的演讲,需要具备这些知识:
Web 前端、JavaScript,以及初步的 AI 知识