代码贡献 | 为 OpenVINO™ 支持 Paddle 2.5
作者:卢畅,英特尔 OpenVINO™ 工具套件领航者联盟成员,PPDE 1. 前言 我是飞桨黑客马拉松第五期 OpenVINO™ 赛题获奖者——为 OpenVINO™ 添加了对 Paddle 2.5 的支持。在此记录下来贡献的过程,希望有更多的同学可以参与到 OpenVINO™ 的社区建设当中来。我在贡献代码的过程中,也遇到了一些问题,在此,非常感谢英特尔的技术老师们非常耐心地指导我,帮助我解决

Edgex Foundry 发布长期支持 (LTS) 3.1版本 - Napa
作者:James Butcher,EdgeX Foundry 技术指导委员会主席兼 IOTech 系统产品经理译者:张 晶,EdgeX Foundry技术布道师EdgeX Foundry 是一个开放且灵活的边缘数据平台,采用者可以使用它来帮助简化边缘设备、传感器和应用程序的集成。它作为具有 Apache 2.0 许可的开源框架运行,由 Linux 基金会管理。EdgeX Foundry 的开放性有

开发者实战 | 如何在 Windows 上调用 NPU 部署深度学习模型
作者:杨亦诚相信很多小伙伴都已经知道,在最新一代的Intel Core Ultra移动端处理中已经集成了被称为 NPU 的神经网络加速处理器,以提供低功耗的AI算力,特别适合于PC端需要长时间稳定运行的AI辅助功能,例如会议聊天软件中的自动抠像,或是画面超分辨率等应用。而 OpenVINO™ 工具套件也在第一时间对 NPU 进行了适配,接下来就让我们一起看一下如何在 Intel Core Ultr

作者:英特尔院士 OpenVINO™ 产品架构师 Yury Gorbachev;翻译:英特尔 AI 软件布道师 武卓 随着我们迎来崭新的一年,是时候在生成式人工智能领域大放异彩地开启2024年了。我们在这里发布最新、最伟大的推理工具,这将使您在新的一年中的编码之旅变得异常精彩。OpenVINO™ 的最新版本引入了额外的框架更改,优化了生成式AI模型的特性,并增强了对现有平台的支持。让我们来了解

作者:周兆靖 , 英特尔高级应用工程师 Contents1.本文目的 2.优化推理响应的策略 优化策略一:使用模型缓存减少模型编译时间 优化策略二:在PERFORMANCE_HINT中选择Latency模式 优化策略三:优先选择CPU硬件进行推理 优化策略四:GPU推理时应用AUTO Plugin 优化策略五:权衡是否使用NNCF量化的低精度模型 优化策略六:将ONNX模型转换为IR模型进行推理
