全新英特尔®OpenVINO™ 2023.0版本发布:简化AI开发流程提升部署效率!

唯爱网6月6日消息,英特尔在OpenVINO™工具套件发布五周年之际,举办了OpenVINO™ DevCon中国系列工作坊2023活动。该活动旨在通过每月一次的工作坊,持续帮助开发者系统学习和提升,促进开发者在AI领域的发展。

据唯爱小编了解,英特尔成功举办了首期OpenVINO™ DevCon 2023系列活动,以“焕然五周年·瞰见新特性”为主题。在本次活动上,英特尔发布了全新的英特尔®OpenVINO™ 2023.0版本,该版本功能更加强大,旨在帮助AI开发者简化工作流程,提升部署效率。

OpenVINO™作为一款深度学习推理工具,在过去几年中已经帮助数十万开发者显著提升了AI推理性能。凭借OpenVINO™,开发者只需几行代码即可实现高性能的“一次编写,任意部署”,并且自动选择最佳硬件配置,提升了开发效率。由于OpenVINO™能够在不同硬件平台上高效准确地进行推理,这项技术已广泛应用于教育、零售、医疗和工业等各个领域,为行业客户提供了高效的深度学习推理技术,带来了巨大价值。

全新英特尔®OpenVINO™ 2023.0版本发布:简化AI开发流程提升部署效率!

全新英特尔®OpenVINO™ 2023.0版本发布:简化AI开发流程提升部署效率!

OpenVINO™ 2023.0版本在过去的基础上新增了许多优势。首先,它提供了更多的集成,最大限度减少了代码变更的需求。开发者在优化模型时,无需离线转换TensorFlow模型,而是可以直接加载标准的TensorFlow模型到OpenVINO™ Runtime或OpenVINO™ Model Server中,并实现自动转换。当需要最大性能时,仍然可以选择离线转换为OpenVINO™格式。其次,OpenVINO™ 2023.0版本具备更广泛的模型支持,包括生成式AI模型、文本处理模型和其他关键模型的支持。开发者在使用GPU时不再需要更改为静态输入,具有更大的灵活性。此外,通过神经网络压缩框架(NNCF),可以更轻松地实现对模型的压缩,从而获得更大的性能改进。

此外,OpenVINO™ 2023.0版本具有出色的可移植性和性能。CPU设备插件现在支持线程调度,开发者可以根据应用程序的优先级选择在不同的核上运行推理,以优化性能或节能。无论使用哪种插件,OpenVINO™都将提供最佳性能格式。另外,在GPU上,OpenVINO™ 2023.0版本通过更高效的模型加载和编译改进了模型缓存。

除了对OpenVINO™的持续更新迭代,英特尔还发布了“英特尔® Developer Cloud for the Edge”平台的公测版。该平台提供了对英特尔最新架构CPU、GPU、VPU和FPGA等硬件资源的访问,同时支持容器化和裸机应用部署,加速人工智能方案的开发、验证和部署,提高应用开发效率和产品选型优化。该平台还将持续优化用户体验,引入本地参考实现和相关边缘设备,扩建基础服务硬件以满足不同用户对测试设备多样性的需求。

声明:本文内容采编自互联网,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请点击举报,一经查实,本站将立刻删除。

本文链接:https://www.vivst.cc/31349.html

相关文章