https://github.com/openvinotoolkit/openvino - KolMitE

https://github.com/openvinotoolkit/openvino

https://github.com/openvinotoolkit/openvino

diciembre 14, 2022 Software en General 0

Liberación estable
Licencia Apache Versión 2.0
La rama de GitHub comprueba el estado
Compilaciones de Azure DevOps (sucursal)
Estado de PyPI
Descargas PyPI

Contenido:

  • ¿Qué es OpenVINO?
    • Componentes
  • Matriz de hardware compatible
  • Licencia
  • Documentación
  • Tutoriales
  • Productos que usan OpenVINO
  • Requisitos del sistema
  • Cómo construir
  • como contribuir
  • obtener un apoyo
  • Ver también

¿Qué es el kit de herramientas de OpenVINO?

OpenVINO™ es un conjunto de herramientas de código abierto para optimizar e implementar la inferencia de IA.

  • Impulse el rendimiento del aprendizaje profundo en visión por computadora, reconocimiento automático de voz, procesamiento de lenguaje natural y otras tareas comunes
  • Use modelos entrenados con marcos populares como TensorFlow, PyTorch y más
  • Reduzca la demanda de recursos e implemente de manera eficiente en una gama de plataformas Intel® desde el perímetro hasta la nube

Esta versión de código abierto incluye varios componentes: a saber, Model Optimizer, OpenVINO™ Runtime, herramienta de optimización posterior al entrenamiento, así como CPU, GPU, MYRIAD, varios dispositivos y complementos heterogéneos para acelerar la inferencia de aprendizaje profundo en las CPU Intel® y el procesador Intel®. Gráficos. Admite modelos preentrenados de Open Model Zoo, junto con más de 100 modelos públicos y de código abierto en formatos populares como TensorFlow, ONNX, PaddlePaddle, MXNet, Caffe, Kaldi.

Componentes

  • OpenVINO™ Runtime: es un conjunto de bibliotecas de C++ con enlaces de C y Python que proporcionan una API común para ofrecer soluciones de inferencia en la plataforma de su elección.
    • core: proporciona la API base para la representación y modificación del modelo.
    • inferencia: proporciona una API para inferir modelos en el dispositivo.
    • transformaciones: contiene el conjunto de transformaciones comunes que se utilizan en los complementos de OpenVINO.
    • transformaciones de baja precisión: contiene el conjunto de transformaciones que se utilizan en modelos de baja precisión
    • enlaces: contiene todos los enlaces de OpenVINO disponibles que son mantenidos por el equipo de OpenVINO.
      • c – API de C para el tiempo de ejecución de OpenVINO™
      • python – API de Python para OpenVINO™ Runtime
  • Complementos: contiene complementos de OpenVINO que el equipo de OpenVINO mantiene en código abierto. Para obtener más información, consulte la lista de dispositivos compatibles.
  • Frontends: contiene los frontends OpenVINO disponibles que permiten leer modelos desde el formato de marco nativo.
  • Model Optimizer: es una herramienta de línea de comandos multiplataforma que facilita la transición entre entornos de capacitación e implementación, realiza análisis de modelos estáticos y ajusta modelos de aprendizaje profundo para una ejecución óptima en dispositivos de destino de punto final.
  • Herramienta de optimización posterior al entrenamiento: está diseñada para acelerar la inferencia de modelos de aprendizaje profundo mediante la aplicación de métodos especiales sin reentrenamiento o ajuste fino del modelo, por ejemplo, cuantificación de 8 bits posterior al entrenamiento.
  • Ejemplos: aplicaciones en lenguajes C, C++ y Python que muestran casos de uso básicos de OpenVINO.

Matriz de hardware compatible

OpenVINO™ Runtime puede inferir modelos en diferentes dispositivos de hardware. Esta sección proporciona la lista de dispositivos compatibles.

Dispositivo Enchufar Biblioteca Breve descripción
UPC procesador Intel openvino_intel_cpu_plugin Intel Xeon con Intel® Advanced Vector Extensions 2 (Intel® AVX2), Intel® Advanced Vector Extensions 512 (Intel® AVX-512) y AVX512_BF16, procesadores Intel Core con Intel AVX2, procesadores Intel Atom con Intel® Streaming SIMD Extensions (Intel ® SSE)
ARM CPU openvino_arm_cpu_plugin Raspberry Pi™ 4 Modelo B, Apple® Mac mini con chip M1, NVIDIA® Jetson Nano™, dispositivos Android™
GPU GPU Intel openvino_intel_gpu_plugin Gráficos de procesador Intel, incluidos gráficos Intel HD e Intel Iris Graphics
GNA GNA de Intel openvino_intel_gna_plugin Intel Speech Enabling Developer Kit, Amazon Alexa* Premium Far-Field Developer Kit, Intel Pentium Silver J5005 Processor, Intel Pentium Silver N5000 Processor, Intel Celeron J4005 Processor, Intel Celeron J4105 Processor, Intel Celeron Processor N4100, Intel Celeron Processor N4000, Intel Core Procesador i3-8121U, procesador Intel Core i7-1065G7, procesador Intel Core i7-1060G7, procesador Intel Core i5-1035G4, procesador Intel Core i5-1035G7, procesador Intel Core i5-1035G1, procesador Intel Core i5-1030G7, procesador Intel Core i5 -Procesador 1030G4, procesador Intel Core i3-1005G1, procesador Intel Core i3-1000G1, procesador Intel Core i3-1000G4
VPU Complemento innumerable openvino_intel_myriad_plugin Intel® Neural Compute Stick 2 con tecnología Intel® Movidius™ Myriad™ X

OpenVINO™ Toolkit también contiene varios complementos que simplifican la carga de modelos en varios dispositivos de hardware:

Enchufar Biblioteca Breve descripción
Auto openvino_auto_plugin El complemento automático permite seleccionar el dispositivo Intel para la inferencia automáticamente
Lote automático openvino_auto_batch_plugin El complemento de lote automático realiza un lote automático sobre la marcha (es decir, agrupa solicitudes de inferencia juntas) para mejorar la utilización del dispositivo, sin esfuerzo de programación por parte del usuario.
Hetero openvino_hetero_plugin La ejecución heterogénea permite la división automática de inferencias entre varios dispositivos
Multi openvino_auto_plugin El complemento múltiple permite la inferencia simultánea del mismo modelo en varios dispositivos en paralelo

Licencia

OpenVINO™ Toolkit tiene licencia de Apache License Version 2.0. Al contribuir al proyecto, usted acepta los términos de licencia y derechos de autor del mismo y libera su contribución bajo estos términos.

Documentación

Documentación del usuario

La documentación más reciente para OpenVINO™ Toolkit está disponible aquí. Esta documentación contiene información detallada sobre todos los componentes de OpenVINO y proporciona toda la información importante que puede necesitar para crear una aplicación basada en la distribución binaria de OpenVINO o en su propia versión de OpenVINO sin modificar el código fuente.

Documentación del desarrollador

La documentación del desarrollador contiene información sobre decisiones arquitectónicas que se aplican dentro de los componentes de OpenVINO. Esta documentación tiene toda la información necesaria que podría ser necesaria para contribuir a OpenVINO.

Tutoriales

La lista de tutoriales de OpenVINO:

  • Cuadernos Júpiter

Productos que usan OpenVINO

  • OpenCV
  • Tiempo de ejecución ONNX
  • Integración de OpenVINO™ con TensorFlow
  • TNN

Requisitos del sistema

Los requisitos del sistema varían según la plataforma y están disponibles en páginas dedicadas:

  • linux
  • ventanas
  • Mac OS
  • raspbian

Cómo construir

Consulte OpenVINO Wiki para obtener más información sobre el proceso de compilación de OpenVINO.

como contribuir

Ver CONTRIBUIR para más detalles. ¡Gracias!

obtener un apoyo

Reporte preguntas, problemas y sugerencias, usando:

  • Problemas de GitHub*
  • los openvino etiqueta en StackOverflow*
  • Foro

Recursos adicionales

  • Wiki OpenVINO
  • Almacenamiento OpenVINO
  • Módulos adicionales del kit de herramientas de OpenVINO™:
    • openvino_contrib
  • Distribución Intel® de la página del producto del kit de herramientas OpenVINO™
  • Notas de la versión del juego de herramientas Intel® Distribution of OpenVINO™
  • Marco de compresión de redes neuronales (NNCF): un conjunto de algoritmos avanzados para la optimización de la inferencia de modelos, incluida la cuantificación, la poda de filtros, la binarización y la escasez
  • Extensiones de entrenamiento de OpenVINO™ (OTE): entorno conveniente para entrenar modelos de aprendizaje profundo y convertirlos usando OpenVINO para una inferencia optimizada.
  • OpenVINO™ Model Server (OVMS): una solución escalable de alto rendimiento para servir modelos de aprendizaje profundo optimizados para arquitecturas Intel
  • DL Workbench: una versión alternativa basada en la web de OpenVINO diseñada para facilitar la optimización y compresión de modelos de aprendizaje profundo previamente entrenados.
  • Herramienta de anotación de visión por computadora (CVAT): una herramienta de anotación de imágenes y videos interactivos en línea para propósitos de visión por computadora.
  • Marco de gestión de conjuntos de datos (Datumaro): un marco y una herramienta CLI para crear, transformar y analizar conjuntos de datos.

* Otros nombres y marcas pueden reclamarse como propiedad de terceros.

Idiomas








  • C++
    80,3%

  • Pitón
    15,6%

  • C
    3,0%

  • CHacer
    0,9%

  • Citón
    0,1%

  • Caparazón
    0,1%

Por favor Comparte y Síguenos:
RSS
Follow by Email
Facebook
Twitter

Deja una respuesta