QNAP ha presentado dos tarjetas aceleradoras de cálculos diseñadas para la inferencia de aprendizaje profundo mediante IA, incluidas la Mustang-V100 (basada en VPU) y la Mustang-F100 (basada en FPGA).
Los usuarios pueden instalar estas tarjetas aceleradoras basadas en PCIe en un servidor/PC basado en Intel® o en un NAS de QNAP para responder a las exigentes cargas de trabajo de la visión por ordenador moderna y las aplicaciones de IA en el sector de la fabricación, la sanidad, el comercio inteligente, la videovigilancia, etc.
La velocidad de cálculo es un aspecto importante de la eficacia de la implementación de aplicaciones de IA
afirmaba Dan Lin, jefe de producto de QNAP, que añadía
Aunque las tarjetas aceleradoras Mustang-V100 y Mustang-F100 de QNAP estén optimizadas para la arquitectura OpenVINO™ y se puedan ampliar las cargas de trabajo al hardware de Intel con un rendimiento maximizado, también se pueden utilizar con la Herramienta de consolidación de flujos de trabajo OpenVINO de QNAP para garantizar una aceleración de cálculo para la inferencia de aprendizaje profundo en el menor tiempo posible
Tanto la Mustang-V100 como la Mustang-F100 ofrecen soluciones de aceleración económicas para la inferencia de IA y también funcionan con el conjunto de herramientas OpenVINO para optimizar las cargas de trabajo de inferencia para las tareas de clasificación de imágenes y visión por ordenador.
El conjunto de herramientas OpenVINO™, desarrollado por Intel, ayuda a acelerar el desarrollo de la visión por ordenador de alto rendimiento y el aprendizaje profundo en aplicaciones de visión. Incluye el Optimizador de modelos y el Motor de inferencia, y permite optimizar los modelos de aprendizaje profundo preconfigurados (como Caffe y TensorFlow) en una representación intermedia (IR), y luego ejecutar el motor de inferencia en distintos tipos de hardware Intel (como CPU, GPU, FPGA y VPU).
A medida que el NAS de QNAP evoluciona para admitir una mayor variedad de aplicaciones (incluyendo vigilancia, virtualización e IA), la combinación de un almacenamiento de gran tamaño y la capacidad de expansión PCIe resulta beneficiosa para su posible uso en IA. QNAP ha desarrollado la Herramienta de consolidación de flujo de trabajo OpenVINO (OWCT), que utiliza la tecnología conjunta de herramientas OpenVINO de Intel.
Cuando se usa con la OWCT, el NAS de QNAP basado en Intel ofrece una solución de servidor de inferencia ideal para ayudar a las organizaciones en la rápida creación de sistemas de inferencia.
Los desarrolladores de IA pueden implementar modelos formados en un NAS de QNAP para inferencia e instalar la tarjeta Mustang-V100 o la tarjeta Mustang-F100 para conseguir un rendimiento óptimo para la ejecución de inferencia.
El NAS de QNAP ahora admite las tarjetas Mustang-V100 y Mustang-F100 con la última versión del sistema operativo QTS 4.4.0. Para ver los modelos de NAS de QNAP que admiten QTS 4.4.0, podéis visitar la web www.qnap.com. Para descargar e instalar la aplicación OWCT para el NAS de QNAP, podéis ir al App Center de QTS.
Especificaciones clave de las tarjetas QNAP Mustang
- Mustang-V100-MX8-R10: Media altura, ocho VPU Intel® Movidius™ Myriad™ X MA2485, interfaz PCI Express Gen2 x4, consumo de energía inferior a 30W.
- Mustang-F100-A10-R10: Media altura, FPGA Intel® Arria® 10 GX1150, interfaz PCI Express Gen3 x8, consumo de energía inferior a 60W.
Para obtener más información y ver la gama completa de NAS de QNAP podéis visitar su web QNAP.com.
Si además queréis aprender mucho más sobre servidores NAS, os recomiendo mi libro Servidores NAS en tu vida digital.