FPGA AI Suite
O FPGA AI Suite permite que designers de FPGA, engenheiros de aprendizado de máquina e desenvolvedores de software criem plataformas de IA de FPGA otimizadas de forma eficiente. Os utilitários do pacote aceleram o desenvolvimento de FPGA para inferência de IA usando frameworks conhecidos e populares do setor, como TensorFlow ou PyTorch e o kit de ferramentas OpenVINO, ao mesmo tempo em que aproveitam fluxos de desenvolvimento de FPGA robustos e comprovados com o Software Quartus Prime.
Benefícios
Alto desempenho
O Agilex™ 7 FPGA Série M pode atingir um desempenho teórico máximo de 88,5 TOPS em INT8 ou 3.679 quadros de Resnet-50 por segundo com 90% de utilização FPGA.1
Baixo custo total de propriedade com integração de sistema simplificada
Integre o IP de IA a outros componentes de nível de sistema para reduzir o impacto, a potência e a latência.
Suporte para front-end de IA
Utilize seu front-end de IA favorito, como TensorFlow, Caffe, PyTorch, MXNet, Keras e ONNX.
Fluxos simples e padrão
Crie e adicione IP de inferência de IA a designs de FPGA existentes ou novos com o software Quartus Prime ou o Platform Designer.
Acesso a modelos pré-treinados
O FPGA AI Suite suporta a maioria dos modelos no Open Model Zoo.
Conversão perfeita de modelos pré-treinados
O Kit de ferramentas OpenVINO converte modelos da maioria dos frameworks padrão para representações intermediárias.
Criação automática de IPs de IA otimizados
O FPGA AI Suite gera perfeitamente IP de inferência de IA ideal a partir de modelos de IA pré-treinados, analisando o espaço de design para obter os recursos ideais para as metas de desempenho.
Validação inicial de modelo sem hardware
Precisão de bits2 emulação de software do IP de inferência de IA está disponível através da interface de plugin OpenVINO, permitindo uma avaliação mais rápida da precisão do modelo sem hardware.
Fluxo de desenvolvimento de inferência de IA de FPGA
O fluxo de desenvolvimento combina perfeitamente um fluxo de trabalho de hardware e software em um fluxo de trabalho de IA genérico de ponta a ponta. As etapas são as seguintes:
1. O OpenVINO Model Optimizer converte seu modelo pré-treinado em arquivos de rede de representação intermediária (.xml) e arquivos weights, biases (.bin).
2. O compilador do FPGA AI Suite é utilizado para:
- Fornecer a área estimada ou a métrica de desempenho para um determinado arquivo de arquitetura ou produzir um arquivo de arquitetura otimizado. (Arquitetura refere-se a parâmetros de IP de inferência, como o tamanho da matriz de PEs, precisões, funções de ativação, larguras de interface, tamanhos de janela etc.)
- Compilar arquivos de rede em um arquivo .bin com partições de rede para FPGA e CPU (ou ambos) juntamente a pesos e influências.
3. O arquivo .bin compilado é importado pelo aplicativo de inferência do usuário no tempo de execução.
- Interfaces de programação de aplicativos (APIs) de tempo de execução incluem a API de mecanismo de inferência (partição do tempo de execução para CPU e FPGA, inferência de agendamento) e IA de FPGA (memória DDR, blocos de hardware de FPGA).
4. Os designs de referência estão disponíveis para demonstrar as operações básicas de importação do formato .bin e executar inferência em FPGA com suporte para CPUs host (processadores x86 e Arm), bem como operações de inferência sem host.
5. A emulação de softwaredo FPGA AI Suite IP é acessível por meio da interface de plugin OpenVINO permitindo uma avaliação mais rápida da precisão do FPGA IP de IA sem acesso ao hardware (disponível apenas para Agilex™ 5 FPGA).
Observações:
Dispositivos suportados: FPGA Agilex™ 5, FPGA Agilex™ 7, FPGA Cyclone® 10 GX Arria® 10 FPGA
Redes, camadas e funções de ativação testadas3:
- ResNet-50, MobileNet v1/v2/v3, YOLO v3, TinyYOLO v3, UNET, i3d
- 2D Conv, 3D Conv, Fully Connected, Softmax, BatchNorm, EltWise Mult, Clamp
- ReLU, PReLU, Tanh, Swish, Sigmoid, Digilar
Arquiteturas do nível do sistema
O FPGA AI Suite é flexível e configurável para uma série de casos de uso do nível do sistema. A Figura 1 lista as maneiras típicas de incorporar o IP do FPGA AI Suite a um sistema. Os casos de uso abrangem diferentes verticais, desde plataformas embarcadas otimizadas a aplicativos com CPUs host (processadores Intel® Core™, processadores Arm) até ambientes de data center com processadores Intel® Xeon®. Suporta designs sem host e processadores soft, como os processadores Nios® V.
Figura 1: Topologias típicas do sistema de Intel FPGA AI Suite
Descarga de CPU
Acelerador de IA
Descarga de CPU multifunção
Acelerador de IA + função de hardware adicional
Ingestão/processamento em linha + IA
Acelerador de IA + ingestão direta e streaming de dados
FPGA SoC embarcado + IA
Acelerador de IA + ingestão direta e streaming de dados + função de hardware +
Processadores embarcados Arm ou Nios® V
Jornada guiada por design de IA FPGA
Explore a Jornada guiada pelo design de IA da FPGA interativa, que fornece orientação passo a passo para o desenvolvimento de designs de propriedade intelectual (IP) de IA.
Comece já a projetar.
Saiba mais sobre o FPGAi
Pesquise os recursos do FPGAi, relatórios técnicos e histórias de sucesso
Saiba mais
Por que os FPGAs são especialmente bons para implementar a IA?
Leia sobre os casos de uso emergentes de inferência de IA baseada em FPGA em aplicativos de IA de borda e personalizados, e soluções de software e hardware para a IA de FPGA de borda.
Leia a publicação técnica
Integrando e implantando modelos de IA na sala de operações
A VITEC usa FPGA AI Suite para colaborar em modelos de IA para uso médico
Leia o estudo de caso
Informações de produto e desempenho
O desempenho varia de acordo com o uso, a configuração e outros fatores. Saiba mais em www.Intel.com/PerformanceIndex.
Os resultados de desempenho são baseados em testes realizados nas datas apresentadas nas configurações e podem não refletir todas as atualizações disponíveis publicamente. Consulte o fabricante para obter os detalhes de configuração. Nenhum produto ou componente pode ser totalmente seguro.
Os seus custos e resultados podem variar.
Pequenas diferenças de arredondamento entre emulação de software e hardware normalmente resultarão em diferenças de menos de duas unidades de menor precisão (ULPs, Units of Least Precision).