Redes neurais quantizadas para inferência de FPGA
A quantização de baixa precisão para redes neurais suporta as especificações de aplicativos de IA ao fornecer maior taxa de transferência para o mesmo espaço físico ou reduzir o uso de recursos. O ponto flutuante de bloco (BFP) é particularmente útil neste cenário devido à sua alta faixa dinâmica que permite menor precisão enquanto mantém a precisão. Qualquer queda na precisão pode ser recuperada retraindo usando nosso software de código aberto.