Centro risorse Intelligenza Artificiale
White paper
In questo articolo, esploriamo le implementazioni di minifloat sull'FPGA (rappresentazioni in virgola mobile con esponenti non standard e dimensioni mantissa), e mostreremo l'utilizzo dell'implementazione block-floating point che condivide l'esponente con molti numeri, riducendo la logica necessaria per eseguire operazioni a virgola mobile.
In questo articolo, introduciamo uno approccio alle sovrapposizioni specifico per il settore che sfrutta le ottimizzazioni software e hardware per raggiungere una prestazione all'avanguardia sull'FPGA per l'accelerazione della rete neurale.
L'articolo esamina la flessibilità e l'impatto che ha sulla metodologia di progettazione dell'FPGA, gli strumenti di progettazione fisica e la computer-aided design (CAD). Descriviamo i livelli di flessibilità richiesti per creare degli acceleratori di Deep learning efficienti.
Questo white paper esamina il futuro delle reti neurali profonde, tra cui le reti sparse, le reti a bassa precisione e a precisione bassissima, e mette a confronto le prestazione dei FPGA Intel® Arria® 10 e Intel® Stratix® con le GPU di NVIDIA.
- Accelerare il Deep learning con la piattaforma OpenCL™ e gli FPGA Intel® Stratix® 10 ›
Questo white paper descrive il modo in cui gli Intel® FPGA sfruttano la piattaforma OpenCLTM per i requisiti di elaborazione e classificazione delle immagini nell'odierno mondo in cui le immagini rivestono un ruolo fondamentale.
Questo white paper fornisce un'analisi dettagliata dell'architettura e delle prestazioni del nostro core di proprietà dell'acceleratore di Deep learning.
Crea applicazioni di visione informatica ad alte prestazioni con inferenza del Deep learning integrata
L'Intel® Vision Accelerator Design con FPGA Intel® Arria® 10 offre livelli eccezionali di prestazioni, flessibilità e scalabilità per soluzioni di deep learning e visione artificiale.
Descrizioni delle soluzioni
Descrive come implementare le reti neurali sugli FPGA.
Video
Introduzione per programmatori alla Intel® FPGA Deep Learning Acceleration Suite
Implementazione degli FPGA Intel® per l'inferenza deep learning con toolkit OpenVINO™
Democratizzare l'IA con gli FPGA Intel®
IA con gli FPGA Intel
Introduzione all'apprendimento automatico
Progettazione di HPC con gli FPGA Intel
Tecnologie IA emergenti sulle piattaforme client di Intel
Articoli
- Microsoft* Project Brainwave AI con gli FPGA Intel® ›
- Microsoft mette il turbo all'IA con gli FPGA Intel. Puoi farlo anche tu ›
- IA in tempo reale: Microsoft svela il progetto Brainwave ›
- Gli FPGA Intel alimentano l'IA in Microsoft Azure* ›
- L'apprendimento automatico sugli FPGA Intel ›
- I tradizionali produttori di chip dovrebbero preoccuparsi dei piani di Microsoft per gli FPGA in Azure* ›
- FPGA per l'elaborazione visiva basata sul Deep learning ›
- Mito sfatato: le CPU generiche non possono affrontare l'addestramento alle reti neurali profonde
- L'openlab del CERN esplora nuova soluzioni di elaborazione CPU/FPGA ›
- Quando usare le FPGA ›
- Riusciranno gli FPGA a battere le GPU nell'accelerare il Deep learning di prossima generazione? ›
- I sistemi IA basati su FPGA riconoscono i volti al ritmo di 1000 immagini al secondo ›
- Visione artificiale e Deep learning accelerate con il toolkit OpenVINO™ ›
- Gli FPGA Intel® alimentano l'inferenza dell'IA in tempo reale ›
- Il toolkit OpenVINO™ e gli FPGA: gli obiettivi dell'FPGA di questo versatile toolking di visual computing ›