VPU Movidius Myriad™ X con Neural Compute Engine

movidius
La più recente famiglia di unità di elaborazione visiva (VPU, Vision Processing Unit) Movidius di Intel consente di estendere l’imaging, la visione artificiale e le applicazioni di intelligenza artificiale a i dispositivi edge.
Prestazioni leader del settore con consumi estremamente bassi, le VPU Myriad X di terza generazione Intel offrono prestazioni leader del settore nelle applicazioni inferenziali di visione artificiale e reti neurali profonde. La VPU Myriad X, il più recente componente della famiglia di VPU Movidius, rinomata per i consumi estremamente ridotti, è in grado di offrire prestazioni complessive di oltre 4 bilioni di operazioni al secondo (TOPS).
Con i nuovi miglioramenti delle prestazioni, la VPU Myriad X è una soluzione efficiente che estende le applicazioni avanzate di visione e intelligenza artificiale a dispositivi come droni, videocamere intelligenti, case intelligenti, visori di VR/AR e videocamere a 360 gradi.
Prestazioni di nuova generazione per le reti neurali profonde Intel ha introdotto un’unità di elaborazione per reti neurali profonde completamente nuova nell’architettura della VPU Myriad X:
Neural Compute Engine (motore di elaborazione neurale). Appositamente progettato per eseguire reti neurali profonde ad alta velocità e a basso consumo, Neural Compute Engine consente alla VPU Myriad X di raggiungere oltre 1 TOPS di prestazioni di elaborazione con inferenze di reti neurali profonde.
Neural Compute Engine è integrato all’interno dell’architettura VPU Movidius, un a soluzione efficiente che
minimizza i consumi riducendo il movimento dei dati sul chip. Mentre la VPU Myriad 2 forniva un ottimo supporto alle reti neurali profonde con consumi ridotti, la VPU Myriad X è ora in grado di raggiungere prestazioni 10 volte superiori per le applicazioni che richiedono molteplici reti neurali in esecuzione simultaneamente.
Flussi di visione e imaging personalizzabili. Da sempre, la famiglia di VPU Movidius offre un’architettura esclusiva e flessibile per l’elaborazione delle immagini, la visione artificiale e le reti neuraliprofonde. Questa architettura fornisce un approccio modulare alla configurazione dei carichi di lavoro di imaging e visione, abbinando un set di acceleratori hardware per l’imaging e la visione, come la profondità stereoscopica o il Neural Compute Engine, con un array di processori vettoriali VLIW programmabili in C, il tutto con accesso a una memoria comune on chip.
Questo approccio rende possibile un’elaborazione straordinaria del segnale delle immagini (ISP, Image Signal Processing) senza la necessità di spostamenti di dati verso la memoria per un’efficienza ottimale, oltre alla visione artificiale interlacciata e ai flussi di applicazioni inferenziali delle reti neurali profonde, il tutto con una metodologi a di flusso di dati che riduce i consumi minimizzando il movimento dei dati. Le VPU Movidius offrono un equilibrio ottimale tra programmabilità e prestazioni a basso consumo.
Supporto per 8 sensori HD e codifica 4K. La VPU Myriad X è dotata di 16 linee MIPI e supporta fino a 8 sensori RGB con risoluzione HD per la connessione diretta. L’elaborazione del segnale delle immagini in linea con throughput elevato assicura che i flussi vengano elaborati ad alte velocità, mentre i nuovi codificatori ha rdware offrono supporto per risoluzioni 4K a un frame rate sia di 30 Hz (H.264/H.265) che di 60 Hz (M – JPEG). Tra le altre interfacce ricordiamo USB 3.1 e PCIe di terza generazione. Software Development Kit (SDK) e strumenti.
La VPU Myriad X è dotata di un SDK completo che contiene tutti i framework di sviluppo software, gli strumenti, i driver e le librerie necessarie per implementare applicazioni di imaging, visione e deep learning personalizzate con VPU Myriad X. L’SDK comprende inoltre un framework FLIC specializzato con un approccio di tipo plug-in per sviluppare flussi di applicazioni, tra cui elaborazione di immagini, visione artificiale e deep learning. Questo framework consente agli sviluppatori di focalizzarsi sull’elaborazione, lasciando l’ottimizzazione del flusso dei dati agli strumenti. Per lo sviluppo di reti neurali profonde, l’SDK include un compilatore di reti neurali che consente agli sviluppatori di effettuare rapidamente il porting a reti neurali da framework comuni come Caffe e Tensorflow, con conversione automatica e uno strumento di ottimizzazione che massimizza le prestazioni mantenendo l’accuratezza del modello di rete.

 

Team News Lontre
Le manine delle lontre sono perfette per scrivere velocemente al computer, così in Stay Nerd ne abbiamo assunte 12 per occuparsi delle news! Nessuna lontra viene maltrattata, ma anzi vengono ricompensate con tanto pesce, crostacei e scatoline colorate di diversa dimensione da mettere in ordine! Recentemente, gli è anche stato messo a disposizione un bazooka spara-pesce.