Unisciti agli oltre 155.000 follower di IMP

elettronica.live

ADLINK lancia moduli GPU ad alte prestazioni per l’Edge AI

I moduli GPU embedded basati sull’architettura Blackwell offrono accelerazione AI scalabile, memoria ad alta larghezza di banda e configurazioni di potenza flessibili per applicazioni di edge computing industriale e robotica.

  www.adlinktech.com
ADLINK lancia moduli GPU ad alte prestazioni per l’Edge AI

Accelerazione GPU per sistemi di AI edge industriali
Nei settori come l’automazione industriale, la robotica, la mobilità autonoma, l’imaging medico e le infrastrutture intelligenti, il crescente utilizzo dell’intelligenza artificiale richiede potenti risorse di calcolo in grado di operare localmente all’edge. I sistemi distribuiti al di fuori dei data center centralizzati devono elaborare grandi volumi di dati provenienti da sensori e immagini mantenendo al contempo rigorosi vincoli in termini di consumo energetico, progettazione termica e dimensioni fisiche.

Per rispondere a questi requisiti, ADLINK Technology Inc. ha introdotto una nuova famiglia di moduli GPU embedded e acceleratori AI progettati per ambienti di edge computing. I moduli sono basati sull’architettura GPU NVIDIA Blackwell e sono offerti nei formati MXM 3.1 Type A e Type B, consentendo l’integrazione in sistemi embedded compatti utilizzati in applicazioni industriali e di mobilità.

I moduli sono destinati a supportare carichi di lavoro di AI direttamente all’edge, tra cui computer vision, inferenza di deep learning, analisi in tempo reale e elaborazione di modelli linguistici di grandi dimensioni (LLM).

Prestazioni scalabili per diversi ambienti di implementazione
Le implementazioni di AI edge variano ampiamente nei requisiti di potenza, termici e prestazionali a seconda dell’applicazione. Robot industriali, veicoli autonomi e telecamere intelligenti richiedono spesso elevate prestazioni di calcolo pur operando entro budget di potenza di sistema limitati.

I nuovi moduli GPU supportano intervalli di potenza configurabili da 45 W a 150 W, consentendo ai progettisti di sistemi di adattare i profili di prestazione in base ai vincoli applicativi. Questa flessibilità rende i moduli adatti sia ai sistemi embedded compatti sia alle piattaforme di calcolo industriale ad alte prestazioni.

Ad esempio, una configurazione di modulo offre fino a 100 W di prestazioni GPU in un formato compatto MXM Type A con dimensioni di 82 × 70 mm, consentendo un’elevata densità di calcolo in dispositivi embedded con spazio limitato.

Partizionamento GPU per carichi di lavoro AI paralleli
I modelli con prestazioni più elevate integrano la tecnologia Multi-Instance GPU (MIG), che consente agli sviluppatori di suddividere una singola GPU in più istanze indipendenti. Ogni istanza può eseguire carichi di lavoro separati con risorse isolate, migliorando l’utilizzo della GPU e consentendo l’elaborazione parallela di più attività di AI.

Questa capacità è particolarmente utile negli ambienti di AI edge in cui diverse applicazioni — come analisi video, fusione dei sensori e algoritmi di manutenzione predittiva — devono essere eseguite simultaneamente sulla stessa piattaforma hardware.

Architettura Blackwell per l’accelerazione dell’inferenza AI
I moduli integrano le più recenti tecnologie di elaborazione GPU progettate per accelerare l’inferenza AI e le attività di calcolo ad alte prestazioni.

Il supporto per l’accelerazione AI con precisione FP4 consente di migliorare il throughput per l’inferenza AI riducendo al contempo i requisiti di larghezza di banda della memoria. L’architettura combina core CUDA, core di ray tracing di quarta generazione e core tensoriali di quinta generazione, consentendo l’accelerazione GPU per pipeline di machine learning, carichi di lavoro di computer vision e elaborazione dati in tempo reale.

Le prestazioni di calcolo di picco variano da 9,2 TFLOPS a 49,8 TFLOPS (FP32) a seconda della configurazione del modulo.

Memoria ad alta larghezza di banda per carichi di lavoro intensivi di dati
Tutti i moduli incorporano memoria GDDR7 di nuova generazione, progettata per fornire elevata larghezza di banda e bassa latenza per carichi di lavoro AI che richiedono un rapido trasferimento di dati tra la memoria e i core di elaborazione GPU.

A seconda della configurazione, il sottosistema di memoria supporta fino a 24 GB di memoria GDDR7, interfacce di memoria fino a 256 bit e una larghezza di banda di memoria fino a 896 GB/s. Queste specifiche consentono ai sistemi embedded di elaborare immagini ad alta risoluzione, modelli di deep learning e simulazioni complesse in modo efficiente negli ambienti edge.

Supporto multi-display e affidabilità industriale
I moduli GPU supportano fino a quattro uscite DisplayPort 1.4a, consentendo visualizzazioni multi-display per applicazioni come sale di controllo industriali, sistemi di trasporto e interfacce di monitoraggio per veicoli autonomi.

Progettati per implementazioni industriali, i moduli supportano ampi intervalli di temperatura operativa, inclusi il funzionamento standard tra 0 °C e 55 °C e il funzionamento esteso tra −40 °C e 85 °C per ambienti difficili.

Inoltre, la piattaforma è progettata con una disponibilità del prodotto di cinque anni, consentendo ai produttori di apparecchiature di mantenere un supporto del ciclo di vita a lungo termine per sistemi embedded distribuiti nelle infrastrutture industriali.

Combinando elaborazione GPU ad alte prestazioni con formati compatti e profili di potenza configurabili, i nuovi moduli sono destinati a supportare lo sviluppo di sistemi AI edge di nuova generazione nei settori industriali e della mobilità.

www.adlinktech.com

Edited by Industrial Journalist, Natania Lyngdoh.

Powered by AI.

  Richiedi maggiori informazioni…

LinkedIn
Pinterest

Unisciti agli oltre 155.000 follower di IMP