QNAP con Edge AI Storage Server accelera l’AI on-premise

Integra funzioni di inferenza AI, virtualizzazione e backup per aiutare a implementare l'AI in modo sicuro.

storage server

La nuova soluzione Edge AI Storage Server di QNAP permette un deployment flessibile di macchine virtuali e applicazioni containerizzate per modelli linguistici di grandi dimensioni privati e carichi di lavoro di AI. Una piattaforma ideale per uffici intelligenti, produzione, retail e ambienti di sorveglianza. Con la rapida espansione delle applicazioni AI in tutti i settori, le aziende si trovano ad affrontare sfide sempre più impegnative in termini di prestazioni, sovranità dei dati e costi operativi.

Piattaforma di edge computing all-in-one

La soluzione Edge AI Storage Server è una piattaforma di edge computing all-in-one che integra storage dati, virtualizzazione, accelerazione GPU e gestione delle risorse di sistema. Questa soluzione aiuta le aziende a costruire infrastrutture AI on-prem robuste, supportando diversi scenari come lo storage di dati AI, l’inferenza dei modelli, la manifattura smart e l’analisi video, riducendo al contempo i comuni rischi di sicurezza e i costi di licenza associati all’implementazione nel cloud.

Edge AI Storage Server, molto più di un sistema storage

CT Cheng, Product Manager di QNAP
L’attenzione sull’AI si è spostata dal semplice sviluppo dei modelli alla realizzazione dell’infrastruttura giusta. Per le aziende che adottano LLM, AI generativa o virtualizzazione, ciò che conta davvero è disporre di una piattaforma in grado di gestire grandi dataset, garantire la sicurezza dei dati e fornire prestazioni affidabili. Il nostro Edge AI Storage Server è molto più di un semplice sistema storage. Integra funzionalità di inferenza AI, virtualizzazione e backup per aiutare le aziende a implementare l’AI in modo sicuro e flessibile.

I principali vantaggi della nuova piattaforma

  • Sicurezza e conformità migliorate. Archivia ed esegue modelli AI/LLM e dati sensibili interamente in locale. Evitando così la trasmissione in cloud e supportando la conformità alle normative specifiche di settore, ideale per settori come finanza, sanità e manifattura.
  • Piattaforma integrata con TCO ridotto. Combina storage, virtualizzazione, accelerazione GPU e protezione dei dati in un unico sistema, semplificando l’implementazione e riducendo i costi di manutenzione a lungo termine.
  • Allocazione precisa delle risorse. Supporta GPU e PCIe passthrough, SR-IOV per l’ottimizzazione della rete e l’isolamento della CPU (sarà supportato a breve) per allocare con precisione le risorse di sistema. Ciò garantisce prestazioni delle macchine virtuali quasi native, con bassa latenza ed alta stabilità.

In grado di sviluppare strumenti AI

  • Virtualizzazione e implementazione di container. Compatibile con Virtualization Station e Container Station di QNAP, consente la rapida adozione di diversi ambienti AI per il deployment di modelli, lo sviluppo di applicazioni intelligenti o il backup di macchine virtuali.
  • Implementazione semplificata di LLM open source. Distribuisce facilmente modelli open source – LLaMA, DeepSeek, Qwen e Gemma – tramite Ollama per la ricerca interna di conoscenze, chatbot o lo sviluppo di strumenti AI. Riducendo in questo modo le barriere all’adozione dell’AI.