Firmato QNAP, il server di storage Edge AI di nuova generazione QAI-h1290FX supporta il deployment privato di LLM, motori di ricerca basati su RAG e applicazioni di GenAI. Con la sovranità dei dati e le prestazioni di calcolo divenuti fattori strategici per le aziende che adottano l’AI, la domanda di infrastrutture AI private e on‑premises è in continua crescita. In risposta a questa evoluzione, QNAP lancia QAI-h1290FX, basato su processori AMD EPYC di classe server, con supporto per accelerazione GPU NVIDIA RTX e dodici slot U.2 NVMe/SATA SSD. Offre un’infrastruttura AI on-prem ad alte prestazioni per aziende che richiedono inferenza a bassa latenza, piena privacy dati e controllo operativo senza dipendere dal cloud.
LLM e GenAI: operare in ambiente sicuro, scalabile e sempre sotto controllo
Grazie al sistema operativo QuTS hero basato su ZFS di QNAP, QAI-h1290FX garantisce integrità dati di livello enterprise, snapshot praticamente illimitati e deduplicazione inline. Supporta l’accesso nativo alla GPU nei container tramite Container Station e il passthrough GPU per le macchine virtuali tramite Virtualization Station.
I team IT, gli sviluppatori e i gruppi di ricerca possono eseguire in modo efficiente modelli di inferenza, applicazioni di GenAI e pipeline RAG. Il tutto con pieno controllo su prestazioni e allocazione delle risorse. Include una selezione di strumenti AI preinstallati come AnythingLLM, OpenWebUI e Ollama. Consentendo così un rapido deployment di workflow LLM privati. In fase di integrazione ulteriori applicazioni AI come Stable Diffusion, ComfyUI, n8n e vLLM, per ampliare le funzionalità. Questo permette agli utenti di costruire piattaforme AI on‑prem e automatizzare i workflow in un ambiente sicuro, scalabile e completamente sotto controllo.
QAI-h1290FX, tanti i vantaggi per i clienti
Oliver Lam, Product Manager di QNAP
QAI-h1290FX risponde alla crescente domanda di infrastrutture AI on-premises. Volevamo eliminare le difficoltà nella creazione di una workstation GPU, nell’installazione degli strumenti e nella configurazione di ambienti complessi. Con il QAI-h1290FX, gli utenti possono distribuire ed eseguire i propri modelli AI subito, con il pieno controllo dei propri dati e senza alcuna dipendenza dal cloud.
Le peculiarità del nuovo server di storage Edge AI
- Architettura Storage All-Flash. Dodici bay U.2 NVMe/SATA SSD consentono un I/O ultra-veloce per l’esecuzione ad alta frequenza di modelli AI e lo streaming di dati.
- Processore AMD EPYC 7302P 16-core. Offre 32 thread di potenza di calcolo server-class—ideale per inferenza AI, Virtualizzazione e carichi di lavoro paralleli pesanti.
- Architettura pronta per GPU. Supporta GPU workstation opzionale NVIDIA RTX PRO 6000 Blackwell Max-Q, con fino a 96GB di memoria GPU e supporto per accelerazioni CUDA, TensorRT e Transformer Engine. Incrementando notevolmente le prestazioni per inferenza LLM on-prem, generazione immagini e workload di deep learning.
- Ambiente AI containerizzato e gestione risorse GPU. Supporta Docker e LXD con allocazione GPU intuitiva. Gli utenti possono avviare rapidamente strumenti AI tramite il App Center AI integrato e assegnare risorse GPU senza configurazione da riga di comando.
- Deployment completamente locale senza dipendenza dal cloud. Esegui assistenti AI, motori di ricerca documenti o knowledge base completamente on-premises. Mantieni i dati sensibili in sede accelerando i flussi di lavoro AI.
- Architettura di Rete ad alta velocità e scalabile: Dotato di doppia porta 25GbE e doppia porta 2,5GbE. Gli slot PCIe supportano upgrade opzionali a 100GbE. Compatibile con le unità di espansione JBOD QNAP per lo storage AI su larga scala.
QAI-h1290FX, soluzione pratica per implementare la GenAI
- Assistenti AI interni/Interfacce chat on-prem. Distribuisci interfacce di AI conversazionale per la ricerca di informazioni, la formazione dei dipendenti e Q&A sulle policy aziendali. Tutto sotto controllo.
- Ricerca RAG aziendale. Sfrutta pipeline RAG private per eseguire ricerche rapide e contestuali su contratti, report e documenti interni.
- Generazione di immagini per team creativi. Esegui Stable Diffusion o ComfyUI per flussi di lavoro di design e generazione di contenuti visivi basati su AI.
- Automazione IT guidata da AI. Usa n8n per automatizzare attività di inferenza, generazione di contenuti o avvisi—integrando l’AI senza problemi nei processi aziendali.
QNAP con QAI-h1290FX offre una soluzione pratica e ad alte prestazioni per implementare l’AI generativa all’interno dei confini aziendali. Che venga utilizzato in ambito legale, HR, creativo o IT, consente ai team di lavorare più velocemente, rimanere conformi alle normative e mantenere il pieno controllo sulla propria strategia AI, direttamente all’edge.






