Gurpreet Singh, Principal Product Manager, Red Hat, ci racconta la collaborazione, nata per fornire una base “security first” per telecomunicazioni AI-native.
Le operazioni di rete basate sull’intelligenza artificiale stanno diventando un elemento cardine per i service provider, che le utilizzano per governare la crescente complessità del network, ottimizzare in modo proattivo le prestazioni e garantire un’erogazione dei servizi più affidabile, automatizzata e orientata all’esperienza dell’utente. L’AI non è più solo una tecnologia applicativa, sta diventando fondamentale per il funzionamento delle reti dei moderni fornitori di servizi.
Tuttavia, per trarre vantaggio da questo cambiamento, l’infrastruttura dei service provider deve diventare “AI-native”, cosa che richiede l’integrazione diretta dell’AI nelle operazioni di rete, nelle piattaforme di servizio e nei modelli di sicurezza attraverso core, edge e rete. Con questo obiettivo, Red Hat si unisce a NVIDIA e Palo Alto Networks per offrire un’architettura nativamente progettata per l’AI, che integra orchestrazione cloud-native, accelerazione hardware e sicurezza avanzata, consentendo ai service provider di adottare modelli intelligenti in modo scalabile, performante e sicuro.
Il servizio si articola in due pillar architetturali che combinano le funzionalità di sicurezza di Palo Alto Networks, eseguite su Red Hat OpenShift, con le capacità di Red Hat OpenShift AI, il tutto alimentato dall’infrastruttura e dalle soluzioni AI di NVIDIA per garantire prestazioni elevate, automazione intelligente e protezione nativa.
Una base integrata e “security first” per i fornitori di servizi AI-native
I service provider AI-native richiedono un’architettura progettata per rendere operativa l’IA come parte della rete stessa attraverso data center centralizzati, ambienti edge e location di rete.
Al centro di questa architettura ci sono Red Hat OpenShift e Red Hat OpenShift AI, che fungono da piattaforma cloud-native comune per le telecomunicazioni AI-native. Red Hat OpenShift e OpenShift AI forniscono una piattaforma Kubernetes coerente e di livello enterprise per distribuire, gestire e governare sia le funzioni di rete che i carichi di lavoro AI negli ambienti core, edge e far-edge. Questa coerenza operativa consente ai fornitori di servizi di introdurre capacità basate sull’IA senza frammentare le operazioni o creare ambienti isolati.
I carichi di lavoro AI sono alimentati da sistemi di calcolo accelerati NVIDIA distribuiti attraverso la rete. I server NVIDIA RTX PRO forniscono accelerazione AI ad alte prestazioni ed efficienza energetica per i carichi di lavoro AI sui data center e all‘edge, mentre la famiglia di server accelerati NVIDIA Aerial RAN Computer (ARC) abilita RAN basate sull’AI e l’intelligenza network-edge. Insieme, queste piattaforme offrono le prestazioni e l’efficienza richieste per l’inferenza in tempo reale, l’analisi operativa e i servizi di rete AI-native.
L’integrazione di Prisma AIRS con Red Hat OpenShift e NVIDIA BlueField abilita una sinergia potente tra sicurezza centralizzata e distribuita, sfruttando lo steering NVIDIA DOCA per un controllo a livello hardware ottimizzato per i workload di telecomunicazioni basati sull’AI. La combinazione è accelerata da NVIDIA ConnectX per fornire rilevamento delle minacce e applicazione delle policy in tempo reale. Operando a livello di infrastruttura, la sicurezza viene applicata in modo coerente in ambienti core, edge e di rete senza compromettere le prestazioni o aumentare la latenza.
Piuttosto che fare affidamento su componenti poco integrati, questo approccio integra la gestione del ciclo di vita dell’AI, l’infrastruttura AI e le operazioni “security first” in un’unica piattaforma coesa che opera su larga scala. Con un’architettura integrata, i fornitori di servizi possono beneficiare di una base coerente per distribuire automazione, analisi e servizi basati sull’AI ovunque forniscano il massimo valore, mantenendo prestazioni prevedibili, semplicità operativa e sicurezza integrata sull’intera impronta di rete distribuita.
Insieme, Red Hat, NVIDIA e Palo Alto Networks mirano a fornire uno stack telco AI‑native completamente integrato, in cui software cloud‑native, calcolo accelerato e sicurezza zero trust operano come un unico sistema progettato per supportare workload intelligenti, distribuiti e mission‑critical.
Ciò consente ai fornitori di servizi di evolvere oltre le reti basate su hardware e costruire una base per operazioni scalabili basate sull’AI, nuovi servizi e future reti dell’era 6G.
Il percorso verso reti telco AI-native
I service provider che incorporano l’AI nelle operazioni di rete e nelle piattaforme di servizio in anticipo possono ottenere vantaggi duraturi in termini di efficienza, agilità e differenziazione dei servizi.
L’architettura AI-native di Red Hat, NVIDIA e Palo Alto Networks contribuisce ad accelerare la trasformazione operativa e l’innovazione dei servizi, attraverso casi d’uso ad alto impatto come l’ottimizzazione RAN basata sull’AI, la manutenzione predittiva, l’efficienza energetica e l’applicazione automatizzata della sicurezza.
Per evolvere verso un service provider AI-native non basta una singola implementazione. Rendendo l’AI elemento portante di come le reti sono progettate e operate, i provider possono posizionarsi come aziende AI-native, capaci di fornire eccellenza operativa, nuovi servizi e crescita a lungo termine in un’economia davvero guidata dall’AI.






