Virtualizzare è meglio

Strategie

La logica della virtualizzazione viene trasferita nello storage, nel software
e oggi anche nel cuore degli stumenti elaborativi, i processori. Con Vanderpool,
nome in codice della virtualizzazione su silicio di Intel, sarà possibile
eseguire più sistemi operativi e applicazioni in partizioni indipendenti nella
stessa piattaforma

La situazione oggettiva è impietosa. L’It sopravvive facendo i conti con
infrastrutture di elevata complessità, statiche, poco flessibili, lente nei
cambiamenti. Lo spreco di risorse è enorme e, di conseguenza, i tassi d’impiego
gridano vendetta. Attualmente, nel caso di piattaforme a standard industriale,
per intenderci quelle basate su Pc e server, non superano in media il 20%.
Inoltre, più del 50% di quanto investito nei sistemi It non porta alcun ritorno
sull’investimento. E, se è vero che l’hardware costa ragionevolmente poco, la
mancanza d’efficienza causa aggravi di costi parecchio significativi. Tanto che
tra il 70 e l’80% della spesa It se ne va in manutenzione, lasciando le briciole
all’innovazione. Oneri non più sostenibili da moltissime realtà. Spesso, la
risposta all’aumento di richieste relative ai server aziendali è quella di
acquistare e installare ulteriori sistemi – server fisici – in modo da
incrementare la capacità di servizio. Così facendo macchine dedicate si
sparpagliano su tutte le aree operative di un’azienda, dalla finanza al
marketing, dalle vendite alla logistica, fino a svolgere funzioni di mail
server, database, firewall e Web server, e chi più ne ha più ne metta. Abitudini
consolidate che danno origine a strutture complesse e costose da gestire e
manutenere. In tale quadro c’è poi un altro assurdo stridente. Non serve essere
grandi esperti, basta una superficiale occhiata alle architetture delle
precedenti generazioni di sistemi informativi per scoprire la loro maggiore
efficienza. Un sistema mainframe lavora mediamente al 70-80% delle sue capacità,
un sistema Unix al 50-60%. Ora, non è che si debba tornare all’antico, ma
bisogna di certo ottimizzare l’attuale. E migliorare significa scoprire l’acqua
calda, qualcosa che ci è già stato insegnato dai mainframe e dai minicomputer di
passata memoria. E’ sufficiente uscire dalla logica – una istanza applicativa
per ogni server – associando le risorse alle applicazioni solo quando se ne
verifica la necessità, ed estendere al massimo la loro disponibilità dinamica.
Su questa scena, processori, memorie, rete e storage sono gestite in pool da una
regia in grado di garantire il rispetto di alcune regole prefissate, ad esempio
quelle relative ai livelli di servizio e di business continuity. Ecco quindi che
il concetto Ddc (Dynamic Data Center) prefigura un’architettura hardware e
software di nuova generazione, orientata ai servizi, più vicina agli utenti
finali e ai parametri Sla (Service Level Agreement), quasi completamente
on-demand. Si tratta quindi di abbandonare le infrastrutture It stratificate,
orientate ai sistemi, in favore di architetture orientate ai servizi. Il mercato
ha già capito quale sarà la nuova frontiera e, dopo una prima fase in cui tool
quali Vmware hanno spopolato, ricalcando addirittura successi commerciali di
crescita comparabili con quelli dei primi anni di Oracle, cerca la via
dell’integrazione. Inoltre, aspetto fondamentale per le aziende, le soluzioni
proposte dai vendor per la cosiddetta virtualizzazione vengono offerte dopo
essere già state sperimentate, sulla base di best practice. Insomma esiste già
una proposta a pacchetto. Tale spirito ha mosso di recente iniziative quale
quella di Fujitsu Siemens Computers, Intel ed Emc, promotrici di un tour in 23
città di 17 Paesi europei, sul tema: tecnologie chiave alla base del concetto di
Dynamic Data Center – virtualizzazione, automazione e integrazione. Fra le
iniziative, i Virtualization Day: incontri dedicati ai responsabili It con
l’opportunità di vedere soluzioni dal vivo e di confrontarsi con i maggiori
esperti internazionali.

Virtualizzazione? Che cosa è
Il termine riunisce in sè diverse tecnologie che, in sostanza, servono da
supporto per suddividere le risorse di un unico computer in più parti
indipendenti. Tale risultato può essere ottenuto applicando uno o più metodi
quali: partizionamento dell’hardware e del software, time sharing e simulazione
parziale o integrale di una macchina. La ricerca in questo settore è iniziata
negli anni Sessanta e si è concentrata sulle architetture basate su macchine
virtuali progettate come copie identiche dell’hardware della macchina
principale. La virtualizzazione può oggi assumere la forma di un singolo
prodotto indipendente, altamente ottimizzato e impiegato con carichi di lavoro
su piccola o su vasta scala. Oppure può essere applicata a ogni livello
dell’infrastruttura It: server, reti e storage. Il tutto porta a una efficienza
maggiore attraverso un utilizzo migliore delle risorse, sia di memorizzazione
sia di server, fisicamente disponibili. Un miglior utilizzo si trasforma a sua
volta in una riduzione dei costi amministrativi e dei consumi elettrici. Insomma
i responsabili It possono smettere di agire reattivamente per diventare invece
proattivi rispetto al business, salvando posto e stipendio. Reso possibile da
una nuova generazione di processori, il software di virtualizzazione offre
un’immagine hardware standardizzata sulla quale possono girare sistemi operativi
e applicazioni della medesima versione e con lo stesso tipo di installazione
usato con il tradizionale hardware stand-alone, ma con una notevole riduzione
della complessità infrastrutturale. È altrettanto importante notare come la
virtualizzazione introduca flessibilità nell’infrastruttura It, permettendole di
crescere e di contrarsi a seconda della necessità. Così i sistemi divengono
maggiormente reattivi ai cambiamenti delle priorità o ai problemi hardware.
Ancora, dal momento che grazie a tool quali VmWare un server diventa un file e
quindi alla fin fine l’applicazione, per la proprietà transitiva, risiede in un
file, cioè su un disco, con tutto quello che ne consegue.

II mercato della virtualizzazione
Numerosi produttori propongono tecnologie di virtualizzazione nell’ambito dei
rispettivi portafogli di prodotti e servizi. Lo scopo, come abbiamo visto, è
quello di aiutare le aziende a creare sistemi It condivisibili da più clienti,
business unit o applicazioni. Il concetto Dynamic Data Center di Fujitsu Siemens
Computers compete all’interno di un mercato che comprende le proposte Adaptive
Enterprise di Hewlett- Packard, la strategia On Demand di Ibm e la Dynamic
Systems Initiative di Microsoft, per fare un esempio. Per tutti l’obiettivo è
quello di utilizzare le tecnologie di virtualizzazione come componenti base di
soluzioni endto- end, mirate a permettere policy business e parametri Sla che
favoriscano l’ottimizzazione dinamica e automatica dell’infrastruttura It. Tali
pacchetti racchiudono al loro interno numerose tecnologie, di produttori
diversi, per gestire e controllare le varie componenti dell’infrastruttura.
Tuttavia, la vision e l’ambito applicativo di alcune di queste proposte fanno
più affidamento su capacità, tuttora attese, dalla futura maturazione degli
standard dedicati alla virtualizzazione. Un po’ diversa è la proposta di Fujitsu
Siemens che implementa una tecnologia di virtualizzazione all’interno dei propri
prodotti con un’ampia gamma di servizi. Durante una presentazione tenuta in
occasione del Gartner’s Symposium Itxpo, Gartner ha sottolineato come Fujitsu
Siemens Computers metta a disposizione solide soluzioni integrate oltre che
valide partnership con aziende come Emc, Sap e Hp.

La virtualizzazione hardware
Entro fine anno, Intel porterà la virtualizzazione sul silicio di tutti i suoi
processori, grazie alle sempre maggiori densità di transistor integrabili
sull’area di un chip.In futuro, i client come i server godranno dei benefici di
tale filosofia. La virtualizzazione a livello di processori e di chip-set rende
estremamente economiche funzionalità di migrazione da una macchina a un altra e,
quindi, di continuità d’esercizio. Oggi la tecnologia di virtualizzazione Intel
è già disponibile nei processori Intel Xeon Mp della famiglia 7000. Intel offre
così inoltre un supporto hardware, compreso nel chip, che massimizza i vantaggi
di soluzioni software di virtualizzazione, quali Vmware, Esx Server, Microsoft
Virtual Server 2005 e Xen. Con Vanderpool, nome in codice della virtualizzazione
su silicio di Intel, sarà possibile eseguire più sistemi operativi e
applicazioni in partizioni indipendenti nella stessa piattaforma in modo da
utilizzare un unica macchina come più sistemi ?virtuali’. Una di queste
partizioni del Pc servirà per eseguire interventi di upgrade, di manutenzione e
di sicurezza senza interrompere l’utente e senza permettergli di interferire con
applicazioni strategiche. Si può garantire anche una migliore protezione da un
codice sospetto o virus, filtrando il traffico di rete tramite una partizione
distinta, prima che raggiunga l’utente. La configurazione di più partizioni su
un Pc consente di migliorare complessi aspetti di gestione delle macchine. E’
possibile fornire il supporto per le applicazioni legacy permettendo allo stesso
tempo di testare e adottare nuovi ambienti operativi. I responsabili It potranno
inoltre creare un’unica immagine software per tutti i desktop che funzio ni
indipendentemente, sia come sistema personale sia aziendale, mantenendo separati
i carichi software e gli attacchi di virus. Oppure un unico sistema che esegua
sistemi operativi e software differenti per operazioni diverse o di versioni
precedenti. Le funzioni offerte dalla tecnologia Vanderpool sono anche destinate
al consolidamento dei server e alla migrazione da tecnologie precedenti. Tutto
ciò ben si abbina con l’architettura multi-core. Progettisti di software e
integratori di sistemi potranno utilizzare le partizioni basate sulla tecnologia
Vanderpool e i core di elaborazione aggiuntivi per creare combinazioni
specifiche all’interno di un server o di un Pc per un utilizzo dedicato. Infine
maggiore flessibilità: una partizione virtuale può essere ampliata o
ridimensionata in pochi minuti per supportare nuove applicazioni, un aumento del
carico di lavoro e le attività di manutenzione del sistema.

Virtualizzazione nelle applicazioni
Risale a due anni fa la prima soluzione FlexFrame, sviluppata da Fujitsu Siemens
Computers in collaborazione con Sap. FlexFrame for mySap è un sistema dinamico
per assegnare servizi Sap, residenti in remoto, a qualunque server appartenente
a un gruppo di risorse Sap. Quando un’azienda dotata di diversi sistemi Sap
sperimenta un improvviso picco di traffico proveniente dai clienti, rispondere
con ulteriori risorse può essere problematico. Questa situazione normalmente non
può essere risolta con la semplice aggiunta di un nuovo application server
dedicato a Sap. Nelle moderne architetture applicative multilivello è infatti
necessario allineare alla nuova situazione tutti i livelli correlati come Web
server front-end, application server e database server. Occorrono normalmente
dalle tre alle quattro ore per installare un Web server, un giorno o più per
adattare l’infrastruttura Sap e circa un’ora e mezza per riconfigurare o
aggiornare il database server. Per completare tutto questo, il responsabile It
ha inoltre bisogno dell’aiuto di specialisti in Web server, server Sap e
database. Con la tecnologia di virtualizzazione è possibile sia installare un
nuovo server per supportare un particolare servizio Sap soggetto a forte domanda
da parte dei clienti, sia riassegnare tale servizio a un server più potente. La
commutazione a un server più capace viene effettuata dinamicamente nell’arco di
qualche minuto: normalmente dai 15 ai 20 minuti per ulteriori Web server, cinque
minuti per allineare le applicazioni Sap, e dai 15 ai 20 minuti per allineare le
risorse database. Il secondo sviluppo di Flex- Frame – FlexFrame for Oracle –
segue i medesimi principi: si tratta della prima infrastruttura end-to-end per
Oracle Grid Computing, ed è progettata per automatizzare tutti i compiti di una
griglia di calcolo e ricavare una visione univoca dell’intero ambiente server.
Tutti i server possono essere gestiti come se fossero uno solo, facendo
risparmiare risorse con l’ottimizzazione dell’infrastruttura nel suo complesso.
FlexFrame for Oracle è poi in grado di eliminare il rallentamento o il crash
delle applicazioni aziendali. All’interno di un’unica offerta sono raggruppati
com ponenti server, di storage e software preconfigurati e certificati,
racchiusi in un quadro tecnologico di automazione, virtualizzazione e
deployment, con i relativi servizi. FlexFrame for Oracle si rivolge al mercato
delle applicazioni basate su J2ee, gira su blade server e dispositivi di storage
standard. Essendo una piattaforma aperta, è possibile virtualizzare la struttura
dati del software e far girare servizi applicativi e database su qualunque
server della griglia di calcolo in qualunque momento.

Un passo verso Soa
Grazie alle tecnologie di virtualizzazione, si apre anche una strada
verso ambienti Soa (Service-Oriented Architecture), nei quali computer e
database possono essere dinamicamente allineati alle applicazioni. Un indubbio
aiuto viene da un’architettura quale Ddc, che fa leva su server virtuali,
deployment centralizzato, partizionamento dinamico e infrastruttura di backup
virtuale. Soprattutto nel caso dei server virtuali, più istanze di sistema
operativo girano in parallelo sotto forma di server virtuali appoggiati a un
sistema fisico reale. Questa configurazione permette di assegnare le risorse a
un server virtuale in maniera flessibile e dinamica. Un apposito strato software
consente il funzionamento parallelo delle varie istanze del sistema operativo
(ciascuna delle quali rappresenta una virtual machine Vm). Vm sono disponibili
sui mainframe Bs000 (Vm2000) e sui server standard Primergy (con software
Vmware). Nelle installazioni centralizzate, il sistema operativo e il software
applicativo risiedono su un’istanza centrale. Ogni volta che nasce la necessità
di più risorse, il software viene reso disponibile a ulteriori server
caricandolo dall’istanza centrale o attraverso un processo di avvio in remoto.
In questo modo, l’area di utilizzo di un server può essere modificata
rapidamente: nell’arco di pochi minuti un’applicazione può essere fatta girare
su un numero maggiore di server o può essere spostata da un server a un altro.
Il partizionamento dinamico suddivide un server in una certa quantità di server
virtuali – o partizioni – ricorrendo a funzionalità hardware o a un software per
la gestione delle risorse. Le dimensioni delle partizioni possono essere
modificate online a richiesta; inoltre, le risorse possono essere nuovamente
assegnate tra i diversi server virtuali, senza dover interrompere il
funzionamento del sistema.

Archiviazione virtuale
Un’infrastruttura di backup virtuale semplifica la connettività tra server e
sistemi fisici di backup, al tempo stesso migliora l’automazione dei processi di
backup, riducendo sensibilmente i costi amministrativi. Si tratta di un fattore
importante in un’epoca di servizi attivi 24 ore su 24, poiché la finestra
temporale per il backup a disposizione dei responsabili It diventa sempre più
stretta. Ma la virtualizzazione viene in soccorso, offrendo massima efficienza
anche in ambito storage. Per tornare agli esempi visti durante i Virtualization
Day, CentricStor, la virtual tape appliance di Fujitsu Siemens, è una soluzione
aperta che virtualizza le attività su nastro in ambiente mainframe e per gli
open systems basati su Unix e Windows. CentricStor offre un numero pressoché
illimitato di risorse virtuali, interfacce di sistema standardizzate e alta
disponibilità. All’interno di una rete San (storage area network) tale soluzione
un sistema integrato con risorse altamente efficienti, e continuamente
disponibili per ogni esigenza di backup e archiviazione su nastro virtuale.
Anche Nas (network attached storage) e San (storage area network) sono dunque
affetti da sindrome di virtualizzazione come testimoniano Rainfinity e Invista
le due soluzioni realizzate da Emc, per inciso proprietaria tra l’altro anche di
Vmware e quindi candidata a un ruolo di rilievo in questo neonato settore. La
virtualizzazione dello storage di rete serve a creare volumi virtuali
all’interno della rete, formando un ambiente dinamico in cui le risorse fisiche
possono essere spostate e modificate rapidamente e in modo non dirompente.
Invista raggruppa dispositivi distribuiti di storage fisico in un pool logico
comune, da cui i clienti possono pescare per gestire le proprie risorse. La
soluzione di Emc, oltre a centralizzare e semplificare la gestione dello
storage, integra hardware e software. I vantaggi vengono ottenuti semplicemente
spostando, copiando e migrando dati in modo trasparente attraverso diversi
livelli di storage array eterogenei. Invista è un componente chiave della
strategia Emc di information lifecycle management (Ilm). Obiettivo di tale
strategia è dare un contributo alla riduzione del costo totale (Tco) e di
ottenere più valore dalle attività It. La tecnologia Rainfinity Global File
Virtualization permette invece la virtualizzazione di Nas eterogenei e di file
server. In questo caso l’obiettivo è quello dell’ottimizzazione dello storage di
rete, con prestazioni migliori, consolidamenti più veloci e protezione dei dati
flessibile. La virtualizzazione è da considerare un’importante tecnologia
abilitante per ambienti Nas. Secondo un’indagine di Coughlin Associates, le
implementazioni di virtualizzazione Nas dovrebbero raddoppiare nel corso del
2006. La piattaforma Rainfinity comprende anche potenti applicazioni di capacity
management, performance management e di gestione dello storage a più livelli. La
funzione di capacity management localizza e risolve qualunque problema di
capacità ed effettua il bilanciamento del carico della capacità per ottimizzare
l’utilizzo dello storage. In modo simile, l’applicazione di performance
management identifica e risolve i problemi di prestazioni ed elimina colli di
bottiglia e punti difficili. La gestione dello storage a più livelli sfrutta le
capacità di migrazione di Rainfinity ragionando sui dati raccolti dalle analisi
di frequenza di accesso al dato, in modo da identificare i dati non strutturati
e riallocarli in strutture di memorizzazione di costo inferiore, massimizzando
gli investimenti nell’hardware di storage di alta qualità. In tal modo si
possono dormire sonni tranquilli, essendo sicuri che i dati vengano archiviati
nel modo più efficiente dal punto di vista dei costi, al mutare del loro valore
nel corso del loro ciclo di vita. Insomma è logico che la spazzatura stia nel
cestino, e i gioielli in cassaforte.

Pietro Bignardi, (Data Business, Aprile 2006)