venerdì 25 gennaio 2008

Si chiamava CP67


... ovvero: VM Graffiti - l'evoluzione della virtualizzazione



Si chiamava CP67 - l'acronimo stava per "Control Program 67" ... e 1967 era l'anno di nascita. Era un "prototipo" non ancora commercializzato e qualche anno dopo IBM gli avrebbe cambiato nome e lo avrebbe chiamato VM 370 (Virtual Machine 370).

Al CNUCE di Pisa (il Centro Nazionale Universitario di Calcolo Elettronico voluto dall'allora rettore dell'ateneo pisano Alessandro Faedo) ce n'era una copia che IBM aveva consegnato - udite! udite! - completa del codice sorgente.

Allora sembrava un piccolo miracolo. Il Personal Computer avrebbe tardato ancora una decina di anni ad apparire sul mercato, ma già i ricercatori del CNUCE potevano utilizzare il loro terminale "stupido" (un 3270 a fosfori verdi) come se fosse stato un computer personale dedicato a ciascuno di loro. In realtà stavano usando una parte delle risorse di un grosso (e costoso) elaboratore.

La "flessibilità" che offriva era l'ideale per i ricercatori pisani ed anche i gestori del Centro di Calcolo gustavano i vantaggi di "separare" il computer (virtuale) di produzione da quello (sempre virtuale) di sviluppo e ricerca. C'era poi l'ulteriore vantaggio - non di poco conto - di far convivere, sulla stessa macchina, i due sistemi operativi della IBM - il DOS e l'OS - oltre ad uno speciale sistema operativo "condiviso" da tutte le piccole macchine virtuali dei ricercatori: il CMS (niente a che fare con l'acronimo, più recente, di Content Management System).


Qualche malalingua pisana, come al solito, sputava sentenze: "IBM ha tirato fuori un computer 10 volte più potente (il /370 così era, rispetto al /360) ed ha inventato il sistema (la memoria virtuale ed il Virtual Machine) per renderlo lento come il vecchio". Ma le cattiverie durarono poco: i vantaggi erano troppi.

Dopo alcuni anni IBM tentò di toglierlo di mezzo: c'erano già il DOS e l'OS ed un terzo sistema operativo, commercialmente, dava solo disturbo e assorbiva investimenti di sviluppo. La sollevazione degli utenti - soprattutto di quelli scientifici, ma non solo - fu terribile!

A IBM non restò che tornare sui suoi passi. La "Virtualizzazione" ERA una necessità!

E lo è ancora! ma per motivi diversi. "Suddividere" un grande elaboratore in tanti piccoli elaboratori virtuali aveva un senso chiaro fino agli anni 80, ma poi, dopo l'avvento del PC a che poteva servire un tale "ipervisore" (o super-supervisore)? Quale pazzo poteva pensare di "smembrare" in unità più piccole il già piccolo PC?

Venuta meno la necessità di far lavorare più utenti sulla stessa macchina, restava quella di far convivere sulla stessa macchina (sì. Anche un piccolo PC) più ambienti a tutti gli effetti separati e (prima con OS/2 e Win95, ma soprattutto - dopo - con l'affermarsi di Linux) sistemi operativi diversi. Non più, quindi, tanti utenti per una sola macchina ma tante - diverse - necessità per lo stesso utente.

Ma non basta! Con il proliferare dei server e l'aumentata complessità della relativa gestione nasce una nuova "necessità": "Consolidare" il parco dei server riducendo il numero delle unità "fisiche" senza ridurre quello delle unità "logiche" (con una transizione, quindi, praticamente indolore) e facilitarne la gestione con strumenti nuovi, in grado di aumentare la "versatilità" della server-farm, migliorare notevolmente la continuità operativa e creando un "pool" di server in grado di soddisfare le richieste dell'utenza senza preoccupazioni di come e dove le applicazioni gireranno (... tutto entro certi limiti, ovviamente!).

La "Virtualizzazione", ancora una volta, E' una necessità.

Oggi "Virtualizzare" è diventata una parola d'ordine e, questa è la nostra opinione, il successo crescente di Linux ed i nuovi strumenti gestionali offerti sono la causa principale di questo fenomeno.

Nel 1998, sull'idea di una tesi di laurea che realizzava su PC quello che il VM IBM faceva con i mainframe, nasceva VMware una giovane azienda che faceva leva proprio su quelle necessità cui abbiamo accennato sopra. L'acquisizione da parte di EMC (nel 2004) dà impulso allo sviluppo di nuove soluzioni di virtualizzazione, sempre meno legate al sistema operativo dominante (a voi indovinare quale!) e sempre dedicate alla realizzazione di piattaforme sicure e performanti multi-sistema operativo.

Insomma: la voglia di Linux cresce e così la voglia di sperimentare applicazioni "open" ... senza rinunciare al patrimonio di cultura (personale) Windows e fare pericolosi "salti nel vuoto".

Microsoft, d'altro canto, non sta a guardare e propone - forse un po' in ritardo a nostro avviso - una visione originale della "virtualizzazione" che mira (almeno così ci sembra) a relegarla allo "strato inferiore" di un sistema di applicazioni di gestione della server-farm e, ovviamente, a riportare il "centro" della questione ad un iper-Windows a 64 bit (e "solo" a 64 bit) in grado di controllare "sistemi client" Windows e Linux.

Entrambe queste "visioni" (parimenti rispettabili, sia chiaro) sono state bene illustrate - durante l'evento Cosmic Blue Team di Villa Torretta del 29 e 30 maggio - da Matteo Uva di VMware e da Manuel Maina di Microsoft con due interventi disponibili, in video e in PDF, sul portale CBT. Sono due interventi di circa 25 minuti, chiari ed interessanti e dimostrano l'attenzione che le due compagnie dedicano a questo argomento.

Il consiglio è, ovviamente, di vederli.

(dalla Newsletter CBT "nonsolobytes" N 14 - settembre 2007)




Nessun commento: