PROGETTAZIONE DIGITALE

XXI Secolo (2010)

Progettazione digitale

Marco Gaiani

Il Boeing 777 è stato, a metà degli anni Novanta del Novecento, il primo aeroplano completamente progettato e ‘preassemblato’ in forma digitale senza far ricorso ad alcun prototipo fisico; una straordinaria esperienza che ha consentito di confermare sperimentalmente due aspetti caratteristici di tutta la progettazione odierna: i processi digitali possono ridurne i tempi e migliorarne al tempo stesso la qualità; inoltre possono determinare un nuovo, rilevante balzo in avanti nei suoi processi di automazione. L’utilizzo di CATIA (Computer Aided Three dimensional Interactive Application), un software digitale 3D, ha consentito ai progettisti della Boeing di visualizzare sullo schermo i componenti come immagini digitali e di simularne quindi l’assemblaggio sullo schermo stesso, correggendo facilmente possibili disallineamenti o eventuali problemi di interferenza. Il ‘programma 777’ è così riuscito nell’intento di ridurre tempi, errori, variazioni e rielaborazioni a meno della metà rispetto allo standard precedente della Boeing.

A metà degli anni Novanta la General motors impiegava quarantotto mesi per produrre il primo veicolo dal momento in cui ne veniva definito lo ‘stile’. Dal 1999 lo sforzo di digitalizzazione ha abbreviato questo periodo a diciotto mesi. E in soli diciotto mesi la Fiat auto, tra il 2005 e il 2007, ha progettato e realizzato la nuova Bravo, compresa la fase di concept dello stile, che da sola richiedeva in precedenza quasi un anno. Nel settore dell’auto, la prima fase del processo progettuale è ormai completamente digitale. Singoli componenti o interi prodotti sono modellati con soluzioni 3D CAD (Computer Aided Design), così come sono realizzati digitalmente gli assemblaggi delle singole parti, per verificarne l’interdipendenza e scoprirne i possibili conflitti. In questo contesto non è poi solo cruciale la progettazione della forma geometrica, ma anche la possibilità di revisione prima dell’assemblaggio del prototipo fisico.

Sembra dunque lecito porsi il quesito: che cosa è accaduto tra il primo ‘esperimento’ completamente digitale e i giorni nostri?

Cos’è la progettazione digitale

In riferimento a un vasto campo di applicazione – che comprende il design, l’architettura, l’urbanistica, l’ingegneria civile e, non meno importante, l’intero settore dell’ingegneria industriale – per progettazione digitale s’intende un processo progettuale che, dall’ideazione alla realizzazione, è interamente condotto con mezzi digitali, e nel quale si riscontra la compresenza di tre condizioni basilari che, a partire dai prodromi dell’ultimo decennio del secolo scorso, hanno avuto più ampia diffusione in questo esordio del nuovo secolo: a) progettazione basata su modelli tridimensionali realizzati non come semplice rappresentazione di un oggetto o di un manufatto, bensì come sistema conoscitivo, di simulazione e prototipazione; b) introduzione di un hardware grafico di terza generazione atto a supportare tecniche di visual computing 3D, tecniche grazie alle quali la tradizionale figurazione per piani di proiezione e schema al contorno dell’oggetto viene affiancata da quella per modelli visualizzati in forma ombreggiata, modificabili interattivamente in tempo reale; c) specificazione delle diverse fasi di utilizzo del modello e introduzione di appropriati strumenti per la sua creazione, analisi e restituzione nelle fasi di design review e design presentation.

Le implicazioni sottese all’introduzione delle metodiche di computazione visiva sono profonde e sostanziali: si rende possibile, infatti, il superamento non soltanto dei problemi connessi al sistema analogico, ma anche di quelli legati all’epoca della prima informatizzazione, le cui tecniche basate sull’indicizzazione e la descrizione testuale si sono rivelate strumenti completamente insufficienti a richiamare contenuti multimediali e spaziali. Non si tratta più di avere soltanto strumenti di ausilio (il contributo offerto dalle maquette tradizionali, ossia il modello), quanto piuttosto di poter trasferire l’intero ragionamento in forma digitale, operando progettualmente su un modello visualizzabile con accessibilità continua nello spazio e nel tempo, allo scopo di realizzare sistemi dinamici e restituzioni di dati che risultino essere facilmente analizzabili anche da parte di operatori non esperti.

Quanto accaduto negli ultimi anni rappresenta dunque una rivoluzione non tanto nella formulazione del metodo di base (la progettazione basata su modelli digitali ha ormai circa trent’anni) quanto nel fatto che l’incremento delle potenze computazionali ha reso gestori del processo progettuale non più i dati numerici in sé – che rimangono un attributo o una base nascosta – ma i meccanismi conoscitivi legati alla loro visualizzazione. Il processo di progettazione ha assunto così una base visuale dominante. Lo schema mediatico operativo del digitale ha inoltre portato a una sostanziale separazione tra ‘fare’ e ‘vedere’: costantemente unificati nell’interfaccia del foglio da disegno, i meccanismi conoscitivi sono stati separati dai sistemi numerici digitali, giacché l’interfaccia di visualizzazione (il monitor) raramente è anche l’interfaccia di creazione del progetto – di solito affidata a un altro dispositivo (mouse, tastiera ecc.).

I modelli digitali consentono al progettista non solo di essere ideatore, ma anche di tornare ‘costruttore’ della propria opera, giacché essi non solo rappresentano l’oggetto ideato, ma anche il codice che ne permetterà la realizzazione su macchine a controllo numerico e/o con processi automatizzati. In questa direzione, con la progettazione digitale viene meno la separazione tra la fase concettuale/creativa, predisposta secondo peculiari canoni estetici, la fase dell’ingegnerizzazione, la verifica della realizzabilità e la fase propriamente esecutiva.

La messa in serie dei modelli consente la costruzione di strutture capaci di illustrare con una rappresentazione tridimensionale un sistema intrinsecamente spaziale come l’architettura o il design di prodotto. E, come ha chiaramente spiegato Abraham A. Moles (Teoria informazionale dello schema, «Versus», 1972, 2, pp. 29-37) ancor prima della nascita dell’informatica di seconda generazione, la quantità di informazioni relativa a oggetti tridimensionali aumenta a dismisura se si fa ricorso a forme descrittive di un livello d’iconicità più basso. La rappresentazione tridimensionale aiuta pertanto a migliorare non solo la visualizzazione o la conservazione delle informazioni, ma soprattutto la loro definizione, semplificandone l’organizzazione e integrandone la restituzione con un sistema di dati conoscitivi. Oltre alla generazione di spazialità alternative, l’attributo che maggiormente qualifica i modelli digitali è quello di prestarsi a essere potenti sistemi conoscitivi del manufatto stesso, descrivibile come una collezione di oggetti strutturati, ognuno dei quali identificato attraverso un preciso vocabolario sintattico. Qualora sia costruito come ‘sistema conoscitivo’, ogni modello non rappresenta semplicemente un calco, ma un sistema informativo capace di restituire in modo associativo proprietà dell’oggetto e analiticità spaziale.

Appare dunque chiaro come risulti fondamentale non soltanto e non tanto la conoscenza di una tecnica rappresentativa o di una modalità esecutiva, quanto piuttosto la capacità di inserirla all’interno dell’intero processo produttivo e realizzativo, come parte integrante e non separabile.

Un modello 3D è poi, per propria natura, un’interfaccia altamente intuitiva di un sistema informativo che lo descrive con altri mezzi (testi, immagini, disegni 2D, suoni, filmati). Ciò costituisce un grande progresso rispetto ai più tradizionali sistemi di indicizzazione testuali: un’ampia gamma di strumenti permette una navigazione attraverso cui realizzare un facile accesso a strutture-dati estremamente complesse e una costante guida dell’utente attraverso informazioni tipologicamente eterogenee, dalla scala del singolo edificio fino a quella geografica. Il metodo di indicizzazione può variare da semplici mappe con hyperlink fino a complessi sistemi di navigazione 3D real-time come quelli offerti da Google Earth.

Complessivamente è possibile affermare che non si tratta più semplicemente della disponibilità di mezzi in grado di velocizzare processi già codificati (come nella prima informatizzazione mediante la rappresentazione del progetto con i sistemi CAD), ma di una vera e propria rivoluzione, che consente di valutare quantitativamente quello che prima era valutato solo qualitativamente, nonché di rendere visivo e continuo ciò che invece era campionato e numerico. In definitiva, la progettazione digitale propone, da più punti di vista, una ridefinizione del concetto stesso di rappresentazione così come si è andato definendo attraverso due millenni.

Progettazione basata sui modelli

Come ha efficacemente argomentato Jacques Guillerme, «il modello è un artificio che si colloca in un processo di progettazione grazie alle sue capacità (variabili) di simulazione» (Il modello nella regola del discorso scientifico, «Rassegna», 1987, 32, p. 29). Questa capacità di simulazione, già peculiare dei modelli fisici, è risolutamente enfatizzata in quelli digitali, al pari della facile modificabilità. La simulazione è, infatti, null’altro che la manipolazione di un modello nella sua definizione nello spazio e nel tempo, al fine di permettere la percezione delle interazioni non immediatamente apparenti. Le simulazioni sono poi generalmente iterative: si sviluppa un modello, lo si simula, si apportano le modifiche evidenziate come necessarie dalla simulazione, si revisiona il modello e si prosegue con l’iterazione fino a che non si raggiunge un adeguato livello di comprensione. E l’approccio digitale rende questo processo non solo infinitamente più rapido e meno oneroso, ma soprattutto possibile anche nei casi in cui le maquettes non riescono a operare. I modelli digitali poi non sono concepiti solo come esperimento di laboratorio, ma possono essere dotati di tutte le proprietà del reale e fornire possibili e molteplici visualizzazioni dell’oggetto finale, senza scala e senza distanza di proprietà materica.

Obiettivo fondamentale dei modelli digitali non è dunque tanto quello di offrire una simulazione fotorealistica del reale (uso a cui li hanno consacrati le rappresentazioni cinematografiche), una prefigurazione formale o una simulazione strutturale e/o funzionale (add-on marginali che rientrano nelle capacità dei modelli grafici e fisici), quanto piuttosto quella di poter funzionare come veri e propri prototipi virtuali iterativamente modificabili, dotati di similarità comportamentale e prestazionale, prioritariamente topologica, geometrica e percettiva. In questo ambito si definisce prototipo virtuale, o digital mock-up (DMU), una simulazione al computer di un prodotto fisico, che può essere presentato, analizzato e testato in aspetti che riguardano l’intero life cycle del prodotto, come design/engineering, manufacturing, servizi e riutilizzo. Costruzione e sperimentazione di un prototipo virtuale sono chiamate virtual prototyping (VP). Da un punto di vista pratico si tratta della rappresentazione 3D grafica di un oggetto, che può essere manipolata in real time nelle sue proprietà geometriche, superficiali e comportamentali, e che necessita – al fine di poter sostituire completamente una maquette – di un modello di interazione uomo-prodotto.

Un tipico campo di applicazione delle tecniche di prototipazione virtuale è quello del processo di sviluppo del prodotto. Qui i prototipi costituiscono preziosi strumenti di indagine, valutazione e sviluppo progettuale. Sono utilizzati per studiare soluzioni alternative, per sviluppare indagini ingegneristiche legate alla progettazione e alla produzione, e per simulare e ottimizzare i processi di management e di risposta da parte della domanda. I risultati di simulazioni di computer engineering analysis (CEA) costituiscono una delle principali applicazioni delle tecniche di prototipazione virtuale a problematiche quali le analisi degli elementi finiti per calcoli strutturali, le computazioni di fluidodinamica o le simulazioni di resistenza.

Nell’industria automobilistica, l’utilizzo di metodi di CEA per analisi strutturali e dinamiche di carrozzerie di veicoli è aumentato drasticamente, grazie agli sviluppi negli algoritmi numerici e alle sempre maggiori potenze dei processori. La simulazione di collisioni fra veicoli, ottenuta da analisi non lineari di elementi finiti, ha ridotto al minimo la necessità di eseguire crash test reali. Recentemente questi metodi di indagine sono stati sostanzialmente migliorati, implementando strumenti per l’ottimizzazione della progettazione e per la sperimentazione di alternative in real-time. In questo modo, per es., la Volkswagen oggi riesce a realizzare un modello e a studiarne i parametri di collisione in soli diciotto giorni, il che, paragonato ai quattro mesi richiesti dalle analisi tradizionali, rappresenta un decisivo progresso sia nella riduzione dei tempi sia nel miglioramento dei risultati verificati e quindi anche della sicurezza.

Nel campo dell’architettura, il processo di prototipazione digitale comporta – rispetto alle procedure usuali – un’organizzazione delle informazioni connesse al processo di progettazione fondata sul ruolo centrale del sistema rappresentativo. Il modello diviene così l’elemento di integrazione delle diverse componenti (corrispondenti ad aspetti o fasi differenti), in quanto documento unico in grado di contenere tutti i tipi di informazioni relative al progetto in essere. Tali informazioni possono essere collegate dinamicamente fra loro e rese accessibili attraverso un’organizzazione multilivello. In questo campo lo studio di Frank O. Gehry ha sviluppato una serie di metodi di lavoro incentrati sul concetto di modello master, in cui il modello digitale è utilizzato come strumento sia di sviluppo del progetto sia di progetto della produzione: in altre parole, il computer è utilizzato per formalizzare un’intenzione progettuale e renderla realizzabile. Nel caso di Gehry, tale intenzionalità continua a essere espressa preliminarmente attraverso una maquette, per proseguire poi con un modello master, derivato dall’acquisizione di informazioni sulla geometria tridimensionale del modello fisico mediante un dispositivo di acquisizione 3D. Il processo di digitalizzazione genera un insieme di punti costruttivi, a partire dai quali viene sviluppata una corrispondente geometria digitale.

Una volta che la griglia di lavoro per un dato progetto è messa a punto, in termini di requisiti programmatici, forme e layout, viene costruito il primo modello digitale che permette di giungere alla soluzione finale per generazione di famiglie parametriche di soluzioni simili. Tale modello viene continuamente ridefinito durante il processo di sviluppo e progressivamente arricchito di una enorme mole di informazioni che fanno del modello master un data-base tridimensionale integrato, in grado di gestire efficacemente tutte le informazioni sul progetto.

Gli studi tecnici Arup e Gehry technologies, partendo da questa metodologia di sviluppo del progetto, hanno recentemente messo a punto virtual building, un framework (struttura di supporto su cui un software può essere organizzato e progettato) completo per l’architettura, grazie al quale aspetti progettuali, costruttivi e problemi operativi vengono visualizzati e risolti utilizzando simulazioni digitali.

Sistemi generativi

L’inedito cortocircuito fra calcolo e ispirazione artistica, unitamente alla nozione di non standard, ha aperto una nuova finestra di ricerca progettuale, che si prospetta fra le più feconde di risultati e prospettive della cultura digitale. Il contesto di riferimento abbraccia, usando le parole di Christopher Alexander (Notes on the synthesis of form, 1964; trad. it. 1967), qualsiasi cosa nel mondo faccia domanda di forma, e comprende progettisti, clienti, utenti, mezzi, estetica, ambiente e funzione.

Il ripensamento della nozione di standard, la rivalutazione del pensiero analogico, gli straordinari portati della fisica quantistica, della teoria dei sistemi, della cibernetica, dei principi di autorganizzazione della materia, applicati a ripensare i modelli dell’Universo, hanno fatto emergere una cultura del calcolo in cui i rapporti tradizionali tra ordine e caos, tra norma ed eccezione mettono in discussione la scelta della semplificazione come chiave privilegiata di conoscenza e di rappresentazione del mondo.

Benché risalga ormai a più di trecento anni fa, solo oggi con l’avvento del computer il calcolo differenziale ha permesso al progettista di lavorare intuitivamente con una nuova classe di forme basate su differenziazione ed elevato grado di continuità, e di sviluppare un nuovo modo di progettare l’architettura. Si tratta di superfici caratterizzate topologicamente da maglie poligonali che le sostengono, ottenute a partire da network di curve continue.

La combinazione di variabilità e continuità, attributi fondamentali di queste geometrie, produce una qualità che Greg Lynn chiama intricacy, intendendo dire che le parti si relazionano all’intero nell’ambito di un sistema olistico, ovvero un sistema in cui l’intero non è semplice sommatoria delle parti componenti. Le forme visivamente ‘intricate’ suggeriscono in questo senso un carattere organico, cioè proprio di un organismo fisiologico, ma questo non significa che siano naturali, né che possano essere semplicemente derivate da modelli della natura, o ottenute dal tentativo di mimesi di forme di vita esistenti. Per generare intricacy è necessario lavorare con il rigore e le proporzioni del calcolo differenziale.

D’altro canto l’espressione non standard ha origine in due campi della conoscenza fra loro molto distanti. In prima istanza esso evoca il rifiuto della normalizzazione e della standardizzazione su larga scala che fino a un recente passato ha caratterizzato le ideologie industrialistiche e, al tempo stesso, le teorie artistico-architettoniche di matrice funzionalista. Non standard è riferito poi anche alla matematica, più precisamente all’analisi non standard, come definita nel 1961 dal suo inventore, il matematico Abraham Robinson, che ne ha fissato i fondamenti nell’ambito del calcolo infinitesimale. L’analisi non standard, nella sua essenza, getta le basi per uno strutturalismo dinamico, una semantica astratta che sottolinea l’interrelazione tra fenomeni e mezzi. L’applicazione del concetto di non standard al campo del progetto è stata sviluppata in vari temi formalizzati – supersuperfici, ipersuperfici – che tentano di afferrare un vocabolario topologico – folds, loops, nodes, layers e così via – che si esplicita nella capacità di una ‘modellazione generativa’. La modellazione generativa è uno strumento real-time analitico, che permette alla forma e all’organizzazione del programma di scaturire apparentemente da una scelta casuale a partire da un’illimitata selezione di diverse altre possibilità.

In una tale dimensione generativa, il nuovo stato degli oggetti non è più da valutare servendosi delle tradizionali categorie di plasticismo spaziale, come la relazione forma/materia, ma piuttosto da riferire a una modulazione temporale continuamente collocata in una variazione di materia e in un continuo sviluppo della forma. L’oggetto esiste solo nella variazione dei suoi profili, e si riferisce a una trasformazione che è una componente del soggetto. L’architetto Bernard Cache fa scaturire la questione della generalizzazione delle funzioni parametriche presenti nei software che gestiscono le macchine a controllo numerico da questa necessità di modulazione, rendendo possibile la produzione industriale di oggetti ‘uno per tipo’, ciascuno della stessa serie ma con differente forma: ciò rappresenta il secondo sviluppo del concetto di non standard alla progettazione digitale.

Gli sforzi compiuti da alcuni progettisti o studi (come Lynn, Karl Chu, Foreign office architects, Asymptote e UN Studio) per la realizzazione di una generazione di famiglie di architetture morfogenetiche (o specie) senza primitive a priori, nonostante ampie incomprensioni, hanno tratto maggiore vigore proprio dalle premesse dinamiche della topologia matematica piuttosto che dalle estetiche della forma.

L’architettura generativa di Robert Aish può essere definita come l’impiego di un sistema generativo, inteso quale insieme di regole di linguaggio naturali, di trasformazioni geometriche e serie di diagrammi procedurali gestite da un software nel processo di progettazione. Dal suo utilizzo emerge il progetto finale. Il sistema generativo presenta differenti gradi di autonomia operativa: da una completa automazione del processo al controllo passo a passo da parte dell’utente. Tale processo implica la progettazione dell’algoritmo (regola), l’aggiustamento dei parametri di partenza e delle forme, la guida del processo di derivazione dalla prima forma e la selezione delle varianti migliori. Da un punto di vista implementativo le generative components di Aish sono ottenute a partire da un sistema di progettazione parametrico e associativo basato su grafi. Ciò implica per il progettista la necessità di operare simultaneamente a vari livelli di granularità: è necessario comprendere il quadro generale dell’intero sistema, ma occorre anche identificare il sistema costruttivo e il rapporto tra il singolo componente e l’insieme. Occorre definire quale informazione viene scambiata tra i singoli componenti e le modalità con cui ogni componente contribuisce alla configurazione e al comportamento del sistema complessivo.

La progettazione parametrica è applicabile a tutti i livelli del progetto: nella fase ideativa e nell’esplorazione della forma dell’edificio; nello sviluppo di componenti parametriche e adattive entro un framework concettuale; nel controllo del rapid prototyping e della fabbricazione digitale di queste componenti non standard; infine nella gestione dell’estrazione di disegni convenzionali che automaticamente si adattano ai cambiamenti della configurazione dell’edificio. La parametrizzazione incrementa la complessità del sistema sia nell’operatività progettuale sia nell’interfaccia, poiché il progettista deve modellare non solo il manufatto a cui sta lavorando, ma anche una struttura concettuale che ne guidi le variazioni. La parametrizzazione risulta così avere effetti sia positivi sia negativi. Da un lato può, infatti, aiutare a migliorare la ricerca progettuale di adattamento al contesto, facilitare la scoperta di nuove forme e la modalità di fabbricazione delle stesse, ridurre il tempo e lo sforzo richiesto per effettuare variazioni e provare configurazioni alternative, aiutare nella comprensione della struttura concettuale dei manufatti da progettare. Dall’altro, però, la parametrizzazione può richiedere sforzi maggiori a parità di risultato o di articolazione del processo, aumentare la complessità nel prendere specifiche decisioni, incrementare il numero dei fattori ai quali deve essere prestata attenzione. Il maggiore limite degli strumenti di modellazione parametrica semplice e associativa è, comunque, la necessità di una struttura gerarchica delle catene di dipendenza tra singoli elementi costitutivi. Dal momento che tali catene di dipendenza risultano essere poco flessibili, ne consegue la necessità di congelare assai presto il modello, limitando i benefici teorici della modellazione parametrica.

Il sistema di modellazione basato sui grafi permette di gestire gli intenti progettuali come relazioni di dipendenza esplicita tra componenti, e ciò attraverso operazioni altrettanto esplicite da parte degli architetti. In questo modo è possibile costruire modelli estremamente complessi, con un elevato numero di componenti e articolate relazioni di dipendenza tra di essi. L’approccio per grafi può cambiare il modo stesso di intendere il termine componente; convenzionalmente inteso come un’entità fisica discreta, da fabbricare, caratterizzata da continuità e coesione geometrica o materiale, un componente, mediante i software per sistemi generativi, può essere definito sulla base del sistema conoscitivo indipendentemente dalla suddivisione fisica. Un tipico esempio è rappresentato dall’ordine classico, che presenta un numero di suddivisioni nella nomenclatura superiore a quello delle suddivisioni fisico-costruttive.

Una tematica delle generative architectures riguarda l’utilizzo di superfici free-form come sistema fabbricabile: una soluzione progettuale che richiede l’impiego congiunto di istanze geometriche e di nuovi metodi di computazione strutturale. Nel progetto della Bishopsgate Tower – presentato a Londra dallo studio Kohn Pedersen Fox associates e di cui è stato approvato il planning permission nel 2006 – è previsto un sistema generativo basato su geometrie semplici (linee e archi tangenti) per il coronamento a spirale, pensato in modo che l’edificio si offra ai diversi punti di vista senza privilegiarne alcuno. La modellazione parametrica ha consentito una facile individuazione dell’esatta altezza della punta dell’edificio, usando un ‘grafo normalizzato’ della curva elicoidica nello spazio e, per i calcoli strutturali, un semplice offset a partire dalla superficie originaria.

Un’altra applicazione dei sistemi generativi è quella delle cosiddette superfici quasi sviluppabili, una geometria di base non direttamente tracciabile in cantiere, e utilizzata, per es., da Gehry. In questo caso la costruzione avviene di solito mediante la suddivisione della superficie in maglie. La soluzione più frequentemente adottata è quella della discretizzazione della superficie e della sua suddivisione in una maglia triangolare, costruibile mediante lastre piane. Un esempio recente di questo tipo di applicazione è la Fiera di Milano (2005) di Massimiliano e Doriana Fuksas. Allo scopo di favorire la massima flessibilità compositiva, negli ultimi anni sono tuttavia fioriti vari studi e diversi metodi per produrre superfici free-form basate su maglie formate da poligoni con numero di lati maggiore di tre, attraverso una serie di soluzioni che prospettano nuove architetture.

Sistemi conoscitivi e progettazione digitale

Uno specifico indirizzo di ricerca ha focalizzato l’attenzione sull’impiego di modelli 3D digitali come matrice e nucleo aggregativo del sistema informativo, attraverso esperienze che non si limitano a sostituire la tradizionale visualizzazione proiettiva con quella iconica, bensì scardinano lo schema concettuale che ha sempre considerato la figurazione come un semplice attributo e/o parte del sistema conoscitivo.

Il modello digitale di un qualsivoglia oggetto, infatti, non è più un corpo unico osservabile da vari punti di vista, ma un organismo composto di molte parti, ciascuna delle quali rappresentabile in vari modi e dotata di vari attributi (geometrici, materici, compositivi, costruttivi), a seconda di ciò che si debba ‘vedere’ e di che cosa si debba leggere e interpretare. L’impiego di tecniche di modellazione ha così permesso di introdurre nuovi concetti rappresentativi per i sistemi informativi, dalla scala dell’oggetto (product lifecycle management, PLM) a quella del territorio (geographic information system, GIS), passando per quella architettonica (building information modeling, BIM).

Il punto di partenza di queste esperienze è il tentativo di fornire una soluzione esaustiva al problema della documentazione del progetto. L’idea guida è quella dell’utilizzazione del concetto di 3D data-base come strumento operativo, e si fonda sul fatto che un modello digitale può essere visto come un vasto, ordinato sistema conoscitivo di informazioni spaziali, che può essere modificato e implementato nel tempo. Secondo quest’ottica la modellazione non segue esclusivamente una logica appartenente a criteri geometrici; essa è piuttosto il presupposto di una metodologia basata sull’elemento architettonico e sulle sue modalità costruttive, che ne organizzano gli elementi base e le modalità delle loro aggregazioni.

Nel campo del design e/o della produzione industriale, il PLM gestisce l’intero ciclo di vita di un prodotto dalla sua concezione, attraverso la progettazione e la costruzione, fino ai servizi e allo smaltimento. Tramite il PLM le imprese gestiscono comunicazioni e informazioni con i clienti (customer relationship man-agement, CRM) e i rivenditori (supply chain management, SCM), nonché le risorse entro l’impresa (enterprise resource planning, ERP). Una componente del PLM chiamata product data management (PDM) si occupa di acquisire e mantenere informazioni su prodotti e/o servizi nel corso del loro sviluppo e della loro vita ed è, relativamente al progetto, l’applicazione di maggior interesse. La gestione tramite PLM permette una serie di benefici, come riduzione del time-to-market (tempo che intercorre tra produzione e commercializzazione), miglioramento della qualità di prodotto, riduzione dei costi di prototipazione, risparmi attraverso il riuso dei dati originali e completa integrazione del processo di ingegnerizzazione del prodotto. Il nucleo del PLM risiede nella creazione e gestione centralizzata di tutti i dati di prodotto, nella strategia relativa e nella tecnologia software usata per accedere a questa informazione e conoscenza. Il PLM come disciplina è sorto da strumenti come CAD, CAM (Computer Aided Machinery) e PDM, ma può essere visto come la loro integrazione in un unico framework. Non si tratta soltanto di una tecnologia software, ma anche di una strategia di gestione. Il PLM fornisce uno spazio di lavoro collaborativo, un ambiente interconnesso nel quale tutte le figure coinvolte nel processo di progettazione e nel ciclo di vita del prodotto – progetto, marketing, vendite, costruzione, rivenditori e clienti – possono liberamente accedere e lavorare sul progetto di ciascuno degli altri.

L’equivalente del PLM nel campo dell’architettura e dell’ingegneria civile è il BIM, un processo di rappresentazione che crea e mantiene aggiornate rappresentazioni multidimensionali cui sono associati dati eterogenei per supportare comunicazione (condivisione dei dati), collaborazione (lavoro sui dati in comune), simulazione (uso dei dati con finalità predittive) e ottimizzazione (uso di feedback per migliorare progetto, documentazione e consegne). A questo fine, il BIM è supportato da vari gradi di differenti tecnologie. Le tecniche di BIM presentano un’elevata complessità, ma semplificano il processo di comunicazione del progetto, offrendo la possibilità di estrarre disegni specifici dal modello, inteso come sistema informativo composto dagli elementi costruttivi, con tutti gli attributi connessi (geometria, modalità costruttive, costi e tutti i metadati necessari). Dopo la realizzazione del manufatto, il BIM non cessa di operare, ma, al contrario, continua a funzionare durante tutto il ciclo di vita del manufatto come risorsa di conoscenza e di orientamento delle decisioni.

Strettamente legato al BIM è l’IFC (Industry Foundation Classes), un format di scambio dei dati sviluppato dalla IAI (International Alliance for Inter-operability) allo scopo di trasferire e scambiare informazioni tra differenti applicazioni software in tutti i settori dell’AEC (Architecture, Engineering and Con-struction). Il modello IFC rappresenta non soltanto componenti fisici della costruzione (muri, porte, arredi, travi, soffitti), ma anche concetti astratti come calendari, attività, organizzazioni, costi di costruzione. Risponde, in sostanza, alle esigenze di ‘standardizzazione’ che si devono fronteggiare anche nella produzione di elementi non standard.

L’estensione del Denver Art Museum, progettata da Daniel Libeskind e inaugurata nel 2006, presenta una configurazione geometrica assai complessa. L’integrazione dei sistemi meccanici e strutturali in un sistema tipo BIM è stato essenziale per riuscire a realizzare il progetto. La modellazione dell’esatta organizzazione spaziale degli elementi della struttura ha condotto a pochi errori e a limitate richieste di informazioni. Inoltre le singole parti sono state costruite come elementi non standard direttamente dal modello, eliminando interamente la necessità di disegni 2D.

Una piattaforma BIM è stata adottata anche per la Freedom Tower (concorso vinto nel 2003; dal 2009, One World Trade Center), che è parte caratterizzante del piano concepito dallo stesso Libeskind per l’area del World Trade Center a New York; la sua progettazione esecutiva è stata affidata (non senza polemiche e sostanziali modifiche rispetto al progetto iniziale) allo studio SOM (Skidmore, Owings & Merrill). Il ricorso a una piattaforma BIM si è rivelato di particolare utilità per ottenere massima accuratezza e coordinamento nel progetto dei livelli sotterranei, interessati da una pletora di tunnel già esistenti, ma il sistema è stato utilizzato anche nella definizione degli impianti e dei percorsi meccanizzati di risalita.

Interazione tra reale e ideale

Così come rappresentazione e realizzazione, anche rilievo e progetto si sono intrecciati innumerevoli volte nel corso della storia. Se è vero che design e architettura hanno sempre tenuto il riferimento all’esistente come metodo implicito – nel senso che hanno sempre guardato a forme e/o oggetti esistenti per crearne di nuovi – tuttavia raramente gli elaborati di progetto hanno direttamente assunto l’esistente come elemento da rielaborare. Ciò è dovuto a diverse cause: per es., la lunghezza dell’operazione di acquisizione; la sostanziale inutilità dei disegni bidimensionali in rapporto allo sviluppo del progetto nei campi del design e della conservazione dei monumenti; i cambiamenti eventualmente intervenuti nelle tecniche e tecnologie realizzative (che potrebbero rendere problematica, se non addirittura impossibile, la ‘ricostruzione’) e altro ancora. In questa direzione, il passaggio dall’analogico al digitale ha finora comportato variazioni marginali, anche se la procedura per costruire un modello tridimensionale a partire da dati reali è stata progressivamente codificata in ambito industriale.

Il reverse modeling (RM) è un approccio per ricostruire o derivare la geometria di un oggetto. Sorgenti d’informazione per i progetti di RM possono essere parti fisiche, file CAD, codici di fresatura, dati ottenuti da sistemi d’acquisizione mediante luce naturale o strutturata, dati ottenuti da sistemi tipo CMM (Co-ordinate Measuring Machines), oppure file in formato STL (stereolithography).

Il modello derivato da un processo di modellazione inversa è, in seguito, riutilizzabile in un processo di progettazione digitale per essere modificato, completato, analizzato o fabbricato. Le applicazioni possono riguardare l’intero oggetto oppure solo sue parti. Nel caso più comune, il modello di RM è ottenuto a partire da un insieme di misure acquisite tramite sistemi (laser-scanner o fotogrammetria) che restituiscono una nuvola di punti tridimensionali sulla quale viene, in genere, costruita una geometria formata da una maglia di triangoli che interpola i punti misurati. Qualora si disponga già del modello digitale dell’oggetto rilevato, il processo di RM si riduce a un aggiornamento che riflette i cambiamenti dimensionali richiesti dal processo di prototipazione.

Tra i casi in cui si può utilmente ricorrere a operazioni di RM si ricordano sinteticamente: digitalizzazione di progetti realizzati tramite elaborati grafici e modelli manuali; riprogettazione di parti spezzate o rotte di cui non esiste un modello CAD; creazione di un archivio di modelli digitali comprendente manufatti prodotti prima della disponibilità di software di modellazione; aggiornamento del progetto al quale sono state apportate modifiche sul prototipo fisico; rilievo del ‘come costruito’ (as built) di oggetti di cui non si hanno modelli digitali 3D; ricostruzione del progetto esecutivo o del costruito a seguito di una realizzazione eseguita in difformità dal modello digitale originale; riprogettazione con differente sistema delle tolleranze dimensionali (per es., nuovi stampi).

Qualora ci si avvalga di tecniche di RM, il processo di formazione del progetto non parte dal nulla o da uno schizzo bidimensionale, ma diviene un’operazione in cui si passa da una massa grezza di dati al modello dell’oggetto finito. Servendosi di strumenti visivi che aiutano nella definizione dello scostamento tra dati originari e superficie ricostruita, si realizza questo passaggio descrivendo percorsi progettuali che devono ricalcare il più possibile i modi produttivi dell’oggetto e descrizioni geometriche assai più complesse e articolate della semplice posizione di una maglia di triangoli. L’RM può trovare applicazione in varie fasi del progetto e con varie finalità: fase di idea/concept (acquisizione di modelli fisici in argilla, gommapiuma, polistirolo ecc.); progetto (acquisizione di una maquette attraverso la quale si è definita una certa fase di progetto o si possono digitalizzare parti di progetto già realizzate e riutilizzabili in un nuovo progetto); prototipo (le tecniche di acquisizione 3D possono essere applicate in vari modi, al fine di permettere la riduzione del numero dei prototipi da mettere a punto); engineering (un oggetto fisico acquisito può essere traslato direttamente alla fase di ingegneria); produzione (le modifiche eseguite manualmente e le ottimizzazioni possono essere trasferite da strumento a strumento per accertare che tutte le parti costruite corrispondano); controllo di qualità (l’acquisizione 3D è utilizzata per analizzare il ‘come costruito’ dell’oggetto dopo la sua realizzazione).

Consentire e agevolare operazioni di modifica è, in sostanza, la caratteristica fondamentale del processo di RM per il progetto, ed è ciò che ne determina limiti, complessità e difficoltà, poiché richiede una rappresentazione completamente esplicita e realizzata con primitive geometriche che sono facilmente manipolabili in un sistema CAD.

Il problema va ben oltre un accomodamento del modello mirante a determinare i parametri di un insieme di punti che si considerano appartenere alla stessa primitiva. Infatti, mentre i problemi di mesh competono a una sfera che nella rappresentazione digitale trova il suo dominio naturale in quanto operazione meramente geometrica (le operazioni di manipolazione geometrica possibili non presentano un analogo nel processo costruttivo o progettuale), quelli di creazione delle superfici sottendono tipiche problematiche della lavorazione manuale e artigianale dei modelli fisici: lisciatura di una superficie continua; attenzione nei cambi di curvatura; cambio di strategia per differenti tipologie di superficie originaria; rivalutazione delle capacità di sensibilità dell’operatore alla valutazione della continuità sia mediante l’osservazione sia mediante il tatto. La costruzione di queste superfici a partire dai dati acquisiti richiede quindi un atteggiamento progettuale, nel senso creativo del termine e non puramente prestazionale.

Bibliografia

M. Gaiani, Del disegno e del modello: rappresentazioni per il disegno industriale, in Giovane è il design. Nodi contemporanei della didattica per il progetto, a cura di A. Penati, Milano 2001, pp. 137-60.

T. Akenine-Möller, E. Haines, Real-time rendering, Natick (Mass.) 20022.

G. Burdea, P. Coffet, Virtual reality technology, New York 20032.

R. Klein, J. Meseth, G. Müller et al., Realreflect. Real-time visualization of complex reflectance behaviour in virtual protoyping, in Eurographics 2003 industrial and project presentations, ed. P. Brunet, D.W. Fellner, Granada 2003, pp. 1-14.

Metodi di prototipazione digitale e visualizzazione per il disegno industriale, l’architettura degli interni e i beni culturali, a cura di M. Gaiani, Milano 2003.

The state of architecture at the beginning of the 21st century, ed. B. Tschumi, I. Cheng, New York 2003.

D.A. Bowman, E. Kruijff, J.J. LaViola, I. Poupyrev, 3D user interfaces. Theory and practice, New York 2004.

M. Pharr, G. Humphreys, Physically based rendering. From theory to implementation, Amsterdam-London 2004.

R. Aish, R. Woodbury, Multi-level interaction in parametric design, in Smart graphics. 5th International symposium, ed A. Butz, B. Fisher, A. Krüger, P. Olivier, Berlin-Heidelberg 2005, pp. 151-62.

Archilab’s urban experiments, ed. M.A. Brayer, F. Migayrou, F. Nanjo, London 2005.

J.R. Wilson, M. D’Cruz, Virtual and interactive environments for work of the future, «International journal of human-computer studies», 2006, 3, pp. 158-69.

La rappresentazione riconfigurata, a cura di M. Gaiani, Milano 2006.

B. Buxton, Sketching user experiences getting the design right and the right design, Burlington (Mass.) 2007.

D. Kasik, B. Brüderlin, W. Corrêa et al., State of the art in massive model visualization, San Diego (Cal.) 2007.

H. Pottmann, A. Asperl, M. Hofer, A. Kilian, Architectural geometry, Exton (Pa.) 2007.

Human-centered visualization environments, ed. A. Kerren, A. Ebert, J. Meyer, Berlin-Heidelberg 2007.

C. Eastman, P. Teicholz, R. Sacks, K. Liston, BIM handbook. A guide to building information modeling for owners, managers, designers, engineers and contractors, New York 2008.

Si veda inoltre:

D.R. Shelden, Digital surface representation and the constructibility of Gehry’s architecture, Ph.D. thesis, Massachusetts institute of technology, 2002, http://hdl.handle.net/1721.1/16899 (5 genn. 2010).

© Istituto della Enciclopedia Italiana - Riproduzione riservata