Storia breve delle tecnologie di sintesi applicate alla chitarra
I sintetizzatori sono apparati in grado di produrre segnali audio in base ad uno o più “input”. Le loro funzioni e possibilità si sono evolute grazie al progresso della tecnologia, permettendo di passare da apparecchi analogici ingombranti e limitati ai moderni software tuttofare.
Un tempo ad esclusivo appannaggio dei pianisti, grazie alle nuove tecnologie il loro utilizzo si è esteso negli anni anche ad altre categorie di strumentisti: fiatisti, percussionisti, batteristi, chitarristi o bassisti, sono oggi tutti nel novero dei potenziali utenti, senza bisogno di acquisire la tecnica di uno strumento completamente diverso dal proprio.
Facciamo una brevissima panoramica delle sintesi sonore e del loro uso, con particolare riferimento alla chitarra.
SINTESI ANALOGICA

La sintesi analogica venne impiegata estensivamente negli anni ’70. Attraverso di essa era possibile generare elettronicamente una serie di forme d’onda elementari (sinusoidale, quadra, a dente di sega, ecc.), prodotte dai cosiddetti “oscillatori” (VCO) e combinarle in vario modo, modificandole attraverso filtri (VCF) e generatori di inviluppo (VCA), potendo suonare una singola nota (synth monofonici) o più note abbinate (synth polifonici a più voci).
Essa si dimostrò eccellente nella creazione di suoni nuovi e mai sentiti prima, ma non idonea a rappresentare quelli degli strumenti acustici.
Per di più ogni sintetizzatore ospitava un numero molto vasto di controlli, spesso facenti capo a complesse strutture modulari, che non permettevano di tenere traccia delle regolazioni ottenute, una volta che fossero state nuovamente modificate, rendendo particolarmente difficile replicare lo stesso suono più volte senza annotarsi su carta decine di valori.
Alla fine del decennio la Roland mise a punto un synth analogico a due oscillatori e sei voci, pilotabile con particolari chitarre fatte produrre dal costruttore nipponico Fuji-Gen, che ebbe la sua versione di punta nel sistema G303 + GR300, reso celebre da Pat Metheny, ma utilizzato anche da Andy Summers, Robert Fripp, Adrian Belew, Pete Townshend ed altri chitarristi.

SINTESI FM
La sintesi in modulazione di frequenza (FM) venne introdotta nel 1983 con il primo synth basato su di essa, lo Yamaha DX7, che semplicemente ridefinì il concetto di sintetizzatore moderno.
La possibilità di semplificazione e di memorizzazione dei parametri permessa dall’avvento della tecnologia digitale, portò i mille controlli dei synth analogici ad essere sostituiti da pochi sliders e pulsanti multifunzione, un display LCD ed un filtro ADSR (Attack, Decay, Sustain, Release), le cui semplici regolazioni diventarono anch’esse memorizzabili in locazioni di memoria richiamabili a piacere dall’utente.
Le forme d’onda geometriche semplici furono rimpiazzate da elementi molto più articolati, denominati “algoritmi portanti” e “modulanti”, le cui combinazioni permettevano la composizione di forme d’onda complesse e assai varie.
La timbrica era molto più estesa e frizzante di quella dei synth analogici.

Per la prima volta fu possibile creare simulazioni credibili di strumenti reali (in particolare quelli percussivi, i bassi ed i pianoforti elettrici), anche se per altre applicazioni, come ad esempio i pad, i fiati o il pianoforte acustico, i risultati non erano altrettanto soddisfacenti.
I musicisti etichettarono la tendenza dei synth in FM alle timbriche aperte e metalliche come la principale differenza rispetto al “calore” sonoro che aveva caratterizzato la sintesi analogica.
IL PROTOCOLLO MIDI
Non si tratta di una sintesi sonora, ma dell’acronimo Musical Instrument Digital Interface, un protocollo seriale di comunicazione a 8 bit messo a punto nel 1982 del quale non possiamo non fare menzione, dato che grazie ad esso divenne possibile mettere in comunicazione tra loro macchine differenti che incorporavano la stessa interfaccia, dotata di tre porte: IN, OUT e THRU (passante, per inviare i dati anche alla macchina successiva). Una rivoluzione epocale, che facendo dialogare tra loro dispositivi molto diversi e sincronizzando le loro azioni, aprì di fatto a possibilità inimmaginabili solo qualche anno prima e coinvolse per la prima volta in pieno anche strumenti, come il nostro, che tradizionalmente erano poco avvezzi ai rinnovamenti tecnologici in genere.

Accanto ai sintetizzatori monotimbrici, apparvero macchine in grado di suonare più voci e molti suoni contemporaneamente (synth multi-timbrici) come il Roland MT-32 (1987), che grazie alla definizione ed impiego di un protocollo standard di disposizione e richiamo degli stessi(GM-GS) rese possibile riprodurre interi brani utilizzando un solo apparato ed aprendo di fatto la strada a quel che sarebbe diventata la pratica diffusissima della realizzazione di basi musicali memorizzate su floppy disk contenenti i soli dati MIDI da inviare ai moduli sonori compatibili.
Nel 1987 la Roland creò anche un’interfaccia MIDI specifica per la chitarra (GM70) che permetteva di pilotare i suoni di qualunque sintetizzatore da qualunque chitarra, installando su di essa un apposito trasduttore (GK1). Seguirono di lì a poco modelli simili prodotti da Ibanez, Korg e Casio, alcuni dei quali incorporavano direttamente anche il sintetizzatore.

CAMPIONAMENTO
Sulla scia della fortunata FM e dell’avanzare inarrestabile della tecnologia digitale nacque negli anni successivi una nuova sintesi sonora altrettanto entusiasmante: il campionamento (sampling).
Basata sul concetto di “digitalizzazione”, cioè della conversione numerica dei suoni registrati dal vero (conversione A/D), elaborati digitalmente e sottoposti poi al processo inverso per essere di nuovo ascoltabili per via analogica (conversione D/A), essa per la prima volta diede seguito al desiderio dei musicisti di poter manipolare i suoni acustici, così come li si ascolta nel mondo reale.
Dapprima costosissima e per pochi, relegata a mostri informatici dal valore miliardario come i computer Fairlight in commercio dal 1979, la nuova sintesi si avvalse ben presto dell’abbassamento dei costi delle memorie digitali, diventando più economica e crescendo sensibilmente di qualità e realismo, ponendosi come presenza sostanzialmente imprescindibile in ogni studio di registrazione, nonché nei setup dei musicisti.

LE SINTESI IBRIDE
Nonostante sembrasse che questo nuovo sistema avesse dato modo di raggiungere lo stato dell’arte in fatto di realismo nella sintesi sonora, i musicisti individuarono ben presto che il limite del campionamento era rappresentato dalla sua staticità, dal fatto di rappresentare un evento sonoro unico ripetuto all’infinito dal quale non ci si poteva aspettare che una scarsa interattività e sensibilità dinamica, per di più spesso ottenuta tramite filtri o metodi comunque artificiosi, anche se man mano più perfezionati.
I sintetizzatori che seguirono alla metà degli anni ’80, dunque, provarono ad integrare tutte le tecniche di sintesi conosciute e sviluppate fino ad allora, creando delle macchine ibride in grado di creare suoni con la massima flessibilità possible, ottenendoli attraverso un mix di componenti sonore generate da sintesi diverse, abbinate in vario modo. Accanto a synth come l’Ensoniq ESQ-1 o il PPG Waves troviamo la sintesi Lineare Aritmetica del Roland D50 (1986) e la sintesi Vettoriale messa a punto da Sequential Circuit con il Prophet VS(1986) e proposta anche dallo Yamaha SY-22 (1990) o la Wave Sequencing del Korg Wavestation (1990).

Anche le interfacce Guitar-to-MIDI della Roland (GR50, GR-1, GR-9, GR30, GR-33, GR20, GR55) hanno seguito la stessa evoluzione, incorporando progressivamente veri e propri sintetizzatori a sintesi miste assai completi al loro interno, arrivati ai giorni nostri ad integrare anche la modellazione fisica nelle loro ultime versioni.
IL PHYSICAL MODELING
Anche la modellazione fisica apparve nei primi anni ’90 e rappresentò davvero un passo epocale, una rivoluzione completa rispetto a tutto ciò che era stato proposto precedentemente ad essa.
Fino ad allora tutti i sistemi di sintesi erano stati basati su hardware più o meno complessi che generavano i suoni, mentre per la prima volta si aveva a che fare con un puro codice informatico: software e nient’altro!
La modellazione fisica consiste nella traduzione in formule matematiche delle proprietà dell’oggetto che vogliamo riprodurre: il numero e la loro traduzione nel software determinano in astratto la qualità del modello.
La modellazione fisica di un corpo vibrante utilizza la derivazione di formule matematiche estremamente complesse, dette “equazioni d’onda”, che riproducono accuratamente le modalità di vibrazione di una corda ideale, attraverso la rappresentazione numerica di tutti i fenomeni coinvolti in essa: la tensione della corda, la sua massa lineare, la sua densità e posizionamento spaziale, la sua lunghezza, ecc.
La soluzione di tale equazione è ovviamente molto impegnativa e richiede potenze di calcolo non indifferenti: essa può però essere utilizzata per rappresentare qualunque cosa e ciò può accadere in maniera dinamica, semplicemente modificando in tempo reale i valori delle variabili.
Dunque, un simulatore a modelli fisici è molto simile concettualmente ad un normale computer, con un processore (o meglio, più processori paralleli) di calcolo adeguatamente potenti, che fa di volta in volta qualunque cosa gli chiediamo, senza limiti prestabiliti.
Ecco perché dai suoni dei synth si è potuti passare ben presto a modellazione di veri e propri strumenti acustici: fiati, chitarre, pianoforti, ecc..
Si è approdati anche alla rappresentazione dei circuiti e dei loro componenti, realizzando modelli di sistemi di amplificazione, effetti e così via, con un grado di controllo sul suono e di interattività e dinamica che nessun’altra sintesi sonora aveva mai permesso.

Caratteristica della modellazione fisica che non ne ha reso possibile l’introduzione e diffusione in tempi brevi, è la necessità di dover contare su unità di calcolo potenti per poter dare luogo a risultati rappresentativi e realistici.
Data la complessità delle equazioni in gioco, occorrono infatti processori veloci, che per permettere ai dispositivi di diffondersi massicciamente devono anche essere reperibili a basso costo, cosa che il mercato ha avuto a disposizione solamente negli ultimi anni.
La tendenza è però tutt’ora in atto e permette un’accelerazione vertiginosa, lasciando infiniti spazi di miglioramento ulteriore per il futuro.
Questa sintesi, dunque, si evolve in tempi rapidi e a differenza delle altre non si pone limiti nel suo progressivo avvicinarsi alle controparti reali di ciò che vuole rappresentare matematicamente.
COME SI ELABORA UN MODELLO FISICO
Uno strumento o un’apparecchiatura, per essere simulati, devono necessariamente venire ridotti alle loro essenziali parti fisiche. Ognuna di esse deve essere tradotta in una formula matematica più o meno complessa che ne rappresenta il funzionamento in ogni condizione e che si relaziona in tempo reale con le altre.
Le conseguenze dell’azione dell’esecutore, così come tutte le opzioni esterne che possano modificarne il comportamento, anche le più apparentemente insignificanti, devono poter essere previste dal modello al fine di ottenere un risultato realistico.

Una volta che la complessa equazione finale sia stata derivata, essa viene inserita all’interno di un algoritmo che garantisce l’interazione dinamica tra i singoli elementi, la cui gestione in tempo reale viene affidata a potenti microprocessori.
Se le rappresentazioni dei singoli elementi saranno state sufficientemente accurate, così come le effettive relazioni tra esse saranno state correttamente rispettate, allora l’intero algoritmo rappresenterà in modo estremamente convincente l’oggetto reale rispondendo in modo analogo ad esso in qualunque condizione d’utilizzo lo si voglia porre.
Maggiore sarà dunque l’accuratezza del modello e più elevata la necessità di potenza di calcolo per gestirlo dinamicamente, in tempo reale e senza esitazioni. Maggiore questa potenza, migliore e più realistico risulterà il risultato finale.
ANCORA UN PO’ DI STORIA
Nel 1998 la Line6 lanciò sul mercato Amp Farm, il primo software di amp modeling di larga diffusione.
Alcuni lo accolsero con favore, altri con diffidenza e pochi lo derisero come un progetto destinato a fallire.
Osteggiato dai puristi, che scuotevano come al solito la testa gridando all’orrore del far musica con dispositivi digitali, fu invece compreso e visto come una soluzione eccellente da molti chitarristi da studio e fonici professionisti, afflitti da anni di setup ingombranti e complicati, amplificatori da microfonare che in studio non rendevano come ci si aspettava, problemi di rientri o di volumi poco contenuti e risultati non sempre soddisfacenti a fronte del tanto tempo dedicato.
In breve molti operatori del settore capirono che tramite questi dispositivi era possibile ottenere suoni estremamente convincenti e replicabili in tante e diverse situazioni di registrazione, risparmiando tempo ed evitando mille problemi, senza che nulla di negativo si potesse percepire nel risultato finale.

Sfortunatamente, Amp Farm era disponibile soltanto per il sistema TDM di Pro Tools della Digidesign e faticò a diffondersi. Arrivarono però altre software house, come ad esempio IK Multimedia con il suo Amplitube, a creare soluzioni che coprissero molte e diverse, oltre che economicamente più abbordabili, piattaforme hardware.
Anche altre categorie di operatori del settore cominciarono a trarre vantaggio dalle simulazioni di amplificatori, per distorcere tracce di batteria, voci o rielaborare chitarre precedentemente registrate in modo convenzionale.
Nonostante questo, l’amp modeling è rimasto per parecchio tempo una pratica per “topi da studio”.
La stessa Line6 entrò prepotentemente nel mercato con soluzioni multipiattaforma che vedono oggi il loro fiore all’occhiello nel software Helix Native (Win, OSX), versione “solo codice” di Helix, modello di punta del catalogo delle pedalboard digitali della casa americana.

I ridotti costi per le memorie e la disponibilità di processori a basso costo sempre più veloci e potenti hanno portato ad un notevole incremento della qualità sonora e ad una diffusione su larga scala di apparecchi che utilizzano il physical modeling.
Così come il nastro analogico è stato abbandonato per ragioni di convenienza e di abbassamento dei costi delle stazioni audio digitali, sempre più chitarristi si stanno rendendo conto della convenienza e delle possibilità di controllo del suono offerte dalla modellazione fisica.
Parallelamente al software, negli anni, si sono infatti affacciate sul mercato anche parecchie realtà hardware.
Il primo prodotto per chitarra basato su modelli fisici (COSM) fu il Roland GP100, disponibile dal 1994 (anno in cui fu fondata la Line 6) seguito dalla Digitech con il GSP2101.

Continuò poi la stessa Line6, con gli amplificatori della serie AXsys (1995), che poi nel 1999 introdusse il famoso “fagiolo rosso”, il POD, che portò a livelli insperati la popolarità della modellazione fisica presso i chitarristi. Venne seguita a ruota dalla Johnson (ora non più presente sul mercato) che mise a punto la sua J-Station (2000), che faceva da contraltare ad un amplificatore reale basato su un “cervello ” a modellazione fisica ed abbinato ad un finale con cassa e speaker: il Millenium 150 (2001).
Anche Hughes & Kettner mise in commercio prodotti di questo tipo di ottimo livello: il fantastico zenTera (2000) ed il suo fratello minore zenAmp, altrettanto performante, sono ancora oggi ottimi termini di paragone per valutare la fedeltà alle controparti reali.
Line6, con le sue tante proposte, ha segnato la strada anche per molti altri costruttori: Roland/Boss, Digitech, Korg, Vox, Fender e tanti altri marchi si sono cimentati ben presto nella competizione, elaborando proprie varianti della tecnologia a modellazione fisica (COSM, DNA, ecc.) e proponendo multieffetti da rack, unità da tavolo o vere e proprie floorboard che in tempi più recenti sono state estese anche alle simulazioni per basso.
Ricordiamo per tutti il Roland GP100, basato sulla tecnologia COSM e diventato in breve tempo un best-selling in tutto il mondo. I modelli fisici elaborati si sono successivamente evoluti includendo anche chitarre e bassi storici, elettrici ed acustici e sono stati successivamente implementati anche nel VG88, poi diventato VG99 e nel GR55, ancora in produzione nel momento in cui scrivo…

Oggi il mercato dispone di una scelta molto ampia di macchine a modellazione fisica… Tra le migliori e più diffuse certamente troviamo Fractal, Headrush, la già citata Line6 o Neural DSP, ma vediamo affacciarsi sul mercato prodotti di fascia più bassa dalle qualità comunque sorprendenti, come ad esempio quelli di Mooer (la serie GE) o Hotone (Ampero).
La modellazione fisica risponde ad uno dei più pressanti desideri di musicisti e fonici professionisti: quello di poter rimpiazzare giganteschi sistemi combo o stack senza tribolare cercando lo “sweet spot” con il giusto microfono o il cono migliore e senza dover diventare matti, chessò, per ricreare lo stesso medesimo suono per la ripresa di un passaggio a registrazioni finite.
Da questo punto di vista, qualunque software di modellazione fisica viene grandemente in aiuto, permettendo di simulare l’interazione tra i vari componenti di un ampli con vari gradi di precisione. Tutti i software permettono di scegliere tra varie testate, combinarle con vari diffusori e configurazioni di speakers. Altri rendono possibile addirittura miscelare e combinare sezioni di pre con quelle di potenza o modificare virtualmente sezioni del circuito.
Molte versioni mettono a disposizione simulazioni microfoni e fanno decidere il loro piazzamento, così come aggiungono la possibilità di inserire vari tipi di effetti.
COME VALUTARE UN MODELLO
Il criterio di giudizio per un amplificatore simulato è lo stesso che vale per l’amplificatore reale.
In caso di suoni puliti valuteremo quindi se l’ampli simulato mostra la compressione sull’attacco tipica delle valvole (sag) o quella più veloce del transistor, nel caso di suoni crunch se passa da pulito a distorto in funzione della dinamica del tocco in modo graduale e musicale o se ripulisce correttamente il suono chiudendo il potenziometro del volume sulla chitarra.
Valuteremo la risposta all’attacco del plettro, la pasta della distorsione e la coerenza con la timbrica del riferimento reale.
Le differenze stanno nel fatto che è sostanzialmente impossibile per una macchina a modelli fisici riprodurre il suono in ambiente che ci aspettiamo dall’amplificatore reale: troppe variabili sono in gioco delle quali non è possibile avere il controllo: distanza e posizione del musicista rispetto ai coni, caratteristiche dell’ambiente, ecc.
Per poter ascoltare i suoni simulati ci si dovrà poi necessariamente servire di un sistema di diffusione, il quale, per quanto possa essere lineare, in un modo o nell’altro colorerà tali suoni e li diffonderà con un range dinamico diverso da quello dell’amplificatore originale.
Un confronto tra il suono reale e quello simulato, al fine di valutarne la somiglianza timbrica e dinamica, potrebbe essere affrontato con maggiore efficacia tramite una consolle di studio, affiancando al modello collegato in diretta una ripresa microfonica dell’ampli reale, condotta nella maniera più similare, per quanto possibile a quella del modello stesso, riproducendo entrambe con lo stesso sistema di diffusione.
LA NUOVA SFIDA DELLA PROFILAZIONE
Alla modellazione fisica si è di recente affiancata la tecnologia della “profilazione”. Essa rappresenta l’unica vera grande novità digitale degli ultimi anni assieme alla modellazione fisica. Attraverso una serie di funzioni matematiche complesse sono riprodotti in digitale il suono ed il comportamento di un dispositivo nella precisa condizione nella quale si trova al momento della sua profilazione, operazione che consiste nell’invio alla macchina del segnale ottenuto con una ripresa microfonica professionale del dispositivo da profilare. La macchina lo analizza e permette poi di riprodurlo con differenze sostanzialmente risibili rispetto al setup fisico. Questa rappresentazione “statica” è però concettualmente più simile al campionamento che alla modellazione fisica: infatti per renderla dinamica si ricorre all’applicazione via software di algoritmi di elaborazione in tempo reale della risposta che si basano però su concetti predittivi e statistici, non su dati reali appartenenti allo specifico dispositivo analizzato. Questo è anche il limite principale della tecnologia “profiling”, in quanto più ci si allontana dalla condizione profilata, più il suono che si ottiene diverge da quello della controparte reale. Risulta più efficace, invece, la realizzazione di molte versioni del profilo dello stesso setup, ottenute con le regolazioni più frequentemente utilizzate in situazioni diverse (clean, distorto, ecc.), un po’ come già si fa, sia pure con finalità diversa, per la ripresa microfonica delle risposte all’impulso delle casse (IR)…

Pioniere di questa tecnologia certamente il marchio Kemper, che si è imposto prepotentemente sul mercato mondiale, anche grazie alla disponibilità in tempi brevi di un grande numero di profili di terze parti già pronti e di qualità elevata. Il Kemper permette anche di creare un rig completo nel quale oltre ad inserire l’amplificatore profilato è possibile integrare una una catena di effetti simulati messi direttamente a disposizione del software di gestione.
VANTAGGI DELLA MODELLAZIONE FISICA
Parte del vantaggio del physical modeling sta indubbiamente nel fatto che il software sul quale la macchina si basa permette opzioni difficili quando non del tutto impossibili da chiedere all’hardware fisico. Compatibilmente con le opzioni rese disponibili nel software che andremo ad utilizzare, potremo sperimentare abbinamenti di casse, finali di potenza, pre, microfoni, complesse catene di pedali e quant’altro senza badare alla coerenza con le controparti reali, creando suoni particolari che difficilmente avremmo provato altrimenti o ricreandone inaspettatamente altri ancora.
Questa tipologia di macchine risulta anche di efficace utilizzo nel permettere di suonare in cuffia in condizioni da grande palco o in studio.
Grazie alla possibilità di controllo da protocollo MIDI, poi, potremo automatizzare le regolazioni di ogni parametro ed ottenere drastici cambiamenti di suono, con tempistica perfetta e volume corretto: tutto anche mentre il mix o il brano sono in corso.
La modellazione fisica è anche molto utile per la pratica del “re-amping”. Nel passato i chitarristi registravano segnali diretti parallelamente a quelli ottenuti microfonando l’amplificatore, per lasciarsi la possibilità di poterli inviare in seguito ad ampli differenti, se necessario, registrandoli di nuovo con sonorità diverse.
Oggi basta registrare semplicemente il segnale diretto e farlo passare attraverso vari modelli, che possono addirittura variare durante il mix, ristrutturando completamente il suono a piacimento di autori, arrangiatori e produttori.