Prego, MIDIca!

PICCOLA GUIDA AL MONDO DELLA COMUNICAZIONE TRA COMPUTERS E STRUMENTI MUSICALI


INFORMATICA E MUSICISTI

Parlare di computers con i musicisti non è mai stato cosa facile: ci si trova a volte di fronte ad un senso di diffidenza nei confronti dell’uso di macchine che prendano parte al processo creativo. Sia che ciò avvenga per conoscenza superficiale della materia sia per una disposizione negativa nei confronti dell’uso della tecnologia, è importante sottolineare che si sta dissipando nel tempo, in favore di crescente interesse e rinnovata curiosità, che si accompagnano ad una sempre sana richiesta di informazione qualificata.

Dal canto suo l’informatica applicata alla musica si è mossa a grandi passi in un crescendo tra novità senza soste sia a livello software che hardware. L’elettronica è presente nella sfera musicale ormai da diverso tempo e mai come negli anni più recenti vi si è insediata con tanta efficacia, così come del resto è stato per molti altri settori della vita sociale.

L’evoluzione ha portato ad uno sbilanciamento nell’utilizzo della tecnologia digitale verso il trattamento del segnale audio, dalla produzione alla sua fruizione. Proprio questo fenomeno ha messo in ombra altri settori chiave come quello della composizione o dell’esecuzione dal vivo, nei quali invece il protocollo MIDI ha svolto e svolge tutt’ora un ruolo fondamentale che merita di essere descritto nei dettagli, cosa che intende fare questa breve guida.

MIDI: STORIA E STRUTTURA

Dagli esperimenti risalenti agli inizi del secolo scorso, che portarono nel 1964 alla fabbricazione del primo vero e proprio sintetizzatore (ad opera del progettista Robert A. Moog) basato su circuitazione completamente analogica, arriviamo alle soglie degli anni ’80 con la svolta radicale operata dall’introduzione della tecnologia digitale. Ai circuiti detti “oscillatori”, che fino ad allora erano stati gli artefici assoluti del suono elettronico, si affiancano i microprocessori digitali, che “parlano” un linguaggio in cui ogni cosa è espressa, controllata e modificata tramite valori numerici determinati.
Tale linguaggio è comune a quello della macchina definita per eccellenza l’invenzione primaria del XX secolo, ovvero il calcolatore elettronico.

Circondati da muri di strumentazione per rendere dal vivo i sempre più complessi arrangiamenti creati in studio di registrazione, i musicisti degli anni ’70 fanno richieste pressanti per poter effettuare scambi di dati tra strumenti diversi, animati dalla necessità di comandare più strumenti alla volta da un’unica tastiera, semplificando i loro setup. Sotto la pressione di tale spinta l’industria elettronica va alla ricerca di un sistema per collegare e far comunicare tra loro i sintetizzatori.

Da quel momento la storia diviene cronaca e i fatti si susseguono a velocità impressionante: dopo vari tentativi più o meno riusciti nel 1983 arriva l’annuncio della creazione di un protocollo di comunicazione, un codice standard che permette a strumenti diversi, purché tutti equipaggiati da una apposita interfaccia, di parlare tra loro e di relazionarsi con il computer. Tale codice è denominato MIDI (Musical Instrument Digital interface) ed è in grado di convertire in messaggi sequenziali qualsiasi operazione venga compiuta sul sintetizzatore, dalla pressione di un tasto alla modifica del parametro di un oscillatore.

lo schermo del Fairlight, il primo computer dedicato alla produzione della musica

Assieme alla tecnologia digitale compiono passi da gigante anche i metodi di sintesi sonora. Il sistema analogico è ben presto affiancato dalla sintesi in Modulazione di Frequenza (FM) introdotta dalla Yamaha, poi dalla digitalizzazione del suono tramite il sistema PCM (Pulse Code Modulation), ovvero il campionamento, dapprima con risoluzione di 8, poi di 12 ed infine di 16 e 32bit di risoluzione, poi dalle sintesi sonore ibride, come la Lineare Aritmetica della Roland (LA) o l’Avanzata Integrata della Korg (AI) e la sintesi vettoriale, che combinano forme d’onda analogiche, create digitalmente o ricavate per conversione digitale di eventi dal mondo reale (PCM).

L’interfaccia di comunicazione MIDI si estende nel frattempo alle drum machines e ai moduli di elaborazione del segnale audio (processori di suono come echi, riverberi, ecc.) e successivamente si applica anche a segnali analogici, permettendo tramite complesse procedure di conversione dei dati in digitale di utilizzare come controllers anche strumenti diversi dalle tastiere: chitarra, basso, batteria, fiati oppure la stessa voce umana. Con l’avvento della tecnologia della modellazione fisica e lo sviluppo esponenziale del software gran parte dei vecchi strumenti analogici è ricreata digitalmente e vive di una nuova vita nella memoria dei computers.

Tramite i sistemi a disposizione qualsiasi musicista è oggi in grado di dialogare con strumenti elettronici di ogni tipo espandendo le proprie possibilità espressive attraverso l’uso di timbriche nuove e diverse da quelle tipiche dello strumento suonato.

IL PROTOCOLLO E LE PORTE

La comunicazione MIDI avviene tramite prese standard di tipo DIN montate sugli strumenti stessi, a cinque poli ma collegate mediante soli tre fili. Un terminale è collegato al piedino 4 e porta l’alimentazione a +5V, il terminale 2 è collegato a terra come schermatura e il piedino 5 trasporta i dati.
Il trasferimento è di tipo seriale, organizzato in “parole” di 8 bit che viaggiano ad una velocità di 31 kbytes al secondo (31 Kbaud rate).

I cavi MIDI collegano gli apparecchi attraverso le porte denominate IN, OUT, THRU

MIDI IN: è adibita esclusivamente all’ingresso dei dati provenienti da uno strumento ad essa collegato

MIDI OUT: trasmette i dati generati dall’apparecchiatura sulla quale è montata

MIDI THRU: trasmette una copia esatta dei dati che arrivano alla porta IN da un’apparecchiatura esterna

La trasmissione dei dati può avvenire attraverso canali di comunicazione numerati da 1 a 16 che vengono ricevuti separatamente da apparecchi collegati in cascata, ognuno dei quali viene “sintonizzato” dall’utente su un canale ricevente diverso. Ogni apparecchio riceve di norma su un canale alla volta (modo OMNI OFF) oppure su tutti i canali assieme (modo OMNI ON); diverso è invece il caso degli strumenti detti “poli-timbrici”, che sono in grado di ricevere e riprodurre contemporaneamente più flussi di dati su canali diversi ed assegnati a timbriche differenti.

I MESSAGGI MIDI

Ogni parola del linguaggio è composta da 8 bit (4 bit = 1 nibble, 8 bit = 1 byte) eventualmente suddivisa in due nibbles, chiamati Most Significant Bit (MSB) e Least Significant Bit (LSB).
I bit sono unità di informazione in linguaggio binario esadecimale, che possono assumere i soli valori 0 e 1 per comporre numeri che con 8 bit permettono di distinguere fino a 255 valori diversi.

Le parole si dividono in due categorie, dette “Status Byte” e “Data Byte”.
Lo Status Byte contiene l’indicazione del tipo di comando che viene inviato e il numero del canale di trasmissione, il Data Byte contiene invece il valore che il parametro deve assumere.

Le due categorie si distinguono grazie all’impiego dedicato del primo bit, che negli Status Byte è sempre 1, mentre nei Data Byte è sempre 0.

Dal momento che il primo bit è dedicato ad identificare il messaggio, il Data Byte ha a disposizione soli 7 bit per la determinazione del valore del parametro. A causa di tale limitazione ogni parametro può esprimere soltanto 128 variazioni di stato.

La struttura di una tipica comunicazione MIDI, dunque può essere così esemplificata:

MSBLSB
1 V V VC C C C
tipo byte +tipo comando (3bit= 8 valori)nr. canale (4bit = 16 valori)
struttura di uno Status byte

0 V V V V V V V
tipo byte + nr. canale (7bit = 127 valori)
struttura di un Data byte

I messaggi MIDI si dividono in due grandi categorie:

  • messaggi di canale, che sono quelli associati ad un particolare canale di trasmissione e vengono dunque elaborati dalla sola macchina “sintonizzata” su tale canale
  • messaggi di sistema, che vengono indirizzati contemporaneamente a tutte le macchine collegate

MESSAGGI DI CANALE (CHANNEL VOICE MESSAGES)

E’ evidente come il protocollo mostri una serie di vincoli invalicabili nei range numerici, derivati dalla tecnologia a disposizione dell’industria nel 1983 quando tale protocollo fu definito.

Abbiamo visto come ogni parametro possa assumere 128 valori diversi. I bit destinati a specificare il numero del canale di trasmissione sono 4 e questo limita il range dei valori possibili a 16. Il fatto di avere solo 3 bit per indicare il tipo di parametro limita invece ad 8 le tipologie di messaggi di canale possibili, che infatti sono:

1 Note ON
2 Note OFF
3 Key Velocity
4 Channel Pressure
5 Pitch bend
6 Program Change
7 Control Change

Questi messaggi definiscono tutti gli aspetti della nota eseguita:

NOTE ON, NOTE OFF inizio e fine della nota, cioè la durata della pressione del tasto

KEY NUMBER numero che identifica il tasto premuto

KEY VELOCITY (anche Polyphonic Key Pressure) pressione esercitata su ciascun tasto

CHANNEL PRESSURE: variazione della pressione successiva alla pressione del tasto, prima del suo rilascio, utilizzata di solito per comandare l’apertura o la chiusura di un filtro, l’effetto di vibrato, ecc.

PITCH BEND: posizione della rotella (pitch wheel) che causa variazioni continue di intonazione alla nota eseguita

PROGRAM CHANGE: numero della locazione di memoria del synth associata al timbro da utilizzare

CONTROL CHANGE: stato dei controlli continui presenti sulla macchina, come pedali di volume, del sustain (HOLD), portamento, controlli di ogni tipo.

Della tipologia Control Changes fanno parte anche i cosiddetti messaggi di MODO.

MODO1 OMNI ON/POLY : messaggio su tutti i canali, polifonico (più note simultanee)
MODO2 OMNI ON/MONO : messaggio su tutti i canali, monofonico (nota unica)
MODO3 OMNI OFF/POLY: messaggio su un singolo canale, polifonico (più note simultanee)
MODO1 OMNI OFF/MONO: messaggio su un singolo canale, monofonico (nota unica)

I MESSAGGI DI SISTEMA (SYSTEM MESSAGES)

Si tratta di messaggi indipendenti dal numero del canale di trasmissione, che vengono contemporaneamente inviati a tutte le macchine collegate.

ID: ogni costruttore ha un proprio numero di identificazione che serve all’apparecchio ricevente a scambiare i dati contenuti nella propria memoria soltanto con un’apparecchiatura gemella

COMMON: svolgono particolari funzioni nel caso in cui in un sistema siano presenti batterie elettroniche, sequencers o master keyboards

REAL TIME: si incaricano di controllare la partenza e l’arresto delle sequenze, di iniziare una registrazione, di verificare la presenza di afflusso regolare di dati, ecc.

EXCLUSIVE SYSTEM: messaggi strutturati secondo il “dialetto” peculiare di ogni singolo sintetizzatore, tale da essere compreso soltanto da un apparecchio gemello, che contiene messaggi in grado di dialogare con il sistema operativo vero e proprio della macchina, scavalcando l’interfaccia utente

Con questa panoramica semplificata dei messaggi MIDI, se pur telegrafica e un po’ didascalica, spero di aver dato almeno un’idea generale di ciò che è possibile comunicare tramite l’unico protocollo standard esistente e di quale logica tale comunicazione segua.
Una trattazione davvero esauriente richiederebbe uno spazio ben più ampio, ma potrei dichiararmi soddisfatto se questo breve scritto riuscisse almeno ad evitare a chi lo legge di restare spiazzato di fronte al gergo dei più tecnici.

L’INFORMATICA MUSICALE

L’utilizzo dell’informatica nell’ambito musicale si articola oggi principalmente in quattro direzioni:

1) Composizione, gestione e registrazione di sequenze musicali MIDI ed AUDIO
2) Programmazione di strumenti musicali virtuali e plug-ins
3) Creazione di librerie di suoni e produzione di risposte all’impulso di ambienti, speakers, dispositivi e strumenti
4) Archiviazione di dati

COMPUTER E SEQUENZE MUSICALI

Ci serviamo del calcolatore per registrare sequenze di dati inseriti via MIDI che corrispondono a ciò che un sintetizzatore collegato ha inviato dalla propria porta MIDI OUT verso la porta MIDI IN del calcolatore.
I dati sono la codifica secondo il protocollo MIDI di ogni aspetto dell’esecuzione del musicista sulla tastiera e contengono i numeri di nota dei tasti premuti, NOTE ON e NOTE OFF relativi e gli eventuali dati riguardanti CONTROL CHANGE, PITCH BEND, KEY VELOCITY, ecc.
Possiamo registrare in due modi: come se avessimo un classico registratore a nastro magnetico di tipoanalogico, facendo cioè partire la sequenza e seguendola passo passo (REAL TIME RECORDING) oppure, con una prassi tipicamente “digitale”, inserendo gli eventi MIDI dove servono tramite le operazioni di EDITING (STEP BY STEP RECORDING).

Lo strumento software originariamente dedicato a tale procedura era detto “sequencer”, ma esso si è successivamente trasformato ed evoluto in una macchina in grado di elaborare accanto ai flussi di dati MIDI anche quelli riguardanti l’audio di tipo PCM (più di recente affiancati anche dai flussi video) e di gestire al contempo strumenti creati esclusivamente via software (virtual instruments), con tutte le funzioni di editing ed automazione, ormai molto avanzate da tutti i punti di vista.
Tale strumento è stato rinominato DAW (Digital Audio Workstation).

Mi pare importante chiarire a questo punto che quando parliamo di MIDI non ci riferiamo mai ad informazioni riguardanti il segnale audio. Non lavoriamo con frequenze o ampiezze, ma con la rappresentazione numerica di tutto ciò che caratterizza un’azione eseguita dal musicista sullo strumento che sta suonando. Essa è trasformata in un codice binario che una volta compreso dal microprocessore che governa sia la macchina che registra, che quella che in seguito riproduce il tutto, specifica quali operazioni il sintetizzatore e i suoi generatori di suono siano chiamati a compiere. La rilettura successiva di tali sequenze di dati inviati dal computer ai microprocessori presenti nei synth fa loro ricreare in ogni dettaglio tutte le operazioni precedentemente effettuate dal musicista.

Una volta che la sequenza è registrata, essa resta passibile di infinite modifiche e successive elaborazioni sia a livello melodico/armonico, sia a livello ritmico con una precisione di intervento molto elevata, dell’ordine del 768esimo!
Lo stesso livello di dettaglio è applicabile all’intervento sul materiale audio. In questo caso la nostra fonte sarà però un segnale analogico, che per essere gestito dal computer va convertito in dati numerici. Di questa operazione si occupano appositi circuiti di conversione A/D (Analog to Digital) in fase di registrazione e D/A (Digital to Analog) in fase di riproduzione.

STRUMENTI VIRTUALI E PLUG-INS

Tutte le DAW mettono a disposizione dell’utente un numero variabile di tracce di registrazione separate e gestite contemporaneamente dal programma, ciascuna delle quali può contenere dati audio o MIDI, oppure comandi per strumenti virtuali, ai quali le sequenze MIDI possono essere inviate e che “vivono” esclusivamente nella memoria del pc stesso, attraverso softwares satelliti chiamati “virtual instruments”.
I virtual instruments si servono di svariate tecnologie, che vanno dal campionamento PCM alla modellazione fisica, per riprodurre con grande efficacia e dettaglio le timbriche e il comportamento degli strumenti reali. Esistono versioni virtuali di quasi ogni strumento reale, dalle percussioni alla batteria, dalla chitarra al basso, dagli strumenti ad arco ai fiati, nonché versioni digitali di strumenti elettronici come i sintetizzatori.

Alle tracce MIDI e sopratutto alle tracce audio è possibile abbinare moduli software detti “plug-ins”.
I plug-ins possono simulare i più disparati outboard da studio come riverberi, delay, compressori, filtri, oppure amplificatori per chitarra e basso, microfoni, casse, ecc.
In sostanza, disponendo di un computer con sufficiente capacità di calcolo, memoria e velocità, è possibile ricreare brani completi in tutte le loro parti come se si stesse lavorando su un sistema di registrazione a nastro multipista, con la possibilità però di lavorare a modifiche anche dopo aver registrato e di memorizzare tutte le operazioni di mixaggio automatizzandole in ogni dettaglio.

Tale potenziale apre infinite possibilità al singolo musicista, che può creare agevolmente la propria musica simulando l’esecuzione di un intero gruppo o addirittura di una grande orchestra. Questo nuovo tipo di attività ha condizionato anche l’industria dei sintetizzatori. La crescente richiesta del mercato ha portato infatti alla realizzazione di strumenti in grado di gestire trasmissioni MIDI diverse su canali diversi contemporaneamente: in un unico apparecchio sono stati integrati più generatori di suono, facendo sì che un solo sintetizzatore si comporti come 16 o 32 moduli che suonano contemporaneamente con alcuni parametri in comune e la gran parte degli altri totalmente indipendente. Tali strumenti sono denominati “workstation politimbriche” e si sono conquistati ormai gran parte del mercato.

COMPUTER E CREAZIONE DI SUONI

E’ tristemente nota tra i musicisti la grande, oggettiva difficoltà che i più trovano nel creare in breve tempo suoni nuovi e soddisfacenti programmando i sintetizzatori digitali.
Le sintesi sonore hanno raggiunto in effetti un livello di complessità veramente notevole: un timbro può essere generato attraverso la gestione di un numero davvero impressionante di parametri, che nonostante gli ampi display presenti non sempre trova una rappresentazione comoda o intuitiva.

moderno editor software di un sintetizzatore digitale storico, il Roland D50 del 1986

La potenza del computer viene incontro a tali problemi attraverso la visualizzazione contemporanea di molti parametri su schermi di maggior dimensioni, ma sopratutto mediante la creazione di facilitazioni di tipo grafico, come profili di inviluppo, forme d’onda, algoritmi di creazione intelligente, visualizzazioni tridimensionali, ecc.
Tutto ciò avviene in software dedicati chiamati “EDITOR”, spesso forniti dai costruttori assieme alla macchina fisica.

ARCHIVIAZIONE DEI DATI

Dal momento che le sequenze musicali sono memorizzate sugli hard-disk sotto forma di normali files, è immediato pensare che sia possibile creare degli archivi specifici di dati musicali. Un settore che ha visto un grande sviluppo specie nei primi anni di diffusione del MIDI è stato infatti quello della produzione e vendita di basi musicali su floppy disk, prodotte nei formati riconosciuti dai sequencers che andavano per la maggiore. La richiesta proveniva per lo più dagli artisti di piano bar, che per ragioni di economia di spazio e di… denaro (!) preferivano esibirsi da soli, con strumentazione politimbrica pilotata via MIDI. Per evitare le lunghe sessioni di registrazione su sequencer dell’intero repertorio molti hanno preferito rivolgersi a persone che offrissero loro un fornito catalogo di brani classici e recenti, già pronti per essere eseguiti.

L’altra grande capacità di archiviazione riguarda invece i timbri dei sintetizzatori. Sfruttando la possibilità di comunicazione diretta con il “cervello” della macchina offerta dal MIDI attraverso l’utilizzo del sistema esclusivo, gli editors software hanno aperto alla possibilità di creare enormi librerie sonore dedicate ad ogni sintetizzatore, reale o virtuale che sia, permettendone la facile circolazione e scambio.

E’ dunque possibile trasferire su supporto informatico (oltre agli hard disk i cd, i dvd, le chiavette USB, ecc.) i files contenenti i parametri che definiscono i timbri programmati che, a discrezione dell’utente, potranno in un secondo momento essere assemblati assieme ad altri costituendo “banchi” da inserire nella memoria dei sintetizzatori.
Si formano quindi grandi archivi di suoni, spesso anche organizzati per tipologia, tra i quali scegliere quelli più adatti alla specifica situazione musicale che stiamo costruendo.

LE APPLICAZIONI PROFESSIONALI

In questo capitolo faccio accenno ad utilizzi propriamente professionali dei computers in campo musicale, sebbene essi stiano acquisendo grande diffusione anche nell’utenza amatoriale, grazie all’abbassamento dei costi, inizialmente del tutto proibitivi.

COMPUTER E STUDIO DI REGISTRAZIONE

In sala di registrazione il computer ha assunto un ruolo via via più importante, fino a costituirne il cuore pulsante. Le possibilità di automazione e di sincronizzazione tra mondo digitale ed analogico e l’espansione delle possibilità e della qualità delle workstation di registrazione digitale multitraccia hanno portato ad una totale trasformazione, anche strutturale ed estetica, delle sale di registrazione in tutto il mondo. Il controllo remoto dei fader motorizzati, l’utilizzo di outboard software, la gestione dettagliata del mixaggio di un numero di piste sempre maggiore hanno trasformato l’intero studio in una macchina digitale interamente controllabile dall’elaboratore elettronico.

studio di registrazione analogica su multipista a nastro magnetico
moderno studio di registrazione digitale

SINCRONIZZAZIONE MIDI e SMPTE

La sincronizzazione con i vecchi registratori multipista a nastro magnetico è possibile tramite l’invio di un segnale audio analogico registrato in modo tradizionale su una normale pista magnetica. Tale segnale contiene un codice denominato SMPTE (da: Society of Motion Picture and Television Engineers) generato da hardwares appositi, che serve a numerare il nastro analogico istante per istante (da 24 a 30 volte al secondo).

Tali indicazioni sono rilette dal generatore stesso in fase di riascolto e tradotte in tempo reale in codice MIDI.
Il generatore SMPTE viene quindi collegato alla porta MIDI IN del computer attraverso la quale comunica continuamente in quale punto della sequenza ci troviamo e a quale velocità essa debba essere riprodotta. Data l’estrema rapidità con la quale questi procedimenti vengono compiuti, è possibile registrare sul nastro analogico solo gli strumenti acustici e sincronizzare tali parti con quelle eseguite dai sintetizzatori, che restano codificate soltanto via MIDI e suonate in tempo reale dal vivo attraverso il sequencer.
Questo procedimento ha il vantaggio di conservare fino al prodotto finale tutta una serie di segnali che restano intatti nei loro valori di frequenze e di dinamica originali, preservandoli dal deterioramento che inevitabilmente subiscono una volta registrati su nastro.


Va detto che sebbene vi sia ancora chi utilizza la registrazione analogica su nastro magnetico, queste procedure vengono oggi impiegate per lo più nella riedizione o nella digitalizzazione di vecchie registrazioni. Il progresso della tecnologia ha permesso infatti di spostare su PC la gestione di ogni tipo di dato (direct to disc recording) e la registrazione (per di più automatizzata in ogni aspetto del successivo mixaggio) di un numero di piste simultanee ben superiore a quello dei vecchi registratori multipista.

unità di sincronizzazione SMPTE per i registratori Alesis ADAT

Il tutto avviene con perdite di qualità e di dinamica al limite della capacità di percezione sensoriale e nessun deterioramento sensibile interviene nella rielaborazione, copia o duplicazione delle parti o del prodotto finale.
MIDI e sincronismo hanno trovato ampia applicazione nella gestione automatizzata dell’effettistica e delle macchine da palco che seguono la performance passo dopo passo, rendendo possibile organizzare concerti dal vivo che si trasformano in spettacoli multimediali finemente coordinati.


Digitalizzazione e codici di sincronizzazione si rivelano particolarmente utili anche nel campo del recupero audio/video, settore nel quale il lavoro verte su materiale analogico datato e spesso di qualità deteriorata, la cui fruizione si intende rendere nuovamente possibile sia in video che in audio ripulendolo dai disturbi, dal rumore, riparando i danni creati dal tempo e permettendone la conservazione negli anni a venire attraverso la generazione di nuove copie restaurate.

PRESENTE E FUTURO: IL MIDI 2.0

Ben lungi dall’essere messo da parte, nel 2020, a quasi trent’anni dalla sua nascita, il protocollo MIDI è stato finalmente aggiornato. L’aggiornamento è cospicuo, al punto da avere determinato la versione chiamata MIDI 2.0.

Potendo contare sulla trasmissione wireless dei dati, via Bluetooth o Wi-Fi e comunque su una comunicazione seriale assai più veloce di quella originaria su RS232, ottenuta sfruttando le onnipresenti prese USB, il linguaggio MIDI si è esteso a parole di 14bit, introducendo un maggior numero di canali di comunicazione (aumentati a 256) ed il controllo dei parametri in alta risoluzione (16256 steps), al fine di aumentare gradualità e realismo di ogni variazione possibile. E’ prevista anche l’autodiagnosi dei sistemi collegati, in modo da poter determinare se siano compatibili con il nuovo protocollo o debbano essere interrogati attraverso il vecchio, informazione che viene codificata in appositi profili.

Un intero mondo di nuove applicazioni e di interazioni ad alta velocità e risoluzione si apre grazie a questa evoluzione, per cui possiamo essere certi che il viaggio di questo protocollo di comunicazione sia tutt’altro che vicino al capolinea. Molte sorprese e novità ci aspettano sicuramente negli anni a venire!

PER CONCLUDERE

Frequenze audio analogiche e digitali e sequenze MIDI si sono incontrate in una prospettiva nuova che ha modificato il modo di comporre, produrre, registrare, eseguire e perfino ascoltare la musica. Dove ci porterà la sempre crescente perfezione della tecnologia applicata alla musica è difficile dirlo, anche perché la storia vede sempre corsi e ricorsi, in un eterno rincorrersi di cose vecchie e nuove.

Accontentiamoci per ora di sguazzare nell’intrico delle sintesi sonore, dei sistemi di generazione e di simulazione, tra timbriche nuove e stupefacenti macchine complesse sempre più efficienti, cercando di comprenderne le potenzialità e di tenere presente che comunque al centro del processo creativo resta (e nulla può smuoverlo) l’uomo, artefice unico ed assoluto di quella magia che rende il semplice suono, Musica!