Home / #ErsuCultura / Parlano i “genitori” di NAO: il robot musicista
robor nao
A NAO humanoid robot, developed by Aldebaran Robotics SAS, performs during a demonstration in Tokyo, Japan, on Wednesday, Jan. 28, 2015. Mitsubishi UFJ Financial Group Inc.'s answer to the technological revolution are robots. Japan's biggest lender is becoming the world's first bank to let robotic staff serving retail customers, hiring the brother of SoftBank Corp.'s humanoid machine "Pepper." Photographer: Kiyoshi Ota/Bloomberg

Parlano i “genitori” di NAO: il robot musicista

Teo Tronico
Teo Tronico – Ph. www.makersnews.it

Il legame robotica – musica non è nuovo a Palermo: già nel 2012 c’era stato l’esordio di Teo Tronico, il robot che esibitosi con il  Concerto K 488 di Mozart come “mirror – pianist” del maestro Roberto Prosseda, servì per verificare le differenze di interpretazione tra un robot ed un umano (qui il link di quella notizia).

NAO, poeta vate delle emozioni.
NAO, poeta vate delle emozioni.

“Robotics Lab”, è invece un progetto sperimentale che collega robotica, musica ed emozioni umane, ideato  e prodotto dal dipartimento dell’Innovazione industriale e digitale dell’Università di Palermo e dalle scuole di Composizione e Musica elettronica del Conservatorio Bellini. Ha avuto il suo culmine nel concerto svoltosi il  19 ottobre 2016, come parte della rassegna “Nuove Musiche” voluta dal teatro Massimo di Palermo e dalle realtà istituzionali – musicali siciliane (il link dell’evento).

Intervistati i “genitori” di NAO musicista: Vincenzo Caravello e Francesco Corsello, – che si sono occupati del versante musicale (coordinati dai docenti Fabio Correnti, Marco Betta, Giuseppe Rapisarda) – e gli ingegneri Claudio Zito, Samuele Vinanzi, – partecipanti in qualità di tesisti di Robotica – raccontano comè nato il Progetto Robotics Lab e la collaborazione tra il Dipartimento di Ingegneria Informatica di Palermo ed il Conservatorio Vincenzo Bellini“In seguito al primo incontro avvenuto nell’estate del 2014, che coinvolse il RoboticsLab del Dipartimento dell’Innovazione Industriale e Digitale dell’Università di Palermo e il Conservatorio Vincenzo Bellini abbiamo presentato il prototipo iniziale dello spettacolo che si è evoluto e ampliato grazie al contributo e alla cooperazione tecnica e creativa delle persone coinvolte”.

Vincenzo Caravello, a quali considerazioni estetico – formali approda il progetto “Robotics Lab” per un giovane compositore come te? Il Robot come mediazione, tra il compositore ed il pubblico, si situa nella dimensione novecentesca dell’opera aperta in cui gli spettatori collaborano alla genesi e alla trasformazione del percorso musicale?

Nel corso della storia tantissimi compositori hanno espresso la loro volontà di interagire con il pubblico: Mozart con il suo quadrato magico, Cage ponendo l’attenzione ad esempio al mormorio del pubblico in sala e moltissimi altri. Io e Francesco Corsello collaboriamo ormai da circa 4 anni nell’ambito della musica applicata. Ci siamo approcciati alla musica interattiva grazie ad alcuni lavori svolti nell’ambito videoludico e abbiamo voluto portare la nostra esperienza accademica e lavorativa in un progetto unico in cui si potesse interagire in tempo reale sulla composizione del brano grazie alle emozioni del pubblico che potrà creare circa otto milioni di possibili differenti partiture per l’opera”.

Il compositore Vincenzo Caravello. Ph: Gabriele d'Angelo.
Il compositore Vincenzo Caravello. Ph: Gabriele d’Angelo.

La musica è un’arte i cui significati emotivi che attribuiamo dipendono sia dal nostro grado di sensibilità che dal nostro vissuto e dalla nostra disposizione interiore a recepirla. La volontà di rendere intellegibili le emozioni e di introdurle in una app per smartphone, non inaridisce le possibilità immaginative che l’uomo stesso detiene in un sistema di democratizzazione ed omologazione delle impressioni del pubblico?

“Gli stati emotivi legati alla musica non potranno mai essere universali, un brano che per una persona può essere sereno per altre potrà esser triste, tutto si basa sul proprio vissuto. Esistono però dei parametri come il tempo, le consonanze e dissonanze, la frequenza dei suoni, etc. che nel corso della storia hanno creato degli “standard”: ad es. nelle colonne sonore di film horror vengono spesso usati suoni molto acuti che il cervello umano associa per natura al pianto del bambino dando quindi un senso d’irrequietezza o pericolo”.

In che modo il Robot NAO potrebbe rapportarsi anche con partiture tradizionali come una Sinfonia di Beethoven o un Quartetto di Mozart?

“Teoricamente si potrebbero utilizzare partiture tradizionali all’interno del progetto ma si andrebbe a perdere l’evoluzione musicale all’interno dell’opera riducendo tutto quanto ad una mera playlist di brani”.

Secondo te un Robot potrebbe sostituire in un futuro ipotetico, un direttore d’orchestra?

NAO, pur essendo sul podio, non è un vero e proprio direttore d’orchestra: lui rappresenta il tramite tra le emozioni del pubblico e gli strumenti sul palco. Io credo che il lavoro dei direttori d’orchestra, come dei compositori e degli strumentisti sia unico. Finchè non si raggiungerà un livello di conoscenza, nell’ambito della robotica e dell’intelligenza artificiale, tale da poter permettere a delle macchine di provare emozioni ed esprimere creatività in maniera efficace non credo che nessuna di queste figure sarà sostituibile”.

Il compositore Francesco Corsello. Ph: Claudia Todaro
Il compositore Francesco Corsello. Ph: Claudia Todaro

A Francesco Corsello, compositore chiedo: In tutti i mestieri e le professioni del mondo odierno, c’ è una tendenza a sostituire la macchina all’Uomo in quanto a fronte di una spesa iniziale, la macchina è garanzia di produttività a basso rischio ed ha bisogno di minor tutele assicurative e previdenziali. In quale direzione procede rispetto a tale prospettiva il Progetto del Robot Nao ed in quale prospettive future potrebbe secondo te evolversi la robotica?

“Il progetto “Nao Music”, (come lo chiamiamo insieme agli altri membri del team) nasce come esperimento compositivo dalla nostra volontà di sperimentare con le nuove tecnologie l’interazione uomo/intelligenza artificiale. L’uso della tecnologia è inteso non solo come strumento per raggiungere un fine, ma come tramite per stimolare una ricerca personale verso nuove forme di comunicazione interdisciplinare della musica. Questo obbiettivo, per esempio, è stato raggiunto successivamente grazie alle intuizioni degli ingegneri quando sono stati integrati il fattore psicologico e quello sociale. L’uomo, è da sempre parte integrante di questo rapporto. Basta conoscere un po’ di organologia per scoprire che la tecnologia ha sempre fornito nuovi mezzi espressivi a compositori ed interpreti. Quando si parla di tecnologia, soprattutto in ambito artistico, penso che in generale i vantaggi superino di gran lunga gli svantaggi. La nascita della tecnologia legata alla musica elettronica, non ha comportato il declino della musica strumentale, ha invece intrapreso un percorso parallelo intrecciandosi ad essa. Campionatori e orchestre virtuali programmabili, hanno dato la possibilità a migliaia di persone che non hanno a disposizione un’orchestra reale, di approcciarsi e scoprire il mondo della composizione. Günther Anders nella sua opera “L’ uomo è antiquato” analizza l’inadeguatezza dei sentimenti umani in comparazione con le macchine. La “vergogna prometeica”, secondo Anderson, è uno dei motivi per i quali oggi, ogni manifestazione tecnologica del nostro mondo ci spinge a creare danni prima che vantaggi.

Applicazione della Robotica per la cura dell'autismo.
Applicazione della Robotica per la cura dell’autismo. Fonte Ph. aldebaran.com

Ogni rivoluzione tecnologica ha comportato grandi modifiche sociali ma se l’automazione è creata con criterio migliora la qualità della nostra vita. Le macchine sostituiscono l’uomo nei lavori più ripetitivi, faticosi e pericolosi permettendoci lavori più interessanti e creativi. Kiva, per esempio, un robot industriale usato nei magazzini amazon ha tramutato la maggiore efficienza nell’aumento di posti di lavoro slegando gli impiegati dal trasporto della merce all’interno del magazzino. Nel giugno del 2015, presso il nostro Conservatorio, ho avuto il piacere di ascoltare un affascinante talk di Maria Mannone, compositrice e laureata magistrale in fisica teorica: “A new approach to Musical Performance and Composition”. Uno studio sulla connessione della realtà simbolica dello spartito musicale alla realtà fisica dell’esecuzione musicale e alla sua successiva definizione in un modello matematico. Se uno studio del genere, per esempio, fosse applicato alla tecnologia robotica e alla biomedica potrebbe creare braccia protesiche in grado di far suonare persone che oggi non hanno la possibilità di farlo”.

Momento del film "Io robot".
Momento del film “Io robot”.

Nel film “Io Robot”  su soggetto di Isaac Asimov e sceneggiatura di Jeff Vintar e Akiva Goldsman dell’anno 2004,  i robot NS- 5 si ribellano alle leggi etiche del loro creatore, per cercare di instaurare una  “benevola” dittatura per proteggere gli uomini da loro stessi. Un solo robot  chiamato Sonny, è in grado di provare emozioni diverse dalle leggi etiche prestabilite ed è la chiave di volta dell’intero film. Un giorno anche i Robot come Nao, diventeranno capaci di emozioni oppure resteranno veicolo ed intermediario di emozioni umane?

“Il rapporto tra gli esseri umani e l’intelligenza artificiale nasce da una domanda fondamentale alla quale non siamo riusciti a dare ancora una risposta: Come sono fatto io? Perché io sono io? 
Alan Turing, considerato uno dei padri dell’informatica a fine anni ’40 spostò i suoi interessi verso la neurologia e la fisiologia, iniziando ad esplorare la relazione tra computer e natura. Era convinto che si potesse raggiungere un’intelligenza artificiale seguendo gli schemi del cervello umano. Da allora sono stati sviluppati diversi sistemi di intelligenza artificiale. I circuiti logici ai quali attribuiamo l’intelligenza, però, non sono l’unica parte che la compone. Ci è difficile immettere all’interno di una macchina la parte oscura e irrazionale dell’uomo perché tutt’oggi ci è impossibile capirla fino in fondo. L’intelligenza umana sfugge alla matematica e alla logica. La questione è stata trattata da svariate opere cinematografiche e letterarie. “Ghost in the Shell”, una delle mie preferite, per esempio, si focalizzata maggiormente sulle ramificazioni etiche e filosofiche della fusione tra l’umanità e la tecnologia, ridefinendo il “ghost” inteso come anima o coscienza, in quanto fattore che differenzia un essere umano da un robot biologico. Ghost in the Shell nega il dualismo cartesiano e ritiene che la condizione fisica del cervello umano sia l’origine della mente umana. Basandosi sull’idea di Arthur Koestler in “Il fantasma nella macchina”, il “ghost” viene definito, non semplicemente come tratto fisico, ma come fase o  fenomeno che compare in un sistema quando questi supera un certo livello di complessità. Conseguentemente il “ghost” compare nei robot. Nel caso in cui questa prospettiva si realizzi nella realtà, se non siamo in grado di definire noi stessi, come saremo in grado di definire autentico un avvenimento del genere rispetto a una mera imitazione della mente e delle emozioni umane?”

Abbiamo sentito anche gli ingegneri Claudio Zito e Samuele Vinanzi, partecipanti in qualità di tesisti di Robotica

Secondo Paul Ekman a ciascuna emozione corrisponde un pattern di attivazione del sistema periferico e del sistema nervoso centrale. Nell’associazione suono – colore – emozione all’interno dell’app per smartphone da voi creata è presente una effettiva corrispondenza di attivazione delle zone celebrali coinvolte?

 “Certamente sì. L’applicazione che forniamo agli utenti prima dell’inizio dello spettacolo ha lo scopo di svincolare il pubblico dal suo classico ruolo di spettatore passivo e bensì di elevarlo a quello di attore attivo e partecipe dell’esibizione. Rappresentando il punto di contatto con tutto il nostro sistema e riguardando in modo stretto le emozioni, abbiamo voluto minimizzare il processo di ragionamento che si attua nel corso dell’interazione. Per ottenere una risposta più istintiva e, per l’appunto, più emozionale possibile, abbiamo scelto di realizzare un’interfaccia priva di testo ma dotata unicamente di quattro bottoni colorati. I suddetti colori sono quelli che, secondo i frutti di alcune ricerche psicologiche, sono più frequentemente associati con la gamma di emozioni che vogliamo ricollegare ad ognuna delle scelte. Così facendo, speriamo di ottenere una giusta uniformità di attivazioni cerebrali tra le emozioni provate dagli spettatori, la loro scelta sull’app e la musica che essi ascoltano“.

Ph. che ritrae l'Ingegnere Samuele Vinanzi.
Ph. che ritrae l’Ingegnere Samuele Vinanzi.

Quali sono i possibili scenari futuri della robotica nell’interazione con le attività artistiche ed in generale professionali – lavorative umane? 

“La scienza robotica sta attraversando un periodo di grande crescita: con lo svilupparsi di tecnologie hardware e software sempre migliori, i ricercatori di tutto il mondo stanno mettendo a punto robot molto sofisticati capaci di adempiere ad incarichi di diversa natura. Tra questi ultimi rientrano le applicazioni in campo artistico, di cui il nostro progetto è un forte esempio. Sinora, le implementazioni più comuni hanno previsto robot in grado di suonare strumenti musicali oppure capaci di ascoltare la musica presente nell’ambiente e di adottare comportamenti consoni ad essa, ad esempio iniziando a ballare. Tuttavia noi pensiamo che l’arte sia, prima di ogni altra cosa, emozione e dunque i robot artistici devono poter essere in grado di riconoscere ed esprimere gli stati d’animo: è quella che viene chiamata intelligenza emotiva. Secondo il nostro parere, solo i robot che riusciranno a connettersi emotivamente con gli esseri umani potranno ritagliarsi uno spazio significativo nel mondo dell’arte, sia musicale che visiva e letteraria. Il nostro progetto è un esempio di come l’intelligenza artificiale possa avvalersi delle emozioni per riuscire a creare qualcosa di nuovo, nel nostro caso un’esibizione che proceda di pari passo con i sentimenti del pubblico in sala. Vorremmo tuttavia precisare che l’obiettivo finale di questo tipo di ricerche non è mai quello della sostituzione dell’uomo con le macchine, bensì la creazione di intelligenze artificiali sempre più sofisticate che possano includersi in modo naturale all’interno della vita delle persone, apportandone miglioramenti”.

I brani musicali composti per “Robotics Lab” contengono dei parametri musicali che stabiliscono una possibile risposta emotiva. Lo scopo di questo progetto è rintracciare una  corrispondenza tra il codice musicale ed il feedback del pubblico?

“Una parte significativa di questo progetto si trova a monte dell’esibizione, “dietro le quinte”: abbiamo sviluppato un sistema di intelligenza artificiale specializzato nel riconoscimento dell’emozione predominante contenuta in un brano musicale.  E’ questa intelligenza artificiale che decide se un certo brano musicale è ad esempio, più triste che felice o viceversa ed in quale misura. Le varie cellule musicali che compongono il concerto vengono analizzate da questo sistema ed è quest’ultimo che determina la loro associazione con le emozioni. Lo spettacolo è stato suddiviso in “atti” e ad ogni passaggio tra l’uno e l’altro il robot deve poter decidere quale tra i brani di cui è a conoscenza sia la più adatto allo stato emotivo del pubblico. Ci teniamo a precisare dunque che il robot non è telecontrollato, nel senso che gli spettatori non controllano direttamente le sue scelte, bensì egli effettua una scelta tenendo conto delle loro emozioni. Alla luce di tutto questo, lo scopo del progetto non è quello di ricercare la conferma di un’associazione musico-emotiva studiata a priori con il feedback degli utenti, bensì valutare l’efficacia di un sistema che operi per creare un intreccio tra le emozioni del pubblico in platea e la musica suonata dai musicisti sul palco al fine di rendere ogni singola persona presente in sala complice nella creazione dello spettacolo”.

Riguardo Erika Giannusa

Erika Giannusa
Erika Giannusa è nata a Palermo, il 06/12/1993. Pianista, compositrice e soprano lirico. Si dedica al giornalismo ed alle recensioni di eventi e manifestazioni in Italia ed in Europa.

Leggi anche

Teatro di San Carlo 2018

Il musical torna al Teatro Massimo con “My Fair Lady”

Va in scena al Teatro Massimo di Palermo dal 26 novembre al 3 dicembre My Fair Lady, il famosissimo musical di Alan Jay Lerner e Frederick Loewe. Dirige il direttore inglese Wayne Marshall, alla regia di Paul Curran. L’allestimento, in coproduzione con il Teatro San Carlo di Napoli, vede le scene di Gary McCann e i costumi di Giusi Giustino, con le coreografie di Kyle Lang e le luci di David Martin Jacques.

Lascia una risposta

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *