+ All Categories
Home > Documents > ARS musica

ARS musica

Date post: 06-Apr-2016
Category:
Upload: jotie-boone
View: 236 times
Download: 3 times
Share this document with a friend
Description:
 
Popular Tags:
25
>. 21/11 22/11 Co-réalisation / Corealisatie / Co-directing ANCIENNE BELGIQUE New gestures and instrumental languages Les nouveaux gestes et langages instrumentaux Nieuwe instrumentale gestes en idiomen
Transcript
Page 1: ARS musica

!"#"!$%"

!">#$.!!

21/11 22/11

Co-réalisation / Corealisatie / Co-directingANCIENNE BELGIQUE

New gestures and instrumental languages

Les nouveaux gestes et langages instrumentauxNieuwe instrumentale gestes en idiomen

Page 2: ARS musica

!">#$.!!!"#"!$%"

Internationalcontemporarymusicfestival

!"#$

Page 3: ARS musica

3/ arsmusica.be

14:00 ANCIENNE BELGIQUEGratuit | Gratis | FreeInscriptions via | Inschrijven via | Registrations via : reservationshuis!%@abconcerts.beCo-réalisation | Corealisatie | Co-directing : Ancienne Belgique

Intervenants | Sprekers | Speakers :

14:15 Atau Tanaka (Professor Media Computing, Goldsmiths, Université de Londres) ............................................... P.6

15:00 Marc Leman (Professor IPEM, Université de Gent – Dept. Musicology) ........................................................... P.7

15:45 Rémi Dury (Da Fact / Karlax-instrument) .............................................................................................................. P.9

16:30 Rudi Giot (Professor ISIB / Musiques & Recherches) ........................................................................................... P.11

17:15 François Pachet (Director of SONY CSL Paris) .................................................................................................... P.13

18:00 Thierry De Mey (Composer - «The beauty of gesture») ........................................................................................ P.14

Moderateur | Moderator | Moderator : Todor Todoro!

!"/""

!!/""

VENDREDI VRIJDAG FRIDAY

SAMEDI ZATERDAG SATURDAY

Programme Program

Intervenants | Sprekers | Speakers :

14:15 Conor Barry (Mogees - Software)............................................................................................................................ P.16

15:00 Olivier Sens (Usine - Software) ............................................................................................................................... P.17

15:45 Walter Hus (Composer / Organ De Cap) ............................................................................................................... P.18

16:30 Todor Todoro! (Composer / ARTeM, moderator) .................................................................................................. P.19

17:15 Emmanuel Favreau (Grm Tools / Ina-GRM software) ........................................................................................... P.21

18:00 Benjamin Lévy (Omax – Software) ......................................................................................................................... P.23

Moderateur | Moderator | Moderator : Todor Todoro!

Page 4: ARS musica

4/ arsmusica.be

Éditorial Editorial

Pendant deux jours, plusieurs intervenants partageront la multiplicité de leurs expériences et de leurs réalisations dans le domaine foisonnant des nouvelles lutheries et des approches nouvelles du langage musical. Ils exposeront leur vision de l’évolution des gestes instrumentaux et de l’émergence de techniques d’écritures musicales associées, dans une approche transdisciplinaire qui associe facture d’instrument, électronique, informatique, interfaces homme-machine, ergonomie, perception, musicologie, sociologie et neurosciences.

Dans la lutherie classique, le geste instrumental est intimement lié aux phénomènes acoustiques : dimension de la colonne d’air, de la corde ou de la membrane qui vibre. Et si un certain nombre de dispositifs mécaniques, tels les clefs ou les claviers à simple puis double échappement, ont permis de déporter certains gestes ou d’améliorer leur rapidité d’exécution, ils restent liés au corps vibrant qui produit le son. Les premiers instruments électroniques ont souvent permis le découplage entre le geste instrumental, qui déclenche, entretient ou module le son et les moyens de sa génération. Parfois, ce lien est resté fort mais a bousculé les traditions, comme le Theremin qui o!re pour la première fois la possibilité de jeu instrumental à distance, sans contact direct avec le musicien.

L’informatique musicale a dans un premier temps, par nécessité, car le temps de calcul ne permettait pas de générer le son en temps réel, nié le geste instrumental. Mais l’explosion de la puissance de calcul, associée à la miniaturisation et à la démocratisation des composants et systèmes électroniques de captation du mouvement, permettent actuellement de définir le geste instrumental en totale indépendance des processus de génération sonore, ouvrant de nouveaux champs d’application et revisitant même parfois le contrôle des instruments acoustiques. Alors que l’extension des techniques instrumentales s’était longtemps concentrée sur la formalisation de techniques étendues, permettant d’exciter des modes de résonances

acoustiques inexploités, souvent instables et di"ciles à maîtriser, la nouvelle lutherie numérique s’est trouvée elle confrontée à la page blanche.

La première approche a donc été de proposer aux musiciens des interfaces qui leur étaient familières, claviers ou contrôleurs basés sur le mimétisme instrumental, afin de leur permettre d’exploiter une dextérité déjà acquise. Le désir d’explorer de nouveaux domaines sonores et expressifs a cependant amené de nombreux chercheurs, musiciens et artistes à proposer de nouveaux paradigmes instrumentaux.

Pendant deux jours, à travers les expériences passionnantes des di!érents intervenants, nous découvrirons un vaste aperçu des multiples redéfinitions du geste instrumental et des nouvelles approches du langage musical, dans des contextes qui s’étendent du studio au concert, en revisitant les limites entre composition et interprétation, mais qui englobent également la danse, les installations interactives et des applications plus ludiques.

Gedurende twee dagen zullen verschillende sprekers hun ervaringen en hun realisaties delen op vlak van instrumentenbouw en nieuwe benaderingen van de muzikale taal. Zij zullen hun visie op de evolutie van de instrumentale gestes en de noodzaak van hieraan inherente technieken van muzikale schriftuur uiteenzetten. Dit bij middel van een transdisciplinaire benadering die instrumentenbouw, elektronica, informatica, interface mens-machine, ergonomie, perceptie, musicologie, sociologie en neurowetenschappen met elkaar verbindt.

In de klassieke lutherie is de instrumentale geste intiem verbonden met de akoestische fenomenen: met de dimensie van de luchtkolom, de snaar of het trillende membraan. En hoewel een zeker aantal mechanische dispositieven - zoals de sleutels en de klavieren met respectievelijk enkele en dubbele uitlaat - bepaalde gestes overbodig maakt of de snelheid van uitvoering vergroot, blijven zij verbonden met het trillende lichaam dat hun toon voortbrengt. De eerste elektronische instrumenten lieten vaak de ontkoppeling tussen de instrumentale geste - die geluid ontketent, onderhoudt en moduleert - en de middelen van hun generatie toe. Soms bleef deze koppeling sterk, maar liet ze de traditie wankelen, zoals de Theremin die voor de eerste keer de mogelijkheid bood van een instrumentaal spel op afstand, zonder een onmiddellijk contact met de muzikant.

Aanvankelijk negeerde de muzikale informatica - noodzakelijkerwijs - de instrumentale geste, vermits de berekeningstijd niet toeliet het geluid in reële tijd op te wekken. Maar de ontwikkeling van de berekeningssnelheid - met de miniaturisatie en de democratisering van haar bestanddelen en elektronische systemen die de beweging vangen - laat momenteel toe de instrumentale geste te

© E

LECT

RIO

Page 5: ARS musica

5/ arsmusica.be

bepalen los van processen van geluidsopwekking. Dit ontsluit nieuwe toepassingsgebieden en herneemt bij tijden de controle van akoestische instrumenten. Terwijl de uitbreiding van instrumentale technieken zich lange tijd had toegespitst op de formalisering van onaangesproken technieken - waardoor ongekende akoestische resonanties konden worden opgewekt, veelal instabiel en moeilijk hanteerbaar - zag de nieuwe lutherie zichzelf geconfronteerd met een onbeschreven blad.

De eerste benadering bestond er dus in de musici herkenbare interfaces voor te stellen, klavieren of controlers gestoeld op instrumentele nabootsing - wat hen toeliet een reeds verworven vaardigheid uit te diepen. Het verlangen onontgonnen geluidsdomeinen en uitdrukkingswijzen te verkennen, verleidde vele onderzoekers, musici en artiesten er toe nieuwe instrumentale paradigma’s voor te stellen.

Gedurende twee dagen maken wij kennis - doorheen de bezielde ervaringen van verschillende sprekers - met een omstandige situatieschets van de veeltallige herdefiniëringen van de instrumentale geste en van nieuwe benaderingen van de muzikale taal. Dit in contexten gaande van de studio tot het concert, waarin de grenzen tussen compositie en interpretatie opnieuw worden opgezocht, maar waarin tevens rekening wordt gehouden met dans, interactieve installaties en meer ludieke toepassingen.

Over these two days, a number of speakers will be sharing diverse experiences and recent innovations in the fast-expanding !eld of instrument manufacture, as well as exploring new approaches to the ‘language’ of music. "ey will also present di#erent visions of the evolution of instrumental gestures, and how new composition techniques in music are emerging. "e conference takes a transdisciplinary approach, bringing together experts from the !elds of instrument-making, electronics, computer science, human-machine interfaces, ergonomics, perception, musicology, sociology and neuroscience.

In instrument-making, the gesture used to play an instrument has traditionally been closely linked to the acoustic phenomena such as air-$ow, or the vibrating string or membrane. Of course a number of the mechanical tools available - such as keys, or simple and then double escapement action on the piano- have made it possible to do away with certain gestures, or execute them faster. However, these gestures are still linked to whatever mass is vibrating to produce the sound. "e earliest electronic instruments o%en made it possible to separate the gesture used to play the instrument which started, maintained or modulated the sound, from the actual means of sound generation. In other cases, the link clearly existed but in a less traditional way. For example, with the "eremin, it

was possible for the !rst time to play an instrument from a distance, without any direct contact with the musician.

In the early days, any instrumental gestures were eliminated as a matter of course because processing speeds in music technology were too slow to generate sound in real-time. However, computing power improved dramatically as the components and electronic systems used to harness movement have become smaller, cheaper and more widely available. "is means it is now possible to have an instrumental gesture which is completely detached from the process of sound generation, opening up new and di#erent applications, and sometimes even changing how we use traditional acoustic instruments as well. For a long time, developments in instrumental techniques concentrated on formalizing extended techniques in order to make use of types of acoustic resonance which were otherwise unexploited, o%en unstable and hard to master. However, manufacturers of new digital instruments now found themselves faced with a blank page.

"e !rst approach taken was to o#er the kinds of interfaces musicians were already familiar with, such as keyboards or other controls based on imitations of existing instruments, thereby allowing them to make use of existing skills and dexterity. However, the desire to explore new domains of sound and expression led numerous researchers, musicians and performers to explore new instrumental paradigms as well.

Over these two days, di#erent presenters will share a variety of fascinating experiences o#ering a chance to discover a vast range of rede!nitions of the instrumental gesture and new approaches to the language of music. Work happening in di#erent contexts such as the studio or concert will be presented as we reconsider the boundaries between composition and performance, also incorporating dance as well as interactive installations and more fun and playful applications.

By Todor Todoro!

Éditorial Editorial

Page 6: ARS musica

6/ arsmusica.be

Music One Participates In : une performance de scène, de rue et de poche

La musique numérique a subi des changements fondamentaux – elle se crée en temps réel, elle est devenue interactive, miniaturisée et complètement démocratisée. Lors de cette intervention, je vais évoquer ma trajectoire personnelle afin d’en dégager les grandes évolutions qui ont eu lieu dans le domaine des systèmes de capteurs, des réseaux et de la mobilité.

Il n’y a pas seulement des changements technologiques, il y aussi des changements qui génèrent d’autres approches musicales. Les formes changent, l’analogique s’est réconciliée avec le numérique, et de nouvelles directions dans l’Open source et la culture du « Do it yourself » continuent à défier nos présupposés sur ce que signifie être un artiste, un compositeur, un interprète, un participant dans ces paysages musicaux et technologiques en constante évolution.

Music One Participates In: Performance from Stage to Street to Pocket

Digital music has undergone fundamental shi%s – it has gone real time, it has become interactive, it has become miniaturized, and completely democratized. I’ll map out my personal trajectory in this time to look at broader evolutions in the !eld with sensors, networks, and mobility.

"ese are not just technological changes, but changes that bring about shi%s in musical approaches. Form factors change, analogue is reconciled with digital, and new directions in Open Source and DIY culture continue to challenge our assumptions on what it means to be an artist, composer, performer, participant, in these evolving musical/technological landscapes.

Atau Tanaka

© A

TAU T

ANAK

A

Intervenants Speakers

Page 7: ARS musica

7/ arsmusica.be

Les nouveaux gestes musicaux : état des lieux et perspectives d’avenir

*Le professeur Marc Leman est chercheur en musicologie systématique, membre du « Methusalem », et directeur de l’IPEM, l’institut de recherche en musicologie de l’université de Gand. Il a publié plus de 350 articles, ainsi que de nombreux livres. Il est l’un des pionniers dans l’étude des fondations épistémologiques et méthodologiques de la cognition musicale. Il dirige actuellement un groupe de recherche qui étudie la manière dont les gens interagissent avec la musique, avec un intérêt spécifique pour l’entraînement et l’alignement du système de réception émotionnel de l’être humain. En 2007, le gouvernement flamand lui a décerné le prix « Methusalem » pour son travail sur l’incarnation musicale. Depuis 2014, il assure la présidence de la fondation Francqui à l’Université de Mons. Marc Leman est également trompettiste de jazz.

Lors de cette intervention, une vue d’ensemble des dernières recherches portant sur l’interaction des gestes et de la musique sera présentée. Ces études ont été menées par l’IPEM, du département musicologie de l’université de Gand ; un des plus grands centres européens d’étude des gestes musicaux.

Ces études ont été l’occasion d’explorations empiriques avec des musiciens, dont les gestes ont été enregistrés à l’aide d’un dispositif de capture de mouvements. Ces gestes ont ensuite été analysés et modélisés.

Parallèlement, plusieurs études expérimentales ont été menées sur des auditeurs afin de comprendre leur perception et leur interaction avec la musique.

Je vais proposer une perspective concernant la manière dont les gestes peuvent interagir entre eux, en utilisant notamment les tout derniers résultats des études réalisées sur les théories de l’action et de la neuroscience. Dans ce contexte, la relation entre les gestes et la musique sera étudiée à travers le binôme « action/perception » de l’entrainement et de l’alignement. Nous allons di!user plusieurs exemples vidéos, avec entre autres une perspective sur la manière dont les gestes peuvent être utilisés au sein des installations multimédias.

Marc Leman

© IP

EM.UG

ENT.B

E

Intervenants Speakers

*Godøy, R. I. and Leman, M., editors (!""#). Musical gestures : sound, movement, and meaning. Routledge, New York.

www.ipem.ugent.be

Page 8: ARS musica

8/ arsmusica.be

Gestures in music interactions: state-of-the-art and future perspectives

*Prof. dr. Marc Leman is ‘Methusalem’ research professor in systematic musicology and director of IPEM, the research institute in musicology at Ghent University. He has publication record of more than 350 journal articles, and a number of books. He is a pioneer in the epistemological and methodological foundations of music cognition. He currently manages a group of researchers that work on the question of how people interact with music, with speci!c interests in the entrainment and alignment of the human expressive responding system. In 2007 he became laureate of the Methusalem of the Flemish Government for his project on musical embodiment. In 2014 he holds the Francqui-chair at the University of Mons. He plays trumpet (jazz).

In this talk I will present an overview of recent studies on how gestures interact with music. "ese studies have been carried out at IPEM, Department of Musicology, Ghent University; one of the major centers for the study of musical gestures in Europe. "e studies comprise several empirical explorations with musicians whose gestures are recorded in a motion capture system and then analysed and modelled. In addition, we

carried out several empirical studies with listeners in order to understand how they perceive and process music. I will provide a perspective of how gestures function in interaction, using the most up to date viewpoints in action theory and neuroscience. In that context I will discuss the relationship between gestures and music from the viewpoint of action-perception coupling, entrainment and alignment. Several video examples will be given, including an outlook of how gestures can be used in multimedia installations. Recommended literature: Leman, M. (2007). Embodied music cognition and mediation technology. "e MIT Press.

Marc Leman

Intervenants Speakers

© IP

EM.UG

ENT.B

E

© IP

EM.UG

ENT.B

E

Page 9: ARS musica

9/ arsmusica.be

Le Geste

Le 20ème siècle a été le témoin d’une abondante créativité instrumentale.

De nombreux prototypes issus d’initiatives personnelles et de laboratoires de recherche musicaux ont alimenté abondamment les colloques et les concerts expérimentaux.

L’industrie de la facture instrumentale cherche encore de nouveaux marchés pour adapter son o!re à la révolution numérique et des start-up se créent régulièrement avec la promesse d’instruments « révolutionnaires ».

Les éditeurs de logiciels dits « temps réel » (instruments virtuels) mènent une guerre commerciale et tentent de s’imposer comme standard universel. D’autres communautés mettent leurs espérances dans la selfie production grâce aux imprimantes 3D et aux plate-formes électroniques open-source comme Arduino. Malgré cette e!ervescence, aucun nouvel instrument électronique, à ce jour, n’est parvenu à intégrer la grande famille des instruments de musique. A travers l’étude de cas de l’instrument Karlax, nous verrons pourquoi les probabilités sont faibles que de nouveaux instruments réussissent à intégrer de façon pérenne l’écosystème des pratiques musicales. Et nous nous poserons quelques questions a!érentes à ce constat:

# Peut-on transmettre les musiques électroniques sans passer par le geste instrumental ?

# La musique électronique a-t-elle besoin d’interprète ?

# La pérennité des œuvres a-t-elle encore un sens ?

Rémi Dury

Intervenants Speakers

© D

AFAC

T.CO

M

Page 10: ARS musica

10/ arsmusica.be

Gesture

In the 20th century there was an outburst of instrumental creativity.

Many prototypes came into being both stemming from individual initiatives and resulting from the work of music research laboratories, which lead to numerous conferences and experimental concerts.

"e instrument manufacture industry is still looking for new markets in order to adapt the products on o#er to the digital revolution. At the same time, start-ups are regularly being launched with the promise of delivering ‘revolutionary’ or ‘amazing’ instruments.

"e developers of ‘real time’ so%ware (virtual instruments) are trying to establish their work as a universal standard.Other communities are putting their hopes in ‘sel!e’ production which uses 3D printers and electronic open-source platforms such as Arduino.

Despite this boom, as yet no new electronic instruments have been truly integrated into the wider family of musical instruments.

Using a case study on the Karlax instrument, we will see why it is still unlikely that any new instruments will be able to be fully integrated into the world of music practice.We will also be exploring some questions relating to this:

• Is it possible to pass on electronic music by any means other than using instruments?

• Does electronic music require a performer?

• Does it still make sense to think in terms of the ‘durability’ of pieces of music?

Rémi Dury

Intervenants Speakers

© D

AFAC

T.CO

M

www.dafact.com/fonctionnalites.php?id_product=$www.dafact.com/technologie.php?id_product=$www.vimeo.com/$%&&%''$www.vimeo.com/#($!!&)%www.vimeo.com/'&")#"&$www.vimeo.com/$%&&)"$(www.vimeo.com/!"!)()"(www.youtube.com/watch?v=HKWAgbo(LFQ

Page 11: ARS musica

11/ arsmusica.be

« La spatialisation de la musique est aussi fondamentale au moment de l’écriture que la construction générale de l’œuvre, que l’harmonie ou que le rythme » - Karlheinz Stockhausen

Les musiques électroacoustiques sur support, dites acousmatiques, par leur choix délibéré du «rien à voir» sont par excellence l’axe développé par le laboratoire de recherche sur l’espace comme élément musical. L’espace n’est plus surajouté au son, il en est une composante intégrale. Les techniques actuelles (réverbération à convolution, dispersion granulaire, pistes multipistes, etc.) convergent vers une écriture spatiale qui applique à chaque être sonore sa vie propre, indépendante des autres, tout en l’intégrant dans la multiplicité globalisée du monde dans lequel il évolue.

Comme tout élément musical, l’espace du son revêt le niveau de fonction musicale que le compositeur veut lui accorder. Dans ce cadre, la spatialisation désigne l’action de distribuer, de faire circuler un son ou une musique dans un espace de di!usion. Elle peut être réalisée dans le cadre d’un studio, au moment de la composition et/ou lors de l’interprétation de l’œuvre en concert. Notre recherche s’est d’abord portée sur la conception d’un ensemble d’outils qui permettent à un compositeur la réalisation de figures complexes de spatialisation en temps réel au moment de la composition de l’œuvre, en studio. Afin de garantir une bonne ergonomie, une grande flexibilité et une certaine virtuosité, ces outils sont manipulés à travers une interface tactile multipoint.

Nous nous sommes ensuite penché sur la problématique de la spatialisation en concert. Actuellement, les quelque 70 haut-parleurs d’un Acousmonium sont pilotés par l’interprète à travers une interface de type «table de mixage». Chaque

curseur permet de moduler le niveau de chaque enceinte individuellement. De par la contrainte humaine (deux bras et dix doigts) il est di"cile, voire impossible, de réaliser certaines figures de spatialisation. De plus, les interprètes débutants sont souvent perdus face à la complexité de manipulation et de mémorisation des curseurs.

Nous avons donc développé plusieurs prototypes d’applications qui permettent de piloter avec une surface tactile multipoint (une sorte d’iPad géant) l’Acousmonium. Nous pouvons dès lors avec un seul doigt contrôler plusieurs haut-parleurs en même temps et ainsi passer d’une «couleur d’Acousmonium» à une autre en un seul geste simple et précis. Nous pouvons ainsi «déplacer» des sons en largeur, en hauteur, en profondeur, nous pouvons localiser précisément un son ou au contraire le rendre di!us avec un simple déplacement de doigt sur la surface tactile. Comme cette surface est également un moniteur, nous pouvons a"cher un retour visuel à l’interprète qui reste informé en temps réel sur l’état de l’Acousmonium et le suivi de son œuvre. Nos programmes sont utilisés en complément du système traditionnel, ils ne sont pas là pour remplacer la console de mixage qui reste plus e"cace dans certains contextes. Ce travail projet est supporté par le Laboratoire de Recherche en Arts et Sciences (LARAS) de l’ISIB et l’ASBL Musiques et Recherches.

Rudi Giot parlera également de son travail de recherche sur les instruments, les interfaces et contrôleurs qu’il a développés.

Rudi Giot

Intervenants Speakers

© JE

AN-F

RAN

ÇOIS

FLA

MEY

© L

ARAS

Page 12: ARS musica

12/ arsmusica.be

‘At the moment when it is being written, the spatialisation of a piece of music is just as important as its general construction, or its harmony or rhythm.’ - Karlheinz Stockhausen

So-called ‘electroacoustic’, or ‘acousmatic’ music is deliberately made with nothing obvious visual component for the audience, and as such is the product of music research laboratories which focus on using space as a key element of the music. Space is not something which should be added on top, but rather it is an integral part of sound. Current techniques (convolution reverb, granular ‘dispersion’, multitracks etc.) are now coming together to form a ‘spatial’ writing style giving each sound its own life, independent of other sounds, while at the same time integrating each sound into the wider multiplicity of the ‘world’ where it evolved.

As with every element of music, the space or location of a sound can take on whatever musical function the composer wants to give it. In this regard, spatialisation therefore designates the action of distribution, of making a sound or music spread and di#use through space. "is can happen in the studio at the time of composition and/or during the performance of a piece in a concert-setting. "e original aim of our research was to formulate an idea for a collection of tools which would allow the composer to realize complex !gures of spatialisation in real time at the time of composition, in a studio. In order to make sure it worked ergonomically, as well as ensuring wide $exibility and the potential for a certain level of virtuosity, the tools were to be manipulated by means of a tactile, multipoint interface.

However, we were then faced with the question of how to implement spatialisation in a concert setting. "e Acousmonium has some 70 speakers, and at present the performer can control these by means of a ‘mixing table’

interface. Each slider allows the performer to adjust the level of each speaker separately. However, due to practical constraints (the fact that humans only have two arms and ten !ngers), it is very di&cult or even impossible to realize certain !gures of spatialisation with this system. Moreover, novice performers o%en feel overwhelmed by the complexity of this interface, and the fact that they have to memorize the di#erent sliders.

So we have now developed numerous prototype applications which are controlled via a multipoint tactile surface (a kind of giant iPad), namely the Acousmonium. "is makes it possible to control a number of speakers using just one !nger, and it is also possible to move from one Acousmonium ‘colour’ to another using just one simple, precise gesture. It is also possible to move the sounds in all directions throughout the space, adjusting their width, height and depth. We can give a sound a very precise location, for example, but we can also make it more di#used simply by moving a !nger on the tactile surface. As this surface is also a monitor, the performer also has visual feedback, thereby getting real-time information on the state of the Acousmonium, and the progress of the piece being performed. Our programmes can be used alongside traditional systems, and our aim is not to replace the mixing console which is still more e&cient in certain contexts.

"is project has support from LARAS (Laboratoire de Recherche en Arts et Sciences - Laboratory for research in Arts and Sciences), by ISIB and the NPO Musiques et Recherches (Music and Research).

‘Rudi Giot was born in the Ardennes in 1967. From a young age he has been passionate about computers and computer sciences. He obtained his engineering diploma at the Polytechnic Faculty of Mons. He also studied the piano and music composition. A%erwards he specialized in electroacoustic music with Annette Vande Gorne. He started building his own electronic music interfaces and musical instruments, thus combining his technical expertise and his love of music. In the past years he has given concerts at the Biéreau farm in Louvain-la-Neuve, at the Senghor Space in Brussels, la Casa de Musica – Portugal, ‘Noche Blanca’ – Chile and collaborates with di#erent artistic projects for IMAL, the Wiels, the Brass and for the Beurs in Brussels.’

Rudi Giot

Intervenants Speakers

© M

USIQ

UES &

REC

HER

CHES

Page 13: ARS musica

13/ arsmusica.be

Les machines peuvent-elles nous aider à devenir plus créatifs ?

La question est au centre du projet Flow Machines, dirigé par François Pachet (directeur de SONY CSL Paris) et subventionné par le European Research Council (ERC). L’idée de base du projet est de lier la créativité à la notion de « style ». Le style est ce qui rend un auteur - peintre, écrivain ou compositeur - di!érent et reconnaissable. Inventer un style est un processus long, qui dure parfois une vie entière. En e!et, lorsqu’on observe les parcours d’artistes qui sont arrivés à inventer un nouveau style, on se rend compte qu’ils ont commencé par manipuler le style des autres jusqu’à ce que quelque chose de nouveau et intéressant en émerge.

Le projet Flow Machines regarde ce problème d’un point de vue informatique : comment une machine peut-elle comprendre le style d’un auteur et le transformer en objet computationnel ? Un objet qui, plus spécifiquement, puisse être manipulé par les utilisateurs pour donner vie à de nouvelles créations - avec leurs propres contraintes. L’exposé présentera les récents résultats du projet avec des exemples de générations stylistique en composition de chansons (leadsheets), harmonisation à plusieurs voix, accompagnement automatique «dans le style de» et des résultats plus exploratoires en improvisation.

Références et illustration sur les résultats du projet : En particulier cet article récent dans «The Atlantic».

Can machines help us to become more creative?

"is is the question addressed by Flow machines, a research project headed by François Pachet (director of SONY CSL Paris) and funded by the ERC (European Research Council). "e basic idea behind the project is to explore the link between creativity and ‘style development’. Style is arguably the thing which makes an artist (painter, writer or composer, etc.) recognizable, and di#erent from others. Inventing one’s own style is usually a lifelong process which involves manipulating and playing with other people’s styles until something interesting can emerge.

"e Flow Machines project approaches this issue from a computer science perspective: how can a machine understand and abstract style from a given corpus and turn it into a computational object? "is presentation will present some recent results in the area, including computer-generated songs (leadsheet) composition, multi-voice orchestration, and automatic accompaniments ‘in the style of ’, as well as more exploratory results from machine-assisted improvisation.

Further references and illustration of the results of the pro-ject can be found in the following, recent article in ‘"e Atlantic’.

François Pachet

Intervenants Speakers

www.flow-machines.com

© S

ERGE

I KAR

PUKH

IN/R

EUTE

RS

Page 14: ARS musica

14/ arsmusica.be

Lecture pour « La beauté du geste »

Compositeur, réalisateur de films de danse et artiste polymorphe, Thierry De Mey n’a eu de cesse tout au long de son parcours, de recenser, observer, disséquer le mouvement afin d’en décliner l’empreinte au travers de gestes artistiques et poétiques convoquant tant la musique que le cinéma, la danse et les écritures numériques.La trace du mouvement, son écriture, son souvenir ou sa persistance, sont en e!et les concepts et lignes de forces qui traversent l’ensemble du travail de l’auteur.

« Initiée au début des années 1980, ma démarche a voulu de plus en plus consciemment la proximité du mouvement – principalement du corps humain - au cœur de l’écriture musicale. Non seulement par la collaboration régulière avec

la danse mais aussi par l’exploration de l’état de tension à la frontière entre le geste et le son produit, entre l’écriture chorégraphique et la partition, entre les mouvements du chef, de l’interprète et l’exécution musicale… Ces préoccupations se sont concrétisées par une série de pièces dont :

« Hands »(1985),« Musique de tables » pour trois percussionnistes (1987), « Unknowness »(1996), « Silence must be ! » pour chef solo (2001) ,« Light Music » avec technologie de captation du mouvement (2004),« Pièce de gestes (2008) pour cinq ,« Traceless » (2014).

Ces pièces demandent aux interprètes une attention toute particulière à l’aspect visuel de leurs mouvements et perdraient beaucoup de leur intérêt lors d’une transmission radiophonique ; jusqu’aux cas limites de celles qui s’exécutent en silence. Ce ne sont ni désir de provocation, ni fascination mystique ou nihiliste pour le vide sonore, ni jeu conceptuel dadaïste qui m’ont mené dans cette recherche mais bien un désir de cerner de plus près l’intuition que le « kinétique » – le sens du mouvement – occupe une place décisive au cœur du sens musical.

Avec le mouvement, une cohérence des paramètres s’opère : forme, mélodie, harmonie et rythme ne sont pas envisagés comme des entités distinctes. Un mouvement se produit dans l’espace et le temps, dans le mental et le corps. Et c’est par ce biais du mouvement que j’aborde jusqu’aux aspects les plus strictement musicaux de mon travail.

Cette focalisation sur des mouvements « remarquables » a permis d’initier plusieurs développements relatifs a leur utilisation dans un cadre de création artistique : modélisation des mouvements par modèles physiques pour un contrôle et une utilisation artistique des flux de données (IRCAM), transcription musicale et gestuelle des mouvements par des interprètes, musiciens, danseurs, élaboration de patchs Max et Open Music, mise en place de « ponts » ou « mappings » permettant un aller-retour entre les interprètes captés par des caméras ou des capteurs de mouvements et les gestes « remarquables » modélisés.

Thierry De Mey

Intervenants Speakers

© TH

IBAU

LT G

REGO

IRE

Page 15: ARS musica

15/ arsmusica.be

Reading for ‘!e beauty of the gesture’

Over his long career as a composer, director of dance !lms and artist of many facets, "ierry De Mey has never stopped incorporating, observing, and dissecting all types of movement in order to represent all its various forms by means of artistic and poetical gestures, making use of music alongside cinema, dance and digital compositions. It is these traces of movement, of how movement was ‘written’, of its memory or its perpetuation which are e#ectively the key concepts and thread running through the whole of this artist’s work.

Starting from the beginning of the 1980’s, in my work I was more and more consciously wanting to put movement – above all that of the human body – closer to the heart of music composition. I did this not only by means of regular collaboration with dance, but also by exploring the state of tension we can !nd on the border between a gesture and the sound it produces, between the written choreography and the music score, between the movements of the conductor, the performer and the musical performance… "ese preoccupations were presented more concretely in a series of pieces including:

‘Hands’ (85),‘Musique de tables’ for three percussionists (87), ‘Unknowness’ (96), ‘Silence must be ! ‘ for solo conductor (2001) ,‘Light Music’ with movement-capturing technology (2004),‘Pièce de gestes’ (2008) for !ve,‘Traceless’ (2014).

"ese pieces require the performers to pay very particular attention to the visual aspect of their movements. "ey would be far less interesting if they were performed for a radio broadcast, if not to the point of exclusion for those pieces which happen in complete silence. My research was led not by the desire to produce a means of provocation, nor by a mystic or nihilistic fascination with a sound ‘void’, or even as part of a conceptual Dadaist game, but rather by the desire to capture as closely as possible my intuition that the ‘kinetic’ - the ‘sense of movement’ plays of fundamental role in the musical meaning. Movement helps a coherence between di#erent parameters to emerge. We no longer envisage form, melody, harmony and rhythm as distinct entities. A movement is produced in time and space, both mentally and physically. And it is

by this means of movement that I also approach the more exclusively musical aspects of my work.

Focusing on ‘remarkable’ movements allowed me to instigate a number of developments related to how such movements can be used for artistic creation. For example, through the ‘modelisation’ of movements by physical models which can be used to control and the $ux of data and exploit them for artistic purposes (IRCAM), transcription of music and gestures by performers, musicians or dancers; developing Max and Open Music patches, putting in place ‘bridges’ or ‘mappings’ which make it possible to have two-way contact between the performers who are captured on camera – or those who capture the movements –and the ‘remarkable’ gestures which are being modelled.

Thierry De Mey

Intervenants Speakers

Page 16: ARS musica

16/ arsmusica.be

Mogees est une technologie novatrice qui transforme les objets matériels en instruments de musique uniques, convertissant directement les vibrations, quand on touche ces objets, en son. Le capteur Mogees s’utilise avec une application mobile qui détecte et analyse les propriétés acoustiques des objets et ensuite les modifie pour en faire de la musique.

L’inventeur, Bruno Zamborlin, a commencé à développer Mogees pendant son doctorat (double doctorat : l’IRCAM, Centre Pompidou Paris, et Goldsmiths College, University of London). Ayant attiré l’intérêt du David Zicarelli (Cycling 74), actuellement directeur non-executif de Mogees Ltd, Bruno a lancé une campagne à succès Kickstarter réunissant presque le double de la collecte de fonds ciblée.

Les premiers Mogees sont en train d’être livrés chez les partenaires du projet, mais de nombreux musiciens les ont déjà intégrés dans leurs spectacles en live. Rodrigo et Gabriela ont soutenu la campagne Kickstarter et se sont produits sur scène avec Mogees au Royal Albert Hall à Londres. Avec Mogees, Bruno est parti en tournée en compagnie de Plaid, le duo anglais de musique électronique pendant leur tournée européenne. Cette tournée a aussi proposé un spectacle recent au sein du festival Reverb, organisé par la compositrice anglaise Imogen Heap, dans le Roundhouse à Londres. Ce festival a également été l’occasion de montrer de nombreuses innovations à la pointe de la technologie musicale.

Conor Barry, producteur évènementiel pour Mogees ltd, présentera l’appareil comme une nouvelle interface musicale. Une interface qui maîtrise le pouvoir des technologies mobiles, mais aussi, qui fait la rupture avec l’écran tactile en permettent à chaque objet dans le monde réel, d’être transformé en instrument de musique.

Mogees is a novel technology that turns physical objects into unique musical instruments by converting the vibrations that we make when we touch them into sound on the $y. "e Mogees sensor is combined with a mobile app that detects and analyses the acoustic properties of physical objects and modi!es them so as to make music.

Inventor, Bruno Zamborlin, !rst developed Mogees during his joint PhD at IRCAM, Pompidou Centre Paris, and Goldsmiths University London. Having attracted the interest of Cycling ‘74’s David Zicarelli, now the non-executive director of Mogees Ltd, Bruno established a highly successful Kickstarter campaign, which achieved nearly double the targeted fundraising amount.

"e !rst Mogees are now being delivered to backers, but many musicians have already incorporated Mogees into their live performances. Rodrigo y Gabriela, o#ered their support to the Kickstarter campaign and performed with Mogees on stage at the Royal Albert Hall. Bruno is also touring with English electronic duo Plaid as they perform with Mogees across Europe, including a recent show as part of Imogen Heap’s Reverb festival which exhibited cutting edge music technologies in London’s Roundhouse.

Conor Barry, Events Producer for Mogees ltd will be presenting the device as a new musical interface that harnesses the power of mobile technologies but breaks away from the touch screen by allowing one to turn any object in the real world into a musical instrument.

Conor Barry

Intervenants Speakers

© M

OGE

ES

© M

OGE

ES

Page 17: ARS musica

17/ arsmusica.be

Création d’interfaces gestuelles À l’heure où les interfaces de contrôle des instruments électroniques se multiplient, il devient important de définir, leurs qualités selon trois critères essentiels : # Ergonomie : un instrument est-il adapté à notre morphologie, utilisable de manière prolongée sans fatigue excessive. # Reproductibilité : à stimulus égal, réponse équivalente, car sans comportement prévisible le travail de la virtuosité devient délicat. # Jouabilité : la réponse sonore est-elle en rapport avec le geste déclencheur ? À travers quelques exemples d’interfaces nous allons tenter de montrer comment fabriquer des instruments électroniques répondants au mieux à ces trois critères.

Quels sont les paramètres sonores à contrôler ? Quelles échelles choisir ? Quelles sont les courbes de réponses les plus adaptées ?

Developing gestural interfaces At present there is a big increase in the number of interfaces available to control electronic instruments, and it is therefore becoming increasingly important to classify these according to three essential criteria:

• Ergonomics: is the instrument suitable for the human body? Can the instrument be played for long periods without excessive tiredness or stress? • Reproducibility: will the same stimulus reproduce an equivalent response each time, for if the instrument does not behave predictably, it is very di&cult to work or perform in a virtuosic way. • Playability: does the instrument produce a sound which is linked to the gesture which made it?

By using di#erent examples of interfaces we will explore how electronic instruments can be manufactured to meet these three criteria the greatest possible extent. What di#erent sound parameters need to be controlled ? What scales should be chosen? What are the most appropriate response curves?

Olivier Sens

Intervenants Speakers

© O

LIVI

ER S

ENS

Page 18: ARS musica

18/ arsmusica.be

Orgues Decap

Walter Hus (né en 1959) fit ses premiers pas de compositeur avec le groupe Maximalist! Depuis, il ne s’est jamais arrêté de créer de nouvelles musiques : de la musique de chambre à la musique symphonique et l’opéra sans délaisser le cinéma, le théâtre et la danse.

Depuis 2004, il explore un instrument unique : Les Orgues Decap, orgues acoustiques automatisés, pilotés en midi par un ordinateur, explorant ainsi des rives inouïes et inimaginables pour un instrumentiste. C’est dans les années 1950 que la famille Decap commença à développer ces instruments automatisés, qui, après avoir connu un certain succès laissèrent place au juke-box.

Depuis quelques années, Decap développe une nouvelle technologie permettant un contrôle sur multiples paramètres du son acoustique : volume, vibrato, trémolo, pitch-bend, oscillation etc. La pression de l’air dans l’orgue est contrôlable à la milliseconde près, pour chacun des registres et ce de manière autonome. Walter Hus s’est pris de passion pour ces instruments et est devenu au fil du temps un militant et expérimentateur repoussant les limites de la facture.

Dans son studio au sein de l’entreprise Bruxelloise Namahn (Design Consulting) où le compositeur est en résidence, il crée des œuvres qui vont du soundscape psychédélique à la techno. Dans le projet « Wind controls Wind » - une collaboration avec l’industrie éolienne - Walter Hus transforme en temps réel les données issues des mesures de la vitesse du vent sur Bruxelles en pression d’air insu$é dans les tuyaux des orgues Decap. Ainsi, Éole se transforme en compositeur....

Decap Organ

Walter Hus (born 1959) started work as a composer with the Maximalist! Ensemble in Belgium. Since then he has never stopped creating new music: from chamber music to symphonies and opera, not to mention cinema, theatre and dance.

Since 2004, he has been working with a rather unique instrument, the Decap Organ. "is automated acoustic organ is controlled by midi through a computer, and has features which make it possible to explore new territory which no instrumentalist would normally dream of. "e Decap family started developing these automated instruments in the 1950’s, but a%er some initial success they were increasingly neglected in favour of the juke-box.

In recent years, Decap have been developing a new type of technology which makes it possible to control di#erent aspects of the sound such as volume, tremolo, pitch-bend, oscillation etc. It is also possible to control the air pressure in the organ to the very millisecond, completely autonomously and in all registers. Walter Hus is passionate about his work with these instruments and over the years has become an avid proponent and experimenter, also pushing the boundaries in terms of how the instruments are manufactured.

In residence at his studio at the Brussels company Namahn (a design consultancy), Hus creates pieces ranging from psychedelic soundscapes to techno. One recent project is ‘Wind controls Wind’, a collaboration with the wind power industry. Here, Walter Hus works in real time, taking data for wind speed over Brussels and converting them into air pressure levels to be projected into the tubes of the Decap organs. Almost like turning Aeolus, the Greek god of wind, into a composer…

Walter Hus

Intervenants Speakers

© W

ALTE

R HUS

Page 19: ARS musica

19/ arsmusica.be

Le geste et la nouvelle lutherie numérique dans la musique électroacoustique

Dès ses débuts, le geste a occupé une place centrale à chaque étape de la production de la musique concrète. Depuis les « séquences-jeu », où le compositeur génère la matière première en manipulant des corps sonores et des microphones et où son geste contrôle tant la génération du son que la manière dont il est enregistré. Le compositeur y est son propre luthier et son interprète privilégié : il invente et perfectionne un nouveau dispositif et le geste instrumental singulier associé. D’autres gestes contrôleront ensuite tour à tour l’évolution des réglages des di!érents équipements de transformation sonore, l’édition et le mixage. La panoplie des moyens disponibles s’éto!e au cours des années et des techniques de jeu se généralisent. Elles reposent sur la possibilité d’accéder physiquement et simultanément à un grand nombre de paramètres.

Le passage au numérique, s’il o!rait un éventail de possibilités inouïes, a provoqué une rupture dans cette pratique musicale. L’obligation de décrire complétement l’évolution temporelle des paramètres avant de lancer le calcul et le temps d’attente nécessaire avant de pouvoir en écouter le résultat, brisent la chaîne d’action et de rétroaction auditive qui permet l’existence d’un geste de nature instrumentale.

Or ce type de geste, que j’avais développé dans ma pratique musicale sur les synthétiseurs modulaires et sur des systèmes hybrides, associant des modules de traitement divers à un contrôle informatique et à des interfaces gestuelles, m’a toujours semblé indispensable pour explorer et pour

exploiter valablement les possibilités expressives des outils. Dès que j’ai eu accès à un système temps-réel, d’abord l’ISPW en 1992 à la Faculté Polytechnique de Mons, puis des systèmes plus rapides à ARTeM et à l’Institut Numediart de l’UMons, je me suis mis à développer parallèlement des outils numériques temps-réel d’analyse, de synthèse, de transformation et de spatialisation sonore et des interfaces gestuelles pour en contrôler les paramètres.

En complément des claviers et des potentiomètres, la mise en œuvre de toute une gamme de capteurs (pression, flexion, force, lumière, IR, ultrasons, dataglove, accéléromètres, gyroscopes, magnétomètres…), permet créer des « instruments virtuels » qui répondent à des gestes plus librement définis, indépendamment des algorithmes de traitement utilisés. Le feedback auditif est rétabli, le musicien peut explorer intuitivement, à l’oreille, de nouveaux univers sonores. Il peut s’entraîner, perfectionner son geste, acquérir une virtuosité, maîtriser les nuances et développer de nouvelles possibilités expressives.

Associés à des logiciels d’analyse, de simples microphones ou des caméras vidéo permettent également de capter les gestes. Les instruments virtuels sortent du studio de composition et réagissent au jeu de musiciens acoustiques, aux mouvements et aux déplacements de danseurs sur scène ou de visiteurs dans des installations interactives, étendant ainsi ces nouveaux gestes instrumentaux à d’autres domaines d’application dont je montrerai divers exemples vidéo.

Todor Todoro!

Intervenants Speakers

© K

RIST

INA I

ANAT

CHKO

VA -

EVAN

ESCE

NS

Page 20: ARS musica

20/ arsmusica.be

Gesture and new digital instruments for electroacoustic music

Gesture took an important place in the making of ‘Musique Concrète’ from its beginning. In a step called ‘sequences-jeu’, the composer creates the original sound material through the manipulation of sound bodies and microphones. He is both his own instrument maker and his performer. He invents and re!nes a physical set-up that becomes his instrument and he develops a particular set of playing techniques to make it sound. But he is also in control of the gestures responsible for the recording of the sounds, providing thereby a !rst acoustical transformation step. Other gestures are used to control the parameters of the various e#ect units, the editing and the mixing stages. As more equipment became available over the years, some playing techniques became common in the !eld. "ey relied on the fact that most parameters were physically accessible at any time.

"e introduction of digital processing o#ered new unheard sound possibilities, but put a temporary end to those musical practices. Most early programs required composers to de!ne the time evolution of all parameters before starting the computation. "en there was a waiting time before the sound result could be heard, breaking the auditory feedback that made the existence of a gesture akin to an instrumental one possible.

It is precisely that instrumental nature of gesture that I had developed in my musical practice, on modular synths and on hybrid systems that combined various equipment,

a computer and gestural controllers. I always considered gesture to be the most e#ective way to explore and to develop the expressive potential of tools. "erefore, as soon as I got access to real-time systems, !rst the ISPW in 1992 at the Polytechnic Faculty in Mons, later more powerful tools at ARTeM and at the Numediart Institutes of UMons, I set up to develop two axes in parallel: real-time digital tools for analysis, synthesis, processing and spatialization of sound as well as gestural interfaces to control their behaviour.

To complement the usual keyboards and faders, a whole range of sensors was put to use (pressure, bend, force, light, IR, ultrasound, dataglove, accelerometers, gyroscopes, magnetometers, etc.), in order to create ‘virtual instruments’ that respond to freely de!ned gestures, independently of the underlying algorithms. When auditory feedback is re-established, the musician starts to explore more intuitively the new sound possibilities o#ered by digital processing. He is able to train and perfect his gestures, to gain a virtuosity that allows him to master !ner nuances and to develop new expressive power.

Simple microphones or cameras, linked with analysis tools, can also track gestures. Virtual instruments are no longer limited to studio use. "ey accompany live acoustic musicians, react to the movements of dancers on stage, to visitors in installations. I’ll show some video examples of the expanding application !eld of those new musical gestures.

Todor Todoro!

Intervenants Speakers

© N

ATH

ALIE

MAU

RY -

PEN

DUL

A

Page 21: ARS musica

21/ arsmusica.be

Comment développer de nouveaux outils de traitement sonores ?

Le développeur d’application audio se trouve en permanence confronté à des contraintes qui peuvent être contradictoires : # répondre à besoin musical. # faire un traitement original. # compatible avec toutes les plateformes (RTAS, AAX, AU, VST2, VST3, etc.). # toujours à jour. # rapporter de l’argent si commercialisé.

Il faut donc trouver le meilleur compromis entre ces contraintes artistiques, techniques et commerciales, et la liberté de développement qui permet d’expérimenter et d’innover. Je présenterai un certain nombre d’exemples tirés de mon expérience de développement des outils GRM Tools qui montrent les solutions qui ont été trouvées pour les di!érentes versions de ces outils.

Après des études à l’Ecole Nationale Supérieure des Télécommunications, il intègre l’équipe de Peppino Di Giugno à Ircam en 1981. Il est chargé du développement

d’algorithmes de traitement du signal sur le processeur 4X, ainsi que de l’environnement de programmation de ce processeur. En 1989 il rejoint l’Iris (groupe Bontempi-Farfisa) où il participe au développement de la workstation musicale MARS. Il participe aussi à l’étude et la conception de di!érents circuits intégrés spécialisés dans la synthèse et le traitement audio.

Depuis 1994, il est Responsable technique du Groupe de Recherches Musicales de l’Institut National de l’Audiovisuel. Il y assure le développement et le suivi des projets GRM Tools (outils de traitements audio en temps réel sur plate-forme commerciales), et Acousmographe (outils de notation des musiques non écrites).

GRM

Pionnier de la musique électroacoustique, le Groupe de Recherches Musicales (GRM) est un laboratoire d’expérimentation sonore unique au monde. Depuis 1958, il développe des activités de création et de recherche dans le domaine du son et des musiques électroacoustiques.

Emmanuel Favreau

Intervenants Speakers

© E

MM

ANUE

L FAV

REAU

Page 22: ARS musica

22/ arsmusica.be

How to develop new tools for sound processing?

Anyone who is developing audio applications will constantly be faced with di#erent, and sometimes contradictory requirements, for example: • meeting the needs of the music • trying to produce a product which is original • making it compatible with all the di#erent platforms (RTAS, AAX, AU, VST2, VST3 etc…) • always being up-to-date • having the potential to be pro!table, if the product goes commercial.

You therefore have to !nd a compromise between these di#erent artistic, technical and commercial constraints, while at the same time wanting the freedom to develop things in a way which allows for experimentation and innovation. I will present a certain number of examples drawn from my own experience of developing the GRM Tools in order to demonstrate some solutions which have been found for the di#erent versions of these tools.

A"er studying at l’Ecole Nationale Supérieure des Télécommunications (National School of telecommunications),

in 1981, Emmanuel Favreau joined the team of Peppino Di Giugno at Ircam. He was responsible for developing algorithms for signal processing on the 4X processor, alongside developing the programming environment of this processor. In 1989, he joined Iris (Bontempi-Far!sa group) where he collaborated on the development of the MARS music workstation. He also participated in research and development of di#erent specialized integrated circuits for audio synthesis and processing.

Since 1994, he has been the technical director of the Group for Music research at the INA (Institut National de l’Audiovisuel). $ere he is responsible for the development and implementation of GRM Tools projects (tools for audio processing in real time on commercial platforms), and Acousmographe (tools for transcribing non-notated music).

GRM

As a pioneer in electroacoustic music, the GRM (Groupe de Recherches Musicales or Group for music research) is the only laboratory of its kind for sound experimentation. Since 1958, it has been active in development and research into sound and electroacoustic music.

Emmanuel Favreau

Intervenants Speakers

© E

MM

ANUE

L FAV

REAU

Page 23: ARS musica

23/ arsmusica.be

OMax

Depuis les débuts de l’informatique, les ordinateurs ont été utilisés fructueusement pour générer de nouvelles musiques à travers de synthétiseurs de toute sorte et/ou de nouvelles interfaces. Au cours des dernières décennies, l’utilisation de systèmes dit génératifs s’est progressivement tournée des outils pour la composition – en notation traditionnelle (Open Music, PWGL…) ou directement à partir du matériau sonore (Apple Logic, Pro Tools…) – vers l’invention de programmes réactifs pouvant participer à une improvisation musicale, situation bien plus imprévisible et stimulante (Ableton Live, Live Coding…).

Le travail présenté ici se concentre sur la conception, la réalisation et l’utilisation d’un tel système informatique,

capable d’interagir musicalement et pertinemment avec des musiciens acoustiques dans le cadre de l’improvisation libre collective, c’est-à-dire de l’improvisation détachée de toute structures, règles ou style prédéfinis. Nous étendrons ce cadre à la fin de la présentation en y intégrant l’utilisation de propriétés émergentes telles que la pulsation ou une notion large d’harmonie.

Le projet et logiciel OMax propose d’aborder le problème de l’improvisation non-idiomatique par l’apprentissage et l’imitation à la volée du style d’un musicien à l’aide d’un modèle de connaissance non-spécifique à la musique. Il s’agit donc d’écouter et d’enregistrer le discours sonore d’un instrumentiste acoustique au fil de son jeu, d’analyser à la volée plusieurs aspects musicaux de ce discours (notes, timbres, polyphonie…) puis de construire une cartographie générique de l’enchaînement de ces éléments au cours du temps. En parallèle de sa construction, cette cartographie est utilisée pour générer de nouveaux enchainements des motifs de sorte à répondre avec de nouvelles variations inattendues.

Cependant, pour être pertinent(s), c’est à dire adapté(s) au contexte musical courant, le ou les discours générés par l’ordinateur doivent intégrer et respecter des caractéristiques musicales implicites, floues voire contradictoires, dépendantes d’une esthétique musicale non précisée a priori et propre à chaque musicien, ensemble, morceau, ou session d’improvisation. Nous verrons la part de cette adaptation contextuelle qui est déjà intégrée à l’écoute et l’intelligence actuelle du système ainsi que la part et les outils pour la prise en main de cette interprétation par l’opérateur du système qui devient alors partie prenante de l’improvisation tel un musicien.

Benjamin Lévy

Intervenants Speakers

© P

ATRI

CK A

GEN

EAU

© B

ENJA

MAI

N LÉ

VY

Page 24: ARS musica

24/ arsmusica.be

OMax

Since the beginnings of computer science, computers have been used fruitfully for the generation of new music through synthesizer so%wares or new interfaces for example. In the last decades, their utilization to create generative systems moved from the implementation of tools for composition – using traditional music notation (Open Music, PWGL…) or sonic material (Apple Logic, Pro Tools…) – towards the invention of reactive programs aimed at participating in the much more unpredictable and challenging situation of musical improvisation.

"e work presented focuses on the conception and realization of such a so%ware, capable of pertinent interaction with acoustic musicians in a collective free improvisation, that is an improvisation without any predetermined knowledge of structures, rules or style. We will extend this frame at the end of the talk with considerations on emerging properties such as pulse or a broad notion of harmony.

"e OMax project proposes to approach the problem of non-idiomatic improvisation by learning and mimicking the style of a musician with a non-speci!c knowledge model. "e system is continuously listening and recording the musical discourse of an acoustic musician along his/her playing. It analyses on the $y several musical aspects of this $ow (notes, timbres, polyphony…) then it builds some kind of comprehensive map based on the sequence of the elements along the time. In parallel of its building, this map is used to generate new chaining of pattern in order to create a musical answer with unexpected variations.

However, to be pertinent, which means adapted to the current musical context, the computer-based discourse must integrate and follow musical characteristics that are o%en implicit, fuzzy or even con$icting. "ose properties also depend on the musical aesthetic of each musician, ensemble, piece or improvisation session. We will examine the part of this contextual adaptation that is already included in the listening and intelligence of the computer system as well as the part and tools used by the operator of the system to assume this interpretation. He/She becomes this way a musician playing a real part of the on going improvisation.

Benjamin Lévy

Intervenants Speakers

© B

ENJA

MAI

N LÉ

VY

Page 25: ARS musica

ARS MUSICAInternational contemporary music festival

Galerie Louise – Louiza Galerij 203/1B-1050 Bruxelles – Brussel

www.arsmusica.be

SABAM

Rue d’Arlon 75-771040 Bruxelles – Brussel

www.sabam.be

ANCIENNE BELGIQUE

Boulevard Anspach / Anspachlaan, 1101000 Bruxelles – Brussel

www.abconcerts.be


Recommended