IRMA

Centre d'information et de ressources pour les musiques actuelles

Connexion / inscription

Le panierVotre panier est vide

PUBLICITE
Accueil du site
Accueil du site > Documentation > Focus > QUALITÉ SONORE : ENREGISTREMENT, FORMATS, COMPRESSION, MODES DE CONSOMMATION... : Traitements et mauvais traitements : que vaut la musique que l’on écoute (...)

Article mis à jour le mercredi 10 septembre 2014
Article créé le mercredi 6 juin 2012

 
Version imprimable de cet article Version imprimable  
Article

QUALITÉ SONORE : ENREGISTREMENT, FORMATS, COMPRESSION, MODES DE CONSOMMATION... : Traitements et mauvais traitements : que vaut la musique que l’on écoute ?

Le son est la matière première de la musique. Mais la dimension artistique doit aussi composer avec des impératifs techniques. Le CD a 30 ans et le MP3 bientôt 20 ! Si ce dernier a révolutionné la portabilité, le stockage et la diffusion, cela ne s’est pas fait sans contraintes… Alors, quid de la qualité sonore à l’heure de la dématérialisation ? Pendant que technologie et musique se marient au gré des innovations, le son est-il voué à rester le parent pauvre du nouveau panorama musical ?

Pour tenter d’y répondre, l’Irma vous propose ce mois-ci un focus et une conférence.

Quelle qualité sonore accorde-t-on à la musique ? Il y a ceux qui affirment que rien ne vaudra jamais le vinyle, ceux qui, arborant un casque audio siglé du nom d’un rappeur producteur célèbre ne jurent que par la "puissance des basses", ceux qui saturent, ceux qui préfèrent écouter qu’entendre… L’appréciation de la qualité sonore implique forcément des critères subjectifs. Mais la matière sonore implique aussi des données objectives qui participent à la définition de sa qualité.

Entre le moment de l’enregistrement d’une chanson en studio et son écoute par les consommateurs, quels (mauvais ?) traitements sonores subit-elle ? Dans une période de pleine mutation du marché de la musique, qui doit concilier volonté artistique, contraintes technologiques et choix stratégiques et commerciaux, la qualité a-t-elle un avenir ? Fait-elle partie de cette nouvelle "chaîne de valeur" que tout le monde veut recréer ? Pour aborder ces questions, revenons sur ce qui est, encore actuellement, immuable : notre physiologie de la perception auditive.

Le son, l’oreille et la perception

L’oreille humaine est une structure d’une sensibilité surprenante. C’est une mécanique de précision qui nous permet non seulement de percevoir les ondes sonores, mais également leur spatialisation. La position de nos oreilles nous permet de savoir d’où provient un son (en général, on ne se trompe pas de côté pour éteindre le réveil !) Elles nous permettent également de focaliser notre attention sur un bruit en particulier au milieu d’un brouhaha. C’est ce que l’on appelle la capacité de discrimination auditive et la perception sélective.

Les ondes sonores couvrent une plage de fréquences qui s’étend de moins d’1 Hz à des millions de Hz. Mais nous ne sommes pas tout puissants, et l’oreille humaine ordinaire réagit à une bande de fréquences étroites, comprise entre 20 et 20 000 Hz. En dessous de 20 Hz, seules les vibrations sont perçues par le corps (d’où la sensation physique provoquée par les infrabasses). Par exemple lors d’un orage, on peut sentir l’air "trembler" silencieusement. Ne pas entendre certaines fréquences ne veut pas dire qu’elles n’existent pas, ni qu’elles sont inutiles. Tout ne se joue pas au même endroit de la bande. Sans leur perception des ultrasons, les chauves-souris ne pourraient pas voler ! Après, c’est comme pour tout, nous ne sommes pas égaux : certains individus n’entendent pas, ne supportent pas, ou déforment certaines fréquences.

Ainsi, si la perception d’une "qualité sonore" peut être impactée par des questions psychologiques (sociales, culturelles, d’éducation…), l’aspect physiologique reste un préalable incontournable et déterminant de "ce qu’on écoute" et/ou du "comment on l’entend". Dans ce cadre, on peut même définir un critère objectif : plus l’intégrité du spectre original d’un son est respecté, plus il est naturel. Qu’en est-il alors de la musique ? De quelles manières les traitements sonores qu’elle subit influent sur la qualité et sur notre perception ? Dans quelle mesure les nouveaux modes de consommation de la musique influent sur la façon de le produire ? Pour faire simple : comment sont formatées nos oreilles ?

Le son d’aujourd’hui : une génération sacrifiée ?


« Il y a une règle qui ne souffre d’aucune exception. Le grand public se détermine sur le choix des innovations technologiques uniquement sur des aspects pratiques, jamais sur une question de qualité. Si la qualité était déterminante, on n’entendrait plus parler du MP3 depuis longtemps. »

Gilles Rettel

Par définition, la musique enregistrée n’est pas une restitution identique du spectre original du son. Pendant longtemps, le principe fût cependant de s’en approcher, comme le vantait le slogan publicitaire des cassettes BASF, "l’émotion intacte". À l’ère du MP3 triomphant, on peut même affirmer que la musique que l’on écoute n’a plus rien de naturel ! Une musique au format MP3 est compressée pour réduire son poids sur un support de stockage. Et cette compression ne s’effectue pas sans pertes. Si l’on représente un fichier musical sous la forme d’une sinusoïde, cette étape va couper les crêtes du signal, supprimant de fait les fréquences les plus hautes et les plus basses du morceau original. On obtient donc une version réduite, incomplète.

Nos oreilles ont pris l’habitude d’écouter une musique compressée, non naturelle, non fidèle. Elles sont, sauf pour celles des audiophiles avertis, formatées aux normes définies par les modes de production de la musique, les contraintes et les avancées technologiques, les choix et impératifs industriels de formats et la performance des appareils d’écoute. À l’opposé de l’ère de la hi-fi, la qualité et le respect de l’intégrité sonore ne font plus figure d’éléments primordiaux. De nouveaux critères ont pris le pas et le succès du MP3 s’explique simplement : facilité de stockage d’une grande quantité de titres, vitesse de téléchargement, transportabilité optimale.

Mais tout le temps passé à écouter de la musique a un impact sur la perception. Les supports d’écoute étant majoritairement numériques, la musique numérique est logiquement l’étalon de l’appréciation de qualité. « En 2009, une étude a été réalisée en studio. On a fait écouter en aveugle à des gens une même chanson dans 6 formats différents de compression. Le fichier source arrivait à l’oreille des gens en 5e position en terme de qualité ! » explique Gilles Rettel, réalisateur artistique, expert et formateur en technique du son. Il poursuit : « Le son naturel n’est plus accepté par l’oreille moyenne. Pour qu’il apparaisse agréable, il doit être retraité. » Pour comprendre ce qui se joue réellement, il devient donc utile de détailler ces différents traitements que subit la musique, depuis l’enregistrement en studio jusqu’à la mise à disposition auprès du public.

Les traitements de la musique

Au moment de l’enregistrement d’un titre en studio, des choix peuvent influer sur la qualité ou la couleur du son. Les prises sont souvent faites piste par piste, c’est-à-dire grosso modo, instrument par instrument. Le choix peut déjà être fait d’utiliser un compresseur, surtout sur les voix. Mais la première grande étape de traitement du son, c’est le mixage.

Le mixage

Le mixage audio, ou « mix » dans le jargon des ingénieurs du son ("sondiers" pour les intimes), est une étape qui intervient une fois enregistrées toutes les pistes nécessaires à la constitution d’un titre. Il s’agit d’équilibrer et d’harmoniser les fréquences et les amplitudes (volume) relatives de ces différentes pistes. L’objectif : permettre d’entendre et de comprendre tout ce qui se passe dans un enregistrement. Par exemple, la batterie ne doit pas couvrir le chant, il faut bien distinguer les deux parties de guitare, etc. Là encore, des choix artistiques interviennent : ce peut être une volonté de ne pas trop mettre en avant la voix, ou au contraire, de la faire "surnager" par rapport à la musique (comme c’est souvent le cas pour la chanson ou la variété). C’est aussi le moment ou l’on applique des effets : réverbération, delay, compression, etc. Chaque instrument se voit ainsi placé dans le spectre audio.

Cette étape permet d’aboutir à la production d’un signal numérique de 44,1 kHz en 16 bits. Ce sont les caractéristiques standard pour la création d’un CD. Ce fichier numérique est alors prêt pour l’étape suivante : le mastering.

Le mastering

Après le mixage, un morceau ou un ensemble de morceaux est assemblé pour devenir un "programme", c’est l’étape du mastering. C’est un processus qui consiste à appliquer une série de traitements au son pour transférer un, ou un ensemble d’enregistrements sur un support appelé master. Son but premier est de rendre homogène cet ensemble, et d’adapter le son aux standards du marché. Ce master servira pour le pressage du support lui-même (CD, SACD, DVD…), ou la mise à disposition du public via des plateformes musicales en ligne.

Ce procédé est réalisé dans des studios de mastering, équipés de matériel spécifique de très haute précision permettant de ne pas dénaturer l’œuvre enregistrée originalement. Les techniques utilisées sont étroitement liées à l’ingénieur qui les pratique, chaque ingénieur étant associé à un son qui lui est spécifique. Une manière de traiter le son qui fait sa réputation. Une fois le son traité, l’ingénieur dispose de fichiers de formats différents. Il peut livrer les fichiers optimisés dans leur format d’origine (88,2 kHz et en 24 bits), les préparer en vue de l’édition d’un CD, et fournir une version MP3 pour la distribution en ligne.

Cette étape du mastering est primordiale, mais elle est aussi à l’origine de débats. En effet, c’est à ce moment qu’est défini le taux de compression audiodynamique qui sera appliqué à un titre.

La compression audiodynamique

La dynamique (audio) définit l’écart existant entre le son le plus faible et le plus fort dans un morceau. L’unité de mesure de la dynamique est le décibel (dB). 0 dB est le seuil de l’audition, 120 dB est le seuil de la douleur. La compression dynamique audio consiste à réduire artificiellement cette dynamique, cet écart entre les sons faibles et les sons forts. Compression audio signifie réduction de la dynamique. Quel est alors l’intérêt de réduire la dynamique ? D’obtenir l’impression d’un son plus gros, plus fort. Ce recours à la compression procède à la base d’un choix esthétique opéré avec l’arrivée de la musique rock, comme l’explique Gilles Rettel : « la compression donne l’impression d’énergie. Plus on compresse, plus on ressent l’énergie. Et vu que le rock, c’est la musique de l’énergie… C’est donc cohérent. » Le problème, c’est qu’un « choix à la base esthétique devient une norme ». Et comme toute norme, elle formate le grand public. Pour bien comprendre ce qui se joue dans la compression audiodynamique, deux exemples peuvent être éclairants.

Tout d’abord, la publicité. Tout le monde a déjà éprouvé cette sensation en regardant la télévision : la publicité est a un volume plus fort qu’un film ou une émission. Ce n’est pas une question de volume, mais l’effet d’une forte compression du son (NB : depuis début 2012, la loi interdit de recourir à la compression pour les spots publicitaires). Autre exemple : en passant un disque enregistré il y a plusieurs années, vous avez l’impression que le volume sonore est faible, que la chanson manque d’énergie. En réalité, le son est juste moins compressé.

Et quand on parle d’éditions remasterisées d’albums, c’est encore le même mécanisme. Il s’agit de refaire passer à un album l’étape du mastering pour le mettre aux normes de son d’aujourd’hui. Comprenez : davantage de compression. Les avancées technologiques permettent effectivement un meilleur traitement du son, mais l’on s’éloigne la plupart du temps du son d’origine. Les disques remasterisés des Beatles n’ont plus beaucoup à voir avec ce que les fab’ four entendaient en studio…

Loudness war

Le recours à la compression est allé crescendo ces dernières années, dans une course au son toujours plus fort, toujours plus gros. Si cela peut se justifier sur certaines esthétiques musicales, c’est une pratique quasi généralisée aujourd’hui. Pour Gilles Rettel, le summum a été atteint avec l’album Death Magnetic de Metallica, paru en 2008. Le son final est tout sauf naturel, et cela entraîne une modification de la perception de l’auditeur. Il n’est plus question de choix esthétique, mais bien de choix stratégiques et commerciaux. « En plus de l’énergie, il y a aussi une autre raison : le morceau le plus compressé sera celui qui paraîtra le plus fort lors d’un passage radio. Et psychologiquement, les gens s’arrêtent plus facilement sur ce qu’ils entendent plus fort. Il n’y a qu’à voir les compressions très élevées pratiquées par les hits radio de la bande FM. » L’air du temps est donc à la surcompression.

Choix esthétique qui devient une stratégie commerciale, puis une norme, la compression se triple d’une autre dimension, celle de la contrainte technique. Avec l’arrivée du numérique, la compression devient également informatique.

La compression informatique


« Nous vivons à l’ère numérique et, malheureusement, cela dégrade notre musique, cela ne l’améliore pas (…) Steve Jobs était un pionnier de la musique numérique. Son héritage est énorme. Mais quand il était chez lui, il écoutait des vinyles (…). Ce n’est pas que le numérique soit mauvais ou inférieur, mais c’est la façon dont il est utilisé qui ne rend pas justice à l’art. Le numérique a forcé les gens à choisir entre la qualité et la facilité d’utilisation, mais ils n’auraient pas dû avoir à faire ce choix ».

Coup de gueule de Neil Young sur rollingstone.com

Le "mauvais traitement" infligé à un enregistrement ne s’arrête pas là. Si la compression audiodynamique vient répondre à des choix esthétiques ou à une conception contemporaine du son qui doit être fort pour être perçu comme bon, c’est bien la compression informatique qui pose le plus de questions sur la qualité finale du fichier.

En informatique, toutes les données sont numérisées, qu’il s’agisse de texte, d’image, de film ou de musique. Que signifie concrètement numériser une information ? C’est la transformer, la convertir en une suite de "bits", le bit étant l’unité élémentaire d’information en informatique. Le mot "bit" est la contraction de l’anglais binary digit (chiffre binaire). Comme son nom l’indique, il ne peut prendre que 2 valeurs : 0 ou 1.

Cette conversion aboutit à la spécification de l’espace occupé sur un disque dur par un fichier. En langage courant, on parle du poids d’un fichier. Plus le fichier est important, plus il est lourd. Tout le monde sait aujourd’hui que la musique "pèse" plus lourd que du texte. Pour réduire le poids d’un fichier, on a donc recours à la compression informatique. Initialement, la compression des données est venue répondre à un problème technologique : des espaces de stockage peu importants, un Internet à bas débit. Pour gagner du temps de transfert, et pouvoir conserver une quantité de fichiers importante, il fallait compresser.

Le problème, c’est que compression signifie dégradation. Il y a perte d’une partie des informations, et la qualité s’en trouve altérée, sans possibilité de récupération. Le problème est de trouver un compromis entre la qualité du fichier, son poids et le canal de diffusion. Même si les taux de compression se sont améliorés, ils ne préservent pas l’intégrité d’un fichier. Il existe aujourd’hui différents formats de compression.

Les formats de fichier audio compressé

Un format de fichier audio, c’est un format de données utilisé en informatique pour stocker des sons, sous forme numérique. L’élément de programme qui transforme le signal en fichier et le fichier en signal s’appelle un codec (abréviation de COder-DECoder). L’industrie a produit de nombreux formats destinés à une application principale ou exclusive, soit à la production, soit à la conservation, soit à la diffusion. Actuellement, le codec le plus utilisé pour la musique est de loin le MP3.

Le format MP3

Le MP3 est depuis le début des années 2000 le format compressé de musique numérique le plus répandu. Ce que l’on ne sait généralement pas, c’est qu’il fut inventé au début des années 1990 suite aux recherches d’une équipe de chercheurs de l’Institut Fraunhofer sous la direction de Karlheinz Brandenburg, et en collaboration avec Thomson. MP3 est l’abréviation de MPEG-1 Layer-3 (MPEG signifiant Moving Picture Experts Group). Comme le rappelle Gilles Rettel, « le MP3 n’a pas été créé pour Internet mais dans le but de réduire la taille des fichiers pour faciliter la diffusion de la radio numérique ». Comment est-il alors devenu le standard de la musique numérique ? Tout simplement par l’action des premières plateformes d’échanges en peer to peer, comme Napster. Un format léger, donc facilement stockable et rapidement téléchargeable. Il était en effet impossible de faire circuler un son de qualité CD-Audio dans les tuyaux de l’Internet de la fin des années 1990. Étant un des plus anciens formats, le MP3 est un des moins performant en terme de qualité. Il est fréquent, pour du téléchargement, que le taux de compression soit réglé autour de 10. C’est-à-dire que l’on supprime 90 % des données.

Pour le MP3, on peut en effet définir un débit allant de 32 à 320 kbps. À partir de 128 Kbps, la qualité audio devient suffisante pour encoder des chansons.

Il existe aujourd’hui différents formats de son compressé. Les codecs utilisant une compression avec perte sont : AAC, MP3, MPEG-4, MPEG-7, MPEG-21, RealAudio, VGF, WMA, AVS.

Les formats de fichier audio compacté

Depuis quelques années sont apparus de nouveaux formats, plus soucieux de conserver l’intégrité des fichiers source. Il s’agit des formats de compactage, dont le plus connu aujourd’hui est le Flac (Free Lossless Audio Codec). Le compactage est différent de la compression. Là où la compression réduit la taille en supprimant des informations de façon irréversible, le compactage se contente de réduire les données pour le transfert. Ces données peuvent être récupérées intégralement. C’est ce que l’on appelle aujourd’hui les formats lossless (en anglais, on utilise le mot lossy pour parler des formats dégradant la qualité). Un format lossless de compactage bien connu de tous aujourd’hui : le zip pour le texte.

Pour donner un ordre d’idée, la réduction de taille dans le cas du compactage est de l’ordre de 50 %, quand le MP3 peut aller jusqu’à 90%… Une fois balayés ces différents éléments techniques et technologiques permettant d’éclaircir le traitement sonore de la musique, de son enregistrement jusqu’à sa mise à disposition auprès du public, où en est l’industrie musicale sur ces questions ?

La qualité sonore : enjeu stratégique ou parent pauvre de l’industrie musicale ?


« Il y aura toujours des gens qui écouteront du MP3 sans se rendre compte que la qualité est mauvaise. Il y aura toujours à côté un marché du "super audiophile", intéressé par le matériel très haut de gamme. Entre ces 2 extrémités, ce qui est intéressant, c’est de proposer de la qualité d’expérience sonore, qui refuse la médiocrité tout en ne se limitant pas aux audiophiles équipés de matériel coûteux. »

Didier Ramage

Comme le rappelle Neil Young dans la citation donnée plus haut, la qualité sonore s’est perdue dans la crise du support physique. Si pendant plus d’une décennie le CD a imposé un standard, l’apparition de la musique numérique l’a fait éclater, et a multiplié les formats. La contrainte technique des débuts de l’Internet (débit, stockage) a établi d’autres critères prioritaires. Si le CD est toujours commercialisé (jusqu’à quand ?), que le vinyle persiste avec des soubresauts périodiques, la musique dématérialisée grappille chaque année du terrain. Du point de vue des revenus, certes, mais en termes de consommation de la musique, les ordinateurs et les baladeurs numériques sont aujourd’hui rois, notamment chez les jeunes générations. Qu’en est-il aujourd’hui de la qualité sonore dans l’offre de musique ?

Le vinyle, la meilleure qualité qui soit ?

Abordons tout de suite une affirmation récurrente : le vinyle serait le support offrant la meilleure qualité sonore. Le snobisme pousse même le connaisseur à affirmer que la meilleure qualité audio qui soit, c’est le vinyle à la première écoute, plus chaude et plus proche du signal sonore d’origine… Le disque vinyle est une source analogique, c’est-à-dire que l’information est stockée de manière directe sur le support. Sur le plan théorique, un CD dispose d’une fréquence d’échantillonnage de 44,1 kHz qui, de fait, bride les fréquences élevées à 22 kHz. Cela engendre une perte de notes sur le spectre audio. Souci qui ne se retrouve pas sur vinyle grâce à son "image spatiale plus précise".

De plus, la dynamique du CD atteint les 100 dB alors que le vinyle privilégie la précision sonore avec une dynamique à 60 dB. Comme le précise Gilles Rettel, « cela dépend des esthétiques : pour le rock oui, mais pas du tout pour la musique classique. Le rock a tout de suite compris qu’il fallait utiliser et intégrer les contraintes du support dans le processus de création. Il y a donc une cohérence entre l’enregistrement des artistes rock des années 1960-1970 et le support de fixation. À partir de là, le rendu sonne mieux sur vinyle que sur les reports CD » En aucun cas, il est possible de généraliser l’affirmation initiale de la suprématie du vinyle, même si celui-ci présente un grain particulier empreint de nostalgie (un critère certes subjectif, mais qui n’est pas sans importance dans la représentation que tout un chacun peut se faire de la qualité sonore). Gilles Rettel enfonce le clou : « aujourd’hui, on achète un vinyle parce que le sens commun veut que ce soit un support de grande qualité sonore, mais avec quel matériel l’écoute-t-on ? Une platine à 100 euros ? Ce n’est même pas le prix d’une bonne tête de lecture… Il ne sert à rien d’acheter du vinyle pour l’écouter sur du matériel de mauvaise qualité. De plus, la qualité sonore d’un vinyle dépend aussi de son mode de pressage. Il faut que toute la chaîne de production soit de très haute qualité ».

La musique en ligne s’est construite sur une dégradation

La musique en ligne (streaming et téléchargement), bien que montrant un intérêt grandissant pour la question de la qualité sonore, reste encore aujourd’hui sur des standards de qualité très moyens. La qualité moyenne des fichiers proposés en téléchargement est de 256 Kbps, quel que soit le type d’encodage proposé (MP3, AAC, WMA..). Pour le streaming, certains en sont toujours au 128, comme Last.fm, voire à 96, comme Jamendo… La norme tend tout de même à aller vers du 320 pour le téléchargement.

Le grand défi des services de musique en ligne est de concilier qualité et taille des fichiers, avec les problèmes afférents de coût de bande passante. Le risque avancé par nombre de plateformes : des fichiers de meilleure qualité, plus lourds, peuvent entraîner des risques de lenteur de lecture ou de téléchargement, et inciter les utilisateurs à se reporter sur les sites concurrents.

Les leaders du marché ont des approches relativement similaires. Itunes propose du MP3 ou du AAC en 256 kbps en téléchargement. Deezer et Spotify opèrent une distinction par type de clients : un débit de 128 kbps et 160 kbps pour le streaming freemium, et jusqu’à 320 kbps pour les abonnés payants. Quant aux offres mobiles, pour ne pas surcharger les réseaux 3G, la qualité est encore pire (entre 96 et 160kbps). Ces choix font bondir Yves Riesel, fondateur de Qobuz, qui affirme : « aujourd’hui, il n’y a plus aucun problème de bande passante. Il n’y a aucune raison pour qu’Itunes par exemple continue à livrer aux gens du AAC 256 ». On le voit, la rapidité du service prime sur la qualité…

Pour une prise en compte pleine et entière de la qualité sonore comme élément central de l’offre de musique en ligne, les questions techniques liées à la fluidité de lecture et de circulation doivent être entièrement réglées. Ce qui nécessite un investissement de la part des acteurs du marché, mais également un renforcement de l’Internet haut débit et un taux d’équipement des foyers encore plus important. Pour ne pas réserver la qualité sonore aux seuls audiophiles, pour qu’elle devienne une norme, même en l’absence de volonté d’une partie du grand public, les plateformes de streaming et de téléchargement devront probablement assumer ce rôle de discrimination positive et d’émulation par le haut. Certains acteurs se sont d’ailleurs déjà positionnés sur ce créneau.

Une offre de qualité


« Quand un artiste, un producteur et un ingénieur du son produisent un album, ils visent un idéal de son, qu’ils se fixent selon des critères esthétiques et artistiques. Le but des appareils d’écoute, qu’ils soient plus ou moins bons, est de reproduire cet idéal. Les machines doivent se mettre au service du résultat et non l’inverse. »

Yves Riesel, Qobuz

Depuis quelques années, des offres légales de musique en ligne mettant au cœur de leur démarche la qualité sonore ont vu le jour, sans remettre en cause la dimension pratique d’écoute ou de téléchargement.

C’est le cas de Qobuz, qui propose des fichiers en qualité CD sur l’intégralité de son catalogue, et une qualité master (en 24 bits) sur environ 2 000 albums. Sur cette plateforme, « aucun fichier n’est inférieur à du mp3 320kbps », comme le précise son fondateur Yves Riesel. Il précise ainsi les raisons de ce positionnement : « il y a je crois, dans le public, un désir de beau son. J’en veux pour preuve l’explosion des ventes de beaux casques audio. L’exigence de qualité sonore est un mouvement qui est lancé, et qui ne va pas s’arrêter ». Qobuz propose même désormais de la musique en 5.1.

De la musique spécialement mixée en 5.1, c’est aussi ce que propose Mysurround, en téléchargement à l’acte. Didier Ramage, son fondateur, précise qu’il s’agit « d’un remixage des pistes et non pas d’une conversion de fichiers stéréo ». Avec en plus la possibilité de disposer du format dbr.wav permettant de graver les albums sur un CD pour l’utiliser sur une chaîne de salon ou un autoradio 5.1. Fait remarquable, dans sa communication, Mysurround ne met pas en avant l’aspect technologique : « ce qui m’intéresse, c’est de faire découvrir le 5.1 au grand public, sans qu’il soit besoin de savoir quel est le codage utilisé. L’idée, c’est que cela fonctionne sur le matériel dont il dispose ou peut disposer facilement, et qu’il se dise que le son est génial ! Ce qui compte, c’est l’expérience sonore, et non pas la qualité technique ou technologique ».

Démarche innovante, mais qui se heurte à un problème. Non pas celui de l’équipement des foyers, les systèmes d’écoute en surround se démocratisant petit à petit, notamment pour les ordinateurs ou les consoles de jeu sous l’impulsion de l’industrie du jeu vidéo, mais lié à la faiblesse du catalogue de productions mixées en 5.1 mis à disposition par les maisons de disques. Didier Ramage ironise d’ailleurs à ce sujet : « dans les années 1970, Pink Floyd proposait des albums en quadriphonie alors que le public n’était pas équipé pour en profiter. Aujourd’hui, beaucoup sont équipés, mais il n’y a quasiment pas d’offre de musique adéquate ».

La qualité sonore, un combat ?

C’est donc également en amont de la chaîne de production de la musique qu’il faut chercher les ralentissements dans la marche vers la qualité, et notamment du côté de la situation actuelle tendue du marché de la musique enregistrée. Yves Riesel le résume ainsi : « un pseudo réalisme économique repousse toujours à plus tard ce qui devrait être fait dès aujourd’hui. Le marché numérique ne compensant pas la baisse du marché physique, l’attention se porte sur le fait de continuer à générer de l’argent. Il faut qu’il y ait une volonté réelle d’aller dans le sens de la qualité, pour justement passer ce mauvais moment que traverse la musique enregistrée ». L’état limite serait atteint si les standards des principaux canaux de distribution en venaient à formater dès l’enregistrement les productions des maisons de disques. Les ingénieurs du son pourraient en effet estimer que la principale utilisation de leur travail ne se fera pas sur support CD, mais aura vocation à se retrouver in fine compressé en format numérique. Les effets se font déjà ressentir, avec la mise en avant encore plus flagrante des basses et des rythmiques. Là encore, l’évolution du marché et la volonté de ses acteurs sont des facteurs déterminants.

Un avenir de qualité ?


« Nous arrivons à la fin d’un premier cycle, pendant lequel on déversé les catalogues en ligne, sans métadonnées bien renseignées et en mauvaise qualité. Dans les 10 ans qui viennent, il y aura un second tour durant lequel les plateformes devront être réapprovisionnées en fichiers de qualité. »

Yves Riesel

Malgré tous les freins évoqués, il y a des raisons de penser que la qualité sonore pourrait revenir sur le devant de la scène, à défaut d’être une norme partagée par tous, musiciens, maisons de disques, plateformes et consommateurs. L’un des grands défis futurs, y compris technologique, reste de tendre vers des formats redorant le concept de (haute) fidélité, de respect de la matière première (le son) et de la forme que lui a donné l’artiste (sa musicalité). Apple serait en train de travailler à une amélioration de ses offres, Deezer également, en se rapprochant du spécialiste du son haute fidélité Dolby. Nombre d’analystes pronostiquent le développement d’offres discriminantes, selon le principe freemium/abonnement déjà validé par l’économie du net.

De quoi sera fait l’avenir ? Probablement d’un éclatement du marché, avec une fragmentation des publics sur un critère traditionnel d’esthétique, mais qui se doublera de celui de la recherche de qualité, entraîné par la multiplication des supports et des formats.

Les priorités et les positionnements des professionnels changent naturellement au gré des évolutions du marché. Reviendra-t-on sur les lignes de l’époque hi-fi (pour high fidelity), ou définitivement, la bande-son du XXIe siècle se doit de sacrifier sa musicalité au contexte de mise en flux ? Et puis l’interconnexion de l’homme et des technologies qu’il crée conduira-t-elle à un transhumanisme producteur de nouvelles formes de perception, où l’appareil auditif ne sera plus limité à ses contraintes physiologiques ? La conception de la qualité aura-t-elle toujours pour idéal la reproduction la plus fidèle qui soit du "son naturel" (sachant que nous n’en percevons qu’une partie limitée) ? Après tout, l’homme étant partie de la nature, on peut considérer que toute production émanant de lui, même à la pointe de la technologie, est naturelle… Toutes ces questions restent ouvertes…


Dossier réalisé par Romain Bigay

PUBLICITÉ

Interviews

Qualité sonore : histoire(s), enjeux, marchés et innovation

Trois professionnels qui placent la qualité sonore au cœur de leurs démarches et de leurs réflexions abordent les thématiques relatives à la prise en compte de celle-ci par les acteurs de l’industrie musicale. Histoire(s), enjeux, marchés et innovations, ces aspects interrogent la filière dans son ensemble, des producteurs jusqu’aux consommateurs.

Avec :
- Gilles Rettel, réalisateur artistique, expert et formateurs en techniques de son

- Yves Riesel, producteur et distributeur phonographique français, directeur et fondateur du label Abeille Musique et du site de vente de musique en ligne Qobuz

- Didier Ramage, ingénieur et musicien, président fondateur de DBR Prod et du site Mysurround.fr

>> Lire les interviews


Live conference
La Musique Demain : quid de la qualité sonore ?

Paris Mix et l’Irma, en partenariat avec Cap Digital, présentent une nouvelle live-conférence du cycle La Musique Demain sur le thème : "Technologie et business de la qualité sonore 2.0". Rendez-vous le 14 juin au 104 (Paris) dans le cadre de Futur en Seine.

>>Pour en savoir plus


IRMA : Centre d'information et de ressources pour les musiques actuellesInformations légalesRégie publicitaireNous contacterPlan du siteRSS 2.0