Le Savoir · Blog · Techniques du Son

Mixage & Mastering —
Le Savoir Sonaxis

Régulièrement, nous partageons nos techniques, astuces et réflexions sur l'histoire et l'évolution des arts du son — du mixage analogique aux outils numériques, de la réverbération à plaque à l'intelligence artificielle. Un espace de transmission, par des praticiens pour des praticiens.

Franck Pasquotti, ingénieur du son
Franck Pasquotti Ingénieur du son · Fondateur Sonaxis Studio · 25 ans d'expertise
8
Articles publiés
25+
Ans de pratique
500+
Projets maîtrisés
192k
Hz haute définition

Tous les articles

Cliquez sur un titre pour lire l'article complet. Chaque article se referme automatiquement quand vous en ouvrez un autre.

Le mixage et le mastering audio sont deux étapes fondamentalement distinctes dans la chaîne de production musicale, et les confondre est l'une des erreurs les plus fréquentes chez les artistes qui abordent la production professionnelle.

Le mixage consiste à régler les niveaux sonores, les panoramiques et les effets de chaque élément d'une chanson pour créer une cohérence et une homogénéité sonore. C'est un travail de sculpture sur la matière brute des pistes enregistrées. Le mastering, quant à lui, vise à préparer la piste stéréo finale pour sa diffusion en ajustant les niveaux globaux, l'égalisation et la compression pour améliorer la qualité sonore et la compatibilité avec les différents supports — streaming, CD, vinyle, broadcast.

Pourquoi un ingénieur du son ? Un ingénieur expérimenté possède les compétences et les outils pour obtenir les meilleurs résultats. Il maîtrise les normes de qualité sonore, les formats de diffusion (Spotify LUFS, Apple MFiT, DDP pour CD) et sait utiliser l'égalisation, la compression et le limiting pour améliorer clarté et puissance sans perdre en dynamique.

La qualité des convertisseurs est essentielle — ils permettent de convertir les signaux numériques en signaux analogiques pour les restituer fidèlement sur les enceintes. Chez Sonaxis, nous utilisons le Prism Lyra 2 et le Lavry DA10, deux références absolues dans le domaine. Les enceintes de monitoring Klein & Hummel O 300 garantissent une restitution fidèle sur l'ensemble du spectre fréquentiel, et le traitement acoustique de la salle, conçu avec Gérard Lavigne, permet des décisions sonores précises et fiables.

En résumé : confiez votre mixage à quelqu'un qui comprend l'intention artistique de votre musique, et votre mastering à quelqu'un qui connaît les exigences techniques de chaque plateforme de diffusion. Idéalement, la même personne — pour une cohérence totale du début à la fin.

Un mixage audio efficace repose sur cinq piliers fondamentaux. Voici comment les maîtriser :

  1. Équilibre des niveaux — chaque élément doit être audible et équilibré. Aucun instrument ne doit masquer les autres sans intention artistique. Commencez par un mix statique avant d'automatiser.
  2. Clarté — chaque instrument doit occuper son propre espace fréquentiel. L'égalisation soustractive (couper plutôt qu'ajouter) est l'outil le plus puissant pour créer de la définition.
  3. Dynamique — un bon mix respire. La balance entre les passages calmes et les moments intenses maintient l'intérêt de l'auditeur. L'automation de volume est votre meilleur allié.
  4. Espacement spatial — utilisez le panoramique et la réverbération pour créer une image sonore large et immersive. Placez chaque instrument dans un espace cohérent avec l'intention artistique du morceau.
  5. Écoute multi-système — testez votre mix sur casque, sur petites enceintes, en voiture, sur un téléphone. Un bon mix fonctionne partout.
Conseil de Franck : Je préconise l'écoute intuitive et l'expérimentation plutôt que l'application stricte de règles. Connectez-vous émotionnellement à la musique que vous mixez. Prenez des pauses régulières — la fatigue auditive est l'ennemi numéro un d'un bon mixage. Revenez à votre mix avec des oreilles fraîches et vous entendrez immédiatement ce qui ne va pas.

Il est crucial de travailler dans un environnement acoustiquement traité. Sans cela, vous prenez des décisions basées sur des artefacts acoustiques de la pièce, pas sur le son réel. C'est la raison d'être de notre studio — offrir un environnement de référence absolue pour des décisions sonores fiables.

Créer de la profondeur et de la dimension est l'une des compétences les plus subtiles du mixage. Un mix plat, sans profondeur, sonne comme si tous les instruments étaient placés au même endroit, à la même distance. Voici les techniques pour y remédier.

Le contrôle des niveaux

Les instruments plus forts semblent plus proches, les plus doux plus éloignés. C'est la base de la perspective sonore. Mais attention : un instrument trop fort masque les autres — l'art est dans l'équilibre.

Le panoramique stéréo

Le panoramique place les instruments dans l'espace gauche/droite. Mais l'espace avant/arrière se crée différemment — avec la réverbération et le délai. Un instrument avec peu de reverb semble proche, un instrument noyé dans la reverb semble lointain.

Réverbération et délai

Les plugins de réverbération les plus efficaces pour créer de la profondeur incluent le H-Reverb de Waves Audio et le SuperTap. Ces outils permettent de créer des espaces virtuels réalistes. Une technique avancée consiste à utiliser des plugins de modélisation d'espace acoustique pour simuler l'acoustique de différentes salles de concert — cathédrale, salle de jazz, studio d'enregistrement — et ainsi agglomérer des sources différentes dans un même espace cohérent.

Astuce pratique : Envoyez vos pistes dans 2 ou 3 reverbs différentes (une courte pour les éléments proches, une moyenne pour les mid-plan, une longue pour les éléments d'ambiance). Cette hiérarchie crée instantanément une sensation de profondeur réaliste. Utilisez également un léger pre-delay (15-30ms) sur vos reverbs pour ne pas noyer l'attaque des instruments.

Selon le livre Mixing With Your Mind de Mike Senior, l'utilisation combinée de délai et de réverbération est l'une des approches les plus efficaces pour enrichir un mix. La clé est la cohérence : tous les espaces sonores doivent sembler appartenir au même univers acoustique.

Les processeurs de réverbération à plaque sont parmi les équipements les plus emblématiques de l'histoire de l'enregistrement sonore. Leur histoire commence dans les années 1950 avec une invention qui allait révolutionner la façon dont les ingénieurs du son créent de l'espace dans leurs mixages.

L'EMT 140 — la légende originale

L'EMT 140, développé par la société allemande Elektromesstechnik (EMT), fut le premier processeur de réverbération à plaque commercialement viable. Son principe est remarquablement simple mais ingénieux : une fine plaque d'acier suspendue dans un cadre est excitée par un transducteur (comme un haut-parleur), et deux microphones de contact captent les vibrations résultantes. Ces vibrations créent une réverbération d'une richesse et d'une densité incomparables.

L'EMT 140 pesait près de 270 kilos et occupait une pièce entière. Malgré cela — ou plutôt grâce à cela — il est devenu un standard absolu dans les plus grands studios d'enregistrement du monde, des Beatles aux Rolling Stones, de Phil Spector à Quincy Jones. Son caractère sonore unique, à la fois dense et transparent, reste inégalé.

Expérience personnelle : J'ai eu le plaisir d'utiliser l'Arturia Plate-140 sur les voix de la chanteuse Caroline Joy Clarke pour le dernier album que j'ai produit, Dust Opéra. La chaleur et la densité de cet outil virtual ont apporté exactement la dimension que je recherchais — une présence organique sans la lourdeur parfois associée aux grandes reverbs numériques.

L'Arturia Plate-140 — la résurrection numérique

Arturia, entreprise française spécialisée dans les instruments virtuels, a réalisé une émulation remarquablement fidèle de l'EMT 140 original avec son Plate-140. Ce plugin modélise non seulement les caractéristiques acoustiques de la plaque originale, mais propose également deux autres types de réverbération à plaque, offrant ainsi une palette sonore très complète.

Ses caractéristiques principales : un préampli à tube intégré pour ajouter une saturation harmonique subtile, des contrôles de pré-délai, filtre passe-haut, modulation et contour sonore. L'interface est intuitive et les présets constituent un excellent point de départ.

Je vous invite à l'essayer sans limites d'application — sa versatilité surprend constamment. Sur les voix, bien sûr, mais aussi sur les percussions, les guitares acoustiques, voire sur des bus de mixage entiers.

La saturation est l'un des outils les plus puissants et les plus mal compris du mixage moderne. Loin de n'être qu'une distorsion, la saturation bien appliquée apporte chaleur, rondeur et présence à un signal, en reproduisant les caractéristiques sonores des équipements analogiques — enregistreurs à bande, consoles de mixage, préamplis à lampes.

Je la recommande régulièrement à ceux qui cherchent à enrichir la texture de leurs instruments sans recourir à des traitements dynamiques lourds. C'est souvent la différence entre un mix qui "sonne" et un mix qui reste cliniquement correct mais sans vie.

Le BlackBox HG-2 — mon outil de référence

Parmi les plugins de saturation que j'utilise régulièrement, le BlackBox HG-2 occupe une place à part. Il émule les sons de tubes et de transformateurs "crémeux" avec une précision remarquable. Son architecture est particulièrement bien pensée :

  • Tubes pentode et triode en série — deux caractères distincts : le pentode apporte de la clarté et de la présence, le triode une chaleur plus ronde et enveloppante. Vous dosez l'équilibre à votre goût.
  • Contrôle de densité — pousse les deux tubes simultanément sans modifier leur équilibre ni le niveau de sortie. Plus de rondeur et de masse sans compression audible.
  • Menu de calibration — simule l'effet d'un réglage interne d'un équipement d'origine, modifiant la réponse en haute fréquence pour une coloration plus sombre, normale ou claire.
  • Bouton Air — ajoute des hautes fréquences aériennes, idéal sur les voix, les cordes, le piano ou les mixages complets pour apporter de la "présence sans agression".
  • Contrôle Mix (parallel) — permet de mélanger le signal traité avec le signal sec, combinant la chaleur des tubes avec la précision du signal original.
Conseil d'utilisation : Utilisez le HG-2 en parallèle (mix à 30-50%) sur vos bus de percussion pour ajouter de la chaleur sans compromettre la dynamique. Sur les voix, le mode triode avec un touch de calibration "dark" peut transformer un enregistrement ordinaire en quelque chose de mémorable.

Ce plugin est remarquablement accessible malgré sa profondeur : l'interface est claire, les présets bien pensés. Un outil incontournable dans ma chaîne de mixage quotidienne.

L'intelligence artificielle est en train de transformer profondément l'industrie musicale — et ce n'est que le début. En tant qu'ingénieur du son avec 25 ans de pratique, j'observe cette révolution avec à la fois fascination et discernement.

Ce que l'IA peut faire dans la musique aujourd'hui

Les applications actuelles sont déjà impressionnantes : génération de musique entièrement automatisée, création d'harmonies et de mélodies originales, reconnaissance et catégorisation d'œuvres musicales, traduction de partitions entre formats, séparation de stems à partir d'un mixage stéréo (Spleeter, Demucs), mastering automatisé (LANDR, iZotope Ozone AI), recommandation personnalisée de contenus.

Ces outils peuvent analyser les préférences musicales d'un utilisateur et lui suggérer des œuvres cohérentes avec ses goûts. Ils peuvent prédire les tendances musicales à venir et aider labels et artistes à anticiper les évolutions du marché.

Ma position : L'IA est un outil formidable d'assistance et d'exploration — mais elle ne remplace pas l'intelligence émotionnelle d'un ingénieur du son. Un algorithme analyse des fréquences. Un humain comprend l'intention artistique derrière chaque note. C'est cette différence fondamentale que Sonaxis incarne dans chacune de ses prestations.

Les limites réelles de l'IA musicale

La création musicale reste avant tout une activité humaine qui nécessite passion, inspiration et expertise. L'IA manque de mémoire émotionnelle — elle ne sait pas que ce riff de guitare rappelle une rupture amoureuse, que cette progression harmonique évoque une enfance particulière, que ce tempo correspond exactement à l'urgence que veut exprimer cet artiste.

L'enjeu pour les années à venir est d'utiliser l'IA de manière responsable et équitable, pour amplifier la créativité humaine sans la remplacer. Les meilleurs résultats viendront toujours de la collaboration entre la puissance analytique de la machine et la sensibilité irremplaçable de l'humain.

C'est la plainte la plus universelle en production musicale. Tu passes des heures sur un mix, tu l'écoutes sur tes monitors et c'est parfait — chaleureux, équilibré, puissant. Puis tu l'envoies à un ami, tu le mets dans ta voiture, tu l'écoutes au casque dans le métro, et là… il sonne creux, étouffé, ou au contraire agressif et sans graves. Que s'est-il passé ?

La réponse courte : tu n'écoutes pas ton mix, tu écoutes ton studio.

Le problème acoustique avant tout. Une pièce non traitée crée des résonances appelées modes propres — des fréquences qui s'accumulent dans les coins, d'autres qui disparaissent selon ta position d'écoute. Si ta pièce amplifie les 80 Hz, tu vais compenser en coupant les graves. Sur un autre système, ces graves manquent. Tu n'as pas mixé la musique, tu as mixé les défauts de ta pièce.

Voici les cinq causes les plus fréquentes, dans l'ordre d'impact :

1. L'acoustique de la pièce. C'est de loin le facteur le plus sous-estimé. Un traitement acoustique sérieux — panneaux absorbants, diffuseurs, traitement des coins — n'est pas un luxe. C'est la condition sine qua non pour prendre des décisions sonores fiables. Sans ça, tu travailles à l'aveugle.

2. La qualité des monitors et leur placement. Écouter sur des enceintes à 80€ ou sur des monitors haut de gamme mal placés revient au même. Règle d'or : les tweeters à hauteur d'oreilles, le triangle équilatéral entre les deux enceintes et toi, au moins 30 cm du mur arrière. Et utilise un vrai volume de référence — ni trop fort (fatigue auditive), ni trop bas (perte des basses).

3. Le manque de références cross-système. Un professionnel ne finit jamais un mix sans l'avoir vérifié sur au moins trois systèmes très différents : monitors de studio, casque fermé, petit haut-parleur mono (l'équivalent d'un Bluetooth ou d'un téléphone). Si ça sonne bien partout, ça sonnera bien partout. Si un système révèle un problème, il faut le corriger — pas l'ignorer.

4. Le manque de compatibilité mono. Plus de 50% des écoutes musicales se font aujourd'hui en mono — enceintes Bluetooth, téléphones en mode haut-parleur, systèmes de sonorisation de bar ou de boutique. Un mix qui perd son bas-médium en mono a un problème de phase. Vérifie systématiquement en mono en sommant tes pistes. Les éléments qui disparaissent ont des problèmes de phase à corriger.

5. La normalisation LUFS des plateformes de streaming. Spotify, Apple Music et YouTube normalisent tous les fichiers entre -14 et -16 LUFS. Si ton master est livré à -8 LUFS (trop compressé, trop fort), la plateforme va le baisser — et cette baisse va révéler tous les défauts de dynamique que la compression masquait. Le résultat : un son aplati, fatigant, qui manque de punch. Le bon niveau de livraison pour le streaming est autour de -14 LUFS intégré.

La solution professionnelle. Un ingénieur de mastering écoute ton mix sur plusieurs systèmes calibrés, dans une pièce traitée acoustiquement, et prend des décisions basées sur ce qu'il entend réellement — pas sur les défauts de sa pièce. C'est précisément pour ça que faire masteriser son mix par quelqu'un d'autre, dans un autre environnement d'écoute, est une étape indispensable — même pour les bons mixeurs.

Le mastering est le dernier regard extérieur avant la diffusion. C'est une oreille fraîche, un environnement neutre, et 25 ans d'écoute comparative sur des centaines de projets. Ce n'est pas un luxe — c'est l'assurance que ton travail sera entendu comme tu l'as voulu.

La question revient presque à chaque prise de contact : « Tu fais du mastering analogique ou numérique ? » Sous-entendu : lequel est mieux ? La vraie réponse est plus nuancée que ce que la plupart des forums veulent bien admettre — et après 25 ans à travailler avec les deux, voici ce que j'ai réellement observé.

D'abord, cassons un mythe. Le mastering numérique fait par quelqu'un qui sait ce qu'il fait battra toujours le mastering analogique fait par quelqu'un qui ne sait pas. L'outil ne remplace pas l'oreille. Ce qui suit parle des différences intrinsèques des deux approches — pas des raccourcis marketing.

Ce que l'analogique fait que le numérique ne peut pas imiter parfaitement. Quand un signal traverse un transformateur, un tube ou un transistor de classe A, il se produit une distorsion harmonique non linéaire — essentiellement des harmoniques pairs qui s'ajoutent au signal de façon imperceptible mais qui créent ce qu'on appelle la « chaleur ». Ce n'est pas un défaut corrigé par le numérique, c'est une couleur ajoutée par la physique. Les émulations numériques (UAD, Waves, Acustica) s'en approchent de plus en plus, mais elles modélisent un comportement moyen — pas le comportement exact de ce circuit précis, vieilli, à cette température, dans cette pièce.

La chaîne analogique Sonaxis dans le détail. Le signal passe par le Prism Lyra 2 pour la conversion (l'un des meilleurs convertisseurs au monde — son impact sur la transparence est immédiat et mesurable), puis par un égaliseur Pultec clone pour la sculpture tonale en douceur. Le compresseur Alan Smart C2 apporte une colle subtile sans écraser la dynamique. Le Pendulum OCL-2 — tube et optique — gère les transitoires avec une musicalité qu'aucun compresseur numérique ne reproduit de la même façon. Enfin, le Prism Lyra 2 reconvertit en numérique pour le limiting final et la livraison.

Ce que le numérique fait mieux que l'analogique. La précision absolue. Un égaliseur numérique te permet de couper exactement à 237 Hz avec une pente de 0,3 dB — reproductible à l'identique demain, dans six mois, sur n'importe quel projet. Un égaliseur analogique a une tolérance de composant, une dérive thermique, une réponse qui varie légèrement selon la tension d'alimentation. Pour certaines corrections chirurgicales — désesser, éliminer une résonance parasite précise, décrumper une fréquence problématique — le numérique est imbattable. C'est pourquoi le workflow professionnel moderne combine les deux.

Le workflow hybride — pourquoi c'est le standard actuel. Chez Sonaxis, le mastering n'est ni « full analogique » ni « full numérique ». C'est un workflow hybride où chaque outil est utilisé pour ce qu'il fait de mieux. Les corrections de problèmes (fréquences parasites, transitoires mal placées) se font en numérique, avec précision. La couleur, la colle, le relief tonal se construisent en analogique, avec les harmoniques naturelles des équipements hardware. Le résultat final est converti et livré en numérique, aux standards de chaque plateforme.

Alors, analogique ou numérique ? La vraie question n'est pas là. La vraie question est : est-ce que la personne qui masterise ton projet a une oreille calibrée, un environnement d'écoute neutre, et les outils adaptés à ton style musical ? Le reste est de la technique au service d'une intention artistique.

Si tu veux que ton master sonne comme un master — chaleureux sans être mou, précis sans être froid, fort sans être écrasé — la chaîne technique compte moins que l'expérience de celui qui s'en sert. Mais si tu as le choix entre un mastering purement numérique à budget équivalent, la chaîne analogique hybride apportera presque toujours ce dernier centimètre de relief que les plugins, seuls, ne donnent pas encore.

Votre projet mérite une oreille d'exception

25 ans d'expertise au service de votre musique. Mixage, mastering analogique, enregistrement — sessions en studio à Bagnolet ou en ligne depuis n'importe où dans le monde.

Réserver une session → Voir les tarifs →