Toujours plus vite c'est mieux?

Ici on discute le tout numérique et l'informatique, Mac-OS-X, PC-Windaube, Cubase et Logic et tout le bazar.....
Répondre
Avatar du membre
Barthedoc
Modo
Modo
Messages : 1373
Enregistré le : 10 nov. 2007, 16:38

Toujours plus vite c'est mieux?

Message par Barthedoc » 7 nov. 2019, 13:42

Hola

Mort de rire

Il arrive un moment ou la question de pourquoi passer à un échantillonnage de fou
Notre cerveau est content, plus de puissance, plus de vitesse, plus de précision,
Mais le réel: en sonorisation live le passage de 48khz à 96khz est vraiment sensible?
puisque maintenant des plugins pour émuler des vintages sont proposés sur les racks d'effets
Là quand c'est trop parfait c'est moins bien ?
C'est pour moi le prétexte du plus vite qui permet de rendre obsolète les consoles.

Conserver vos Midas les gars, les consoles numériques c'est comme les appareils photos,
en 10 ans cela ne vaut plus beaucoup face au prix d'achat sauf l'objectif qui lui...

Le régisseur est bougon, mais beaucoup de théâtre tournent encore sur des V96 ou ses sœurs O2R
Du son, du son , toujours du son...oui mais du light Milledieu

Avatar du membre
ziggy
Admin
Admin
Messages : 13523
Enregistré le : 2 févr. 2004, 21:09
Localisation : Lozère (48)
Contact :

Toujours plus vite c'est mieux?

Message par ziggy » 7 nov. 2019, 14:09

Hello Barthé
en principe je suis bien d'accord avec toi et parfois cette course à grande vitesse (et grande fréquence d'échantillonnage) mène parfois à des absurdités.... -> exemple écouter des CD (44,1kHz) en échantillonnage 96kHz et prétendre qu'on entend une grosse différence etc... parfois ce n'est rien de plus qu'une masturbation....

mais j'aimerais quand-même jeter dans le débat un argument très important (important surtout de nos jours avec tous ces FX et plug-ins en émulation haute définition); on émule surtout pas mal de hardware analogique ancien qu'on apprécie pour leur textures sonores et leur "musicalité".... à côté de la "mode du vintage" il y a aussi un réel intérêt, je pense notamment aux EQs dont certaines émulation en plug-in ont aujourd'hui du vrai caractère et une véritable musicalité qui sont parfois (souvent ?) absent dans les EQ numériques lambda... même argument pour les compresseurs et d'autres effets

il faut bien comprendre que dans le matériel analogique il se passe des choses aussi au delà de ce qui est audible et que ces harmoniques (et parfois distorsions) font partie intégrante de la sonorité (et du son ressenti) -> et cela même si on ne les entend pas distinctement ou analytiquement

on ne pourra certainement pas dire que là, on entend des 22kHz ou des 30kHz etc mais la sensation d'avoir une sonorité (d'ensemble) agréable, désagréable, stridente, ou chaleureuse etc etc... dépend aussi du contenu des harmoniques - par exemple pour tout ce matériel à lampe etc qui génère toujours beaucoup de distorsions (agréables? désagréable?) et d'harmoniques !

dans le monde numérique on est alors confronté (entre autres...) principalement à deux très grosses contraintes :
premièrement il n'y a pas de raccords ni de courbes ni d'états intermédiaires; il n'y a que du stricte "on-off" et ce qui se passe entre deux échantillons doit donc être réinventé pour relier les deux états connus de conversion .... (donc la zone entre deux échantillons sera TOUJOURS artificielle) => donc essayer d'inventer des courbes à partir d'un rendu en escalier !!
ce qui mène obligatoirement à la conclusion de : plus on a d'échantillons à disposition, plus la reconstitution du son d'origine sera fidèle !!

le deuxième point est au moins aussi important sinon encore plus important :
comme on le sait la fréquence max restituable correspond à la moitié de la fréquence d'échantillonnage; donc le 44,1K pourra théoriquement reconstituer des fréquences allant en théorie jusqu'à 22kHz (en pratique on n'arrive même pas jusque là !!!)
c'est suffisant, pensent sans doute certains, car personne n'entend des sons au delà de 20kHz , de toute façon....
erreur de déduction...
car, comme j'ai dit plus haut; même si on ne l'entend pas dans le son il se passe plein de choses aussi au delà des fameux 20kHz
et quand un convertisseur est confronté à des signaux et des sources dépassant ses capacités, il "invente" littéralement du son (et cela sera évidemment audible, car le convertisseur va créer des artefacts, das parasites ou autres trucs bizarres, dans la zone de ses capacités, donc dans la zone audible !...

donc il est assez logique qu'une reverbe numérique ou une émulation de préampli à lampe ou d'un compresseur FET ou à lampe sonnera plus facilement plus fidèle, plus naturel et dans un certain sens plus authentique sous 96kHz que sou 44,1kHz...

donc la course aux grandes fréquences d'échantillonnage n'est pas forcément que du pipo et de la branlette intellectuelle....

bien entendu la solution la plus simple c'est d'utiliser les hardware directement au lieux de se battre avec les problématiques diverses de la numérisation et de l'émulation en générale... :) :mrgreen:
Barthedoc a écrit :
7 nov. 2019, 13:42
Conserver vos Midas les gars, les consoles numériques c'est comme les appareils photos,
en 10 ans cela ne vaut plus beaucoup face au prix d'achat sauf l'objectif qui lui...
...c'est pas faux !! 8-)

Avatar du membre
Barthedoc
Modo
Modo
Messages : 1373
Enregistré le : 10 nov. 2007, 16:38

Toujours plus vite c'est mieux?

Message par Barthedoc » 8 nov. 2019, 2:17

Yess Ziggy

Mais voila, le signal audio entre deux échantillons à 48khz est interpolé de façon satisfaisante car la distorsion est insignifiante
bref voici un commentaire de: Quand plus c'est mieux:

Le Convertisseur Design Dan Lavry est l'un des concepteurs de convertisseurs audio les plus respectés au monde et un adversaire infaillible des fréquences d'échantillonnage extrêmement élevées, telles que 192 kHz.

Mais même lui serait parmi les premiers à admettre qu'une légère augmentation des taux d'échantillonnage peut rendre la conception de convertisseurs de grande qualité plus facile et moins onéreuse. Dans un livre blanc influent et désormais célèbre , il écrit:

« La notion que plus est mieux peut faire appel au bon sens. Présentés avec des analogies telles que plus de pixels pour une meilleure vidéo ou une horloge plus rapide pour accélérer les ordinateurs, on peut être trompé en pensant qu'un échantillonnage plus rapide donnera une meilleure résolution et des détails plus précis. Les analogies sont fausses. Le théorème de Nyquist offre un avantage considérable en réalisant que nous avons TOUTES les informations avec 100% de détails, sans distorsions, sans le fardeau d'un échantillonnage «extra rapide».

«Nyquist a souligné que le taux d'échantillonnage ne doit dépasser que deux fois la largeur de bande du signal. Quelle est la bande passante audio? Les recherches montrent que les instruments de musique peuvent produire une énergie supérieure à 20 KHz, mais que l'énergie sonore est faible au-dessus de 40 KHz. La plupart des microphones ne captent pas le son à plus de 20 KHz. L'audience humaine dépasse rarement 20KHz et n'atteint certainement pas 40KHz.

«Ce qui précède suggère que [même] 88,2 ou 96 kHz serait excessif. En fait, toutes les objections concernant l'échantillonnage audio à 44,1 KHz… ont disparu depuis longtemps en portant l'échantillonnage à environ 60 KHz. ”

donc on se leurre un peu en croyant que plus c'est mieux car à un moment cela ne se fera plus, c'est juste que les machines doivent fonctionner à ces fréquences pour avoir le meilleur poids/puissance possible. L'amélioration notoire est venue du passage de 16bits à 24 bits ou 32 bits voir 64 bits et ce n'est pas nous qui choisissons c'est le constructeur qui nous l'impose avec ses arguments que plus c'est mieux, car il en a besoin pour avancer et renouveler le matériel.
Et là je suis triste car par exemple la GLD et ta Pro1, basées toutes les deux sur un mini PC/OSlinux et 7 processeurs audio, pourraient avec des mises à jours logicielles évoluer aussi bien dans l'ergonomie que dans les capacités, mais non pas bien car pas d'obsolescence programmée. (sur le PC on change le processeur, on rajoute de la ram, on adapte le logiciel et hop nouvelles fonctionnalités) ben non hors de propos, pourtant Midas est le constructeur le plus sérieux car ses gammes durent vraiment longtemps,
Moi j’aimerai bien que le logiciel de la GLD passe dans le domaine public comme l'est Linux, et que des développeurs de génie trouvent la quintessence de la programmation.
Bref nous n'avons pas le choix, je garde la GLD upgradée par mes soins

Peut-être la fin du post le sujet est intéressant mais un peu exotique

Winter is coming
Du son, du son , toujours du son...oui mais du light Milledieu

Avatar du membre
ziggy
Admin
Admin
Messages : 13523
Enregistré le : 2 févr. 2004, 21:09
Localisation : Lozère (48)
Contact :

Toujours plus vite c'est mieux?

Message par ziggy » 8 nov. 2019, 8:36

bien dit, mon Bartoche....=D>

sabol
Chef-Equipier
Chef-Equipier
Messages : 638
Enregistré le : 8 sept. 2008, 10:40
Localisation : Ile de France
Contact :

Toujours plus vite c'est mieux?

Message par sabol » 8 nov. 2019, 13:37

Exotique mais intéressant :-)

Par rapport au propos de Dan Lavry, on pourrait faire un début de parallèle avec la fréquence des processeurs en informatique : course effrénée jusqu'il y a une dizaine d'années, les assembleurs d'ordi vendaient des CPU à toujours plus de Mhz puis de GHz (d'ailleurs souvent en lésinant de tout le reste des composants alors que les perfs d'un ordi c'est un tout : carte mère (et ses bus) + RAM + DD), et puis depuis une dizaine d'années, on s'est rendu compte qu'il fallait peut-être arrêter de se masturber avec la f CPU. Au delà d'une raison technique au départ (car l'augmentation de f génère des calories, alors il faut graver plus finement, mais ça aussi çà commençait à ... être chaud (!)), il y aussi que pour l'usage standard d'un ordi de particulier (surf, bureautique, visionnage de vidéo), c'était inutile.
La course a alors ralenti sur la f CPU, on s'est tourné vers d'autres axes (multi-coeurs, stockage ssd, ...).
La recherche de perf à continué bien sûr, fortement, mais sur les domaines spécifiques tels que processeurs graphiques, vitesse de mémoire, ...

Et par rapport à ce que tu dis Hervé sur la non évolution, à partir d'un moment, de la GLD (et toutes les autres consoles et matériels en général), je suis d'accord que ça fait mal au coeur qud on a un super outil entre les mains, qu'on sait qu'il suffirait d'une évol de tmps en tmps pour le maintenir à niveau, et qu'on se sent limité voire "otage" parce que le fabricant a laissé tombé.
Il est clair qu'il faut bien faire marcher le commerce, faut pas être naïf. Néanmoins, dans une certaine mesure (et j'y reviendrai), c'est un peu compréhensible : mêmes les "simples" màj logicielles coûtent en étude, dév, recette, aussi on peut admettre qu'un fabricant ne puisse pas ad vitam eternam les assurer.

Mais comme promis je reviens sur la "certaine mesure". Il me semble qu'il y a 3 choses à prendre en considération :
1. malheureusement, sans naïveté, une évolution "malsaine" de la philosophie des fabricants avec la fameuse l'obsolescence programmée, laquelle se met en oeuvre à des degrés divers : pour les moins tordus, on calcule juste qu'on cessera les màj, ou la fourniture d'accessoires, ou le SAV, ... à partir d'une certaine date afin peu à peu d'obliger les utilisateurs à renouveler leur matos. Pour les pires, on fait sélectionner voire concevoir des composants pour leur spécifique faiblesse (et cette conception a un cout, reportée sur le consommateur, le comble !) afin de s'assurer à peu près que le produit mourra sous 2 ans et demi, 3 ans, ...
Ca c'est certain, c'est intolérable et il me semble que ça commence à générer à un raz le bol qui, je l'espère, finira par revenir tel un boomerang à la tronche des constructeurs qui seront obligés de revenir à des produits tout de même un peu plus durables. La question n'étant pas seulement économique, car le soucis environnemental prend de l'importance aussi dans l'opinion.

2. peut-être également faut-il envisager une certaine "responsabilité" du Consommateur : en règle générale, un produit costaud coûte plus cher au fabricant et au Marché en général, car si ce n'est pas forcément vrai en terme de production industrielle pure (il peut même parfois être plus coûteux de développer des pièces ou des chaines d'assemblages dédiées au low-cost plutot que de mutualiser tout), sur le long terme, diffuser des produits durables génèrent forcément moins de vente de ces produits. Pour ne pas être "à perte" sur le long terme, l'industriel doit intégrer ceci à son prix.
Or, sans jugement ni polémique, chacun ayant ses raisons, force est de constater que la question du prix est déterminante dans l'acte d'achat. De plus en plus, c'est la recherche du toujours moins cher. Ce qui fait que les fabricants, et particulièrement ceux qui essaieraient d'être vertueux (donc un peu plus cher), ne sont pas "récompensés" à fournir des produits costauds mais forcément plus chers : ils sont délaissés par la majorité des acheteurs...

3. enfin, sur un plan plus "intellectuel", je me dis que notre conception de la consommation a bcp changé en une ou deux décennies :
- d'une part tout change bien plus vite qu'avant (on pourrait débattre des raisons : marketing, innovation fleurissante, ... ). Alors un achat est vite dépassé technologiquement. Il faut savoir (comme tu le fais d'ailleurs), se demander si c'est bien réaliste et justifié. Mais il n'empêche que même quand on se raisonne et essaie de relativiser, de résister à ce consumérisme débridé, insidieusement cela génère un malaise par le doute : "ok, mon produit fait ce que j'en attends, et ça me suffit, mais quand même, on me vend du tellement "mieux" autour, peut-être suis-je moi-même à la rue ?" Sans parler de la pression sociale au travers de l'entourage qui te rappelle régulièrement que tu es dépassé, arriéré, que dis-je, obsolète ! :-)
- d'autre part, dans la société d'aujourd'hui, nous baignons dans des produits hyper informatisés et polyvalents, qui nous habituent à une certaine capacité à évoluer sans renouveler matériellement. Par exemple, avant, on achetait un téléphone qui ne faisait pas répondeur, il nous paraissait évident qu'il fallait en acheter un autre si on voulait un répondeur. Un baladeur CD, on savait qu'il ne lirait jamais un autre format. Tandis que maintenant, on est habitué à ce que le téléchargement d'une petite appli, d'un petit patch, d'une mise à jour, comble la moindre lacune. Alors quand ce n'est pas le cas, on a tendance à se sentir lésé. Bien que parfois, il peut y avoir des raisons acceptables (voir tt ce que j'ai évoqué plus haut).

En l'occurrence je serai plus circonspect quant à l'ouverture des softs de consoles au monde libre. Pour le loisirs, le perso, bref, le "sans importance" du petit quotidien, c'est super. Mais précisément, dans le cas de la console son, il est pour moi inconcevable de partir un système non propriétaire. Trop de risques d'instabilité avec l'open. Déjà qu'avec les constructeurs, on essuie quand même tjs quelques platres, particulièrement en début de commercialisation et ensuite, heureusement dans une moindre mesure, avec les MàJ... Et je pense d'ailleurs que ce n'est pas uniquement du snobisme qud les marques ne travaillent qu'avec Apple pour les périph (même si je n'aime pas trop les GAFAM) : on ne peut pas leur enlever que tt ce qui est ds le monde Apple est bétonné, puisque très encadré qud ce n'est fermé.

Olivier

Avatar du membre
Barthedoc
Modo
Modo
Messages : 1373
Enregistré le : 10 nov. 2007, 16:38

Toujours plus vite c'est mieux?

Message par Barthedoc » 8 nov. 2019, 15:37

Hola super débat

Ce qui fait que le site de Ziggy n'est pas réservé qu'à des teckos purs et durs.

Bientôt Noël les potos,
Du son, du son , toujours du son...oui mais du light Milledieu

sabol
Chef-Equipier
Chef-Equipier
Messages : 638
Enregistré le : 8 sept. 2008, 10:40
Localisation : Ile de France
Contact :

Toujours plus vite c'est mieux?

Message par sabol » 12 nov. 2019, 18:05

Hola super débat
Oui, mais peut-être un poil calme... :(

Répondre