Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

Qobuz en Chile 2021.


elayatola

Recommended Posts

hace 17 horas, MarkVII dijo:

Aqui  Bozon dijo lo correcto, la función de reconstrucción no se puede implantar. mira wikipedia y veras que son sumatorias infinitas, los DAC reales tienen que usar interpolación, lo que los fabricantes llaman el filtro digital. No se podría hacer streaming y los conversares tendrán que cargar la pista completa antes de empezar la decodicación. Eso hace mucho daño porque en vez de comparar el error o distorsión introducido por cada filtro entramos en discusiones bizantinas. 

El segundo punto es que el error de cuantización no es ruido genuino, en el sentido que no es realmente aleatorio, se le tiene que aplicar técnicas de noise shaping. De esta manera la diferencia (o distorsión si quieren) de la señal origina vs la reconstruida consiste en solo ruido y por lo tanto corresponde al rango dinamico. El ruido es una de las distorsiones de audio mas fácilmente excluidas  por el oido humano, por eso ni siquiera es catalogado dentro de las especificaciones de distorsión.

Gracias por el comentario, es un agrado leer comentarios técnicos y no puro tufete meramente apreciativo (con dos mil factores que lo pueden distorsionar) o infundamentado, lo que se ha vuelto habitual acá cada vez que uno quiere profundizar algo en estos temas. Por eso rompo el silencio que me había auto-impuesto acá.

En realidad lo de la imposibilidad del la función de reconstrucción sinc(x) no lo dijo Bozon, lo dije yo mismo anticipándome a lo que pensé que el comentaría, y estoy de acuerdo que es correcto, por el largo infinito de señal requerido (y además por las imperfecciones inherentes de los filtros antialiasing, especialmente en sampling bajos de 44.1K). Sin embargo entiendo que sí es muy mejorable y práctico con funciones de reconstrucción alternativas tales como funciones bspline, que si bien teóricamente requerirían también extensiones grandes, la gravitación de amplitud de los samplings alejados es tan pequeña que los hace irrelevantes. De hecho, con estas funciones se logra una reconstrucción de la onda análoga aún más precisa que con la sinc(x) propuesta por Shannon, haciendo aún más irrelevante la interpolación. Estoy actualmente leyendo un documento bastante complejo sobre el tema "Sampling - 50 Years After Shannon", de Michael Unser, pero todavía no lo digiero lo suficiente para comentarlo.

En principio entiendo que los DACs (todos?) usan interpolación más que nada por implementar procesos sigma-delta en vez de la reconstrucción originalmente propuesta por Shannon. No entiendo completamente aún los tecnicismos de los procesos sigma-delta (tb me interesa aprenderlos, por mera curiosidad), pero básicamente lo que estos hacen es registrar no la magnitud absoluta de cada sampling, sino el diferencial de amplitud respecto del sampling anterior. Eso entre otras cosas permite mejorar significativamente la relación señal-ruido, pues procesando un diferencial menor de amplitud del sampling, introducen menos energía en el proceso, por tanto menos ruido (sorry la burda simplificación, ya dije que aún no lo entiendo por completo). Además, y de allí creo la necesidad de interpolación, esto permite usar en la reconstrucción filtros convolucionales. Estos filtros requieren "ver" varios sampling antes y posteriores para procesar el "buffer" de reconstrucción. Al interpolar, el espacio temporal ocupado para esto es menor (los x sampling previos y posteriores a la señal requeridos barren menos tiempo), y por lo tanto la conversión tiene menos lag temporal (y aún así la tienen, yo lo he comprobado con los DAC Chord, por ejemplo).

Por supuesto, ninguna de las dos cosas anteriores tiene que ver con que si Qobuz o Tidal suenan mejor, sino son temas de implementación del DAC. Pero si demuestra la mentira flagrante de Qobuz al decir que por que usan un sampling mayor... redondean la señal, pues en primer lugar, esos sampling adicionales no están entre los samplings del 44.1K, sino los extienden a 48K o 96K. Esa abierta mentira me imagino que debe espantar a cualquier ingeniero conocedor del tema.

---

Sobre el error de cuantificación, lo que entiendo: por descomposición Fourier (FFT), el error por diferencial en amplitud entre del bitrate usado y la curva análoga a digitar genera un diferencial de señal que es traducible por ese FFT  como un "ruido" basal (ese es el piso potencial de ruido de un archivo, independiente del ruido capturado en la grabación ), que en un archivo de 16 bits es del orden de 3.01 db, que se traduce en un piso de ruido de -96db. Efectivamente, un proceso requerido para que ese ruido "semi-aleatorio" sea realmente ruido blanco es hacerle "dithering" o "ensuciamiento" a ese ruido, de lo contrario debido a su naturaleza poco controlada podría ser interpretado por el DAC como una señal válida de bajo nivel . Dicho sea de paso, ese es uno de los errores BÁSICOS, de absoluto principiante,  que los famosos test de GoldenSound sobre MQA cometió (por los cuales para la perplejidad de gente técnica después hasta tipos como Paul Gowan de PSAudio se han apoyado para decir que MQA es "lossy"...): no le hizo "dithering" a la señal, y por lo tanto sus test muestran fenómenos de aliasing.

Una vez hecho este dithering, es relativamente común además "modelar" ese ruido basal mediante Noise Shaping (de hecho, es parte fundamental del proceso MQA), que básicamente redistribuye ese ruido minimizando su amplitud en las zonas más audibles del oído para llevarlo a las zonas más enmascaradas por nuestro basal de percepción (o sea, menos ruido en los medios, más en los extremos, para el mismo ruido total). Nuevamente, los "padres" del Noise Shaping y sus avances definitivos fueron los ingenieros de audio de Oxford, UK... Michael Gerzon y Peter Craven, a su vez los padres conceptuales del MQA. Ellos dedicaron literalmente décadas y publicaron decenas de papers en sistematizar este asunto del Noise Shaping. Gerzon se ganó la Gold Medalla de la AES por ello (uno de las pocas decenas de ingenieros que han obtenido ese premio en los 75 años de historia de esta, la más importante sociedad de audio del mundo).

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

No voy a hacer apologia ni ataque del MQA, el que le guste que lo use. Pero voy a hacer un reparo sobre la cuantizacion porque esta muy complicada.

Primero esto no es parte el teorema de Nyquist, este solo ve la parte del muestreo (sampling) con infinita precision (resolución). Pero como los computadores solo usan una cantidad de reducida de bits para almacenar las muestras (samples) se introduce un error de medición.

 

Para ver lo del error podemos definir dos funciones

f(t) la señal original

g(t) la señal capturada (los datos del PC)

La distorsión o erro es entonces

d(t) =  g(t) - f(t),

Escribiéndolo de otra forma

g(t) = f(t) + d(t)

Esta trivialidad nos muestra que la distorsión d(t) se puede interpretar  como lo añadido que no estaba en la señal original.  La realidad es solo f(t) y g(t), d(t) es una construcción o modelo.

 

La naturaleza de esta distorsión importa, porque dependiendo de si es armónica o intermodulación, etc es cuanto perjudica. Está lleno de literatura que dice que la distorsión armónica de segundo orden de los tubos no es nociva (pero la de primer orden de los transistores es horrible). Entonces cual es la naturaliza de d(t)?

https://www.tonmeister.ca/main/textbook/intro_to_sound_recordingch9.html#x33-5950008.2

No voy a repetir lo escrito en el link, solo citar lo siguiente:

„By adding dither to the signal before quantizing it, we are randomizing the error, therefore changing it from a program-dependent distortion into a constant noise floor. The advantage of doing this is that, although we have added noise to our final signal, it is constant, and therefore not readily trackable by our brains.“

O sea no tiene que ver con nada del circuito o el DAC, sino que con nuestra percepción porque al hacer que el error (o distorsión) d(t) no dependa de la señal f(t) se convierte en ruido genunino y nuestros cerebros son capaces de separarlo e ignoralo.

De hecho nadie clasifica el ruido dentro de la distorsión. Es indicada aparte y siempre se considera que perjudica el rango dinámico pero nada mas. O sea que el audio digital no introduce artefactos nefastos.

Espero que esta explicación sea mas sencilla. Estamos cambiando una distorsión por otra distorsión, pero una menos nociva para nuestros oídos.

Enlace al comentario
Compartir en otros sitios

hace 33 minutos, MarkVII dijo:

No voy a hacer apologia ni ataque del MQA, el que le guste que lo use. Pero voy a hacer un reparo sobre la cuantizacion porque esta muy complicada.

Primero esto no es parte el teorema de Nyquist, este solo ve la parte del muestreo (sampling) con infinita precision (resolución). Pero como los computadores solo usan una cantidad de reducida de bits para almacenar las muestras (samples) se introduce un error de medición.

 

Para ver lo del error podemos definir dos funciones

f(t) la señal original

g(t) la señal capturada (los datos del PC)

La distorsión o erro es entonces

d(t) =  g(t) - f(t),

Escribiéndolo de otra forma

g(t) = f(t) + d(t)

Esta trivialidad nos muestra que la distorsión d(t) se puede interpretar  como lo añadido que no estaba en la señal original.  La realidad es solo f(t) y g(t), d(t) es una construcción o modelo.

 

La naturaleza de esta distorsión importa, porque dependiendo de si es armónica o intermodulación, etc es cuanto perjudica. Está lleno de literatura que dice que la distorsión armónica de segundo orden de los tubos no es nociva (pero la de primer orden de los transistores es horrible). Entonces cual es la naturaliza de d(t)?

https://www.tonmeister.ca/main/textbook/intro_to_sound_recordingch9.html#x33-5950008.2

No voy a repetir lo escrito en el link, solo citar lo siguiente:

„By adding dither to the signal before quantizing it, we are randomizing the error, therefore changing it from a program-dependent distortion into a constant noise floor. The advantage of doing this is that, although we have added noise to our final signal, it is constant, and therefore not readily trackable by our brains.“

O sea no tiene que ver con nada del circuito o el DAC, sino que con nuestra percepción porque al hacer que el error (o distorsión) d(t) no dependa de la señal f(t) se convierte en ruido genunino y nuestros cerebros son capaces de separarlo e ignoralo.

De hecho nadie clasifica el ruido dentro de la distorsión. Es indicada aparte y siempre se considera que perjudica el rango dinámico pero nada mas. O sea que el audio digital no introduce artefactos nefastos.

Espero que esta explicación sea mas sencilla. Estamos cambiando una distorsión por otra distorsión, pero una menos nociva para nuestros oídos.

Bueno, eso es una explicación más sencilla de lo mismo que puse arriba. Ese d(t) es en un archivo de 16 bits de un máximo posible de 3.01 db, que trasladado como "piso de ruido" resulta en una señal semi-aleatoria a -96db, lo cual es el límite inferior del headroom máximo del formato (para los 16 bits del ejemplo; -144 db en 24 bits) . Lo de semi-aletatoria depende de los diferenciales registrados en cada sampling. Ese diferencial según cada caso en particular puede o no constituirse en la sumatoria de varios sampling en una señal "interpretable" por el DAC en vez de ruido, y por lo tanto para que transforme en ruido blanco (aleatorio) efectivo y no en una potencial señal interpretatable (armónica, inarmónica, para el caso señal), hay que hacerle dithering.

En todo caso creo que es importante diferenciar entre este "dithering" y el "noise shaping", que son cosas distintas.

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 18 horas, pbanados dijo:

Bueno, eso es una explicación más sencilla de lo mismo que puse arriba. Ese d(t) es en un archivo de 16 bits de un máximo posible de 3.01 db, que trasladado como "piso de ruido" resulta en una señal semi-aleatoria a -96db, lo cual es el límite inferior del headroom máximo del formato (para los 16 bits del ejemplo; -144 db en 24 bits) . Lo de semi-aletatoria depende de los diferenciales registrados en cada sampling. Ese diferencial según cada caso en particular puede o no constituirse en la sumatoria de varios sampling en una señal "interpretable" por el DAC en vez de ruido, y por lo tanto para que transforme en ruido blanco (aleatorio) efectivo y no en una potencial señal interpretatable (armónica, inarmónica, para el caso señal), hay que hacerle dithering.

En todo caso creo que es importante diferenciar entre este "dithering" y el "noise shaping", que son cosas distintas.

A todo esto, aunque es obvio, faltó una acotación importante: las técnicas de dithering y noise sharing se hacen en etapa ADC, no DAC hasta donde entiendo. El archivo que tu lees ya viene con ese tratamiento, y no sé si existe oportunidad de nuevas correcciones similares en la conversión digital-análoga, o aún si tuvieran sentido si fueran posibles. 

Otra cosa: el noise sharing aumenta la relación señal ruido perceptible, desde los teóricos -96db en un 16 bitrate, creo que se llega hasta unos -120 db; y en 24 bits, de -144 a unos -168 db (más o menos, no me acuerdo las cifras exactas). La verdad no sé con qué ponderación se mide esto: A-weighted, C-weighted, etc. Como nota al margen, entiendo que la A-weighted, siendo las más comúnmente usada, está siendo bastante cuestionada en la actualidad.

En MQA esta técnica de noise-shaping se usa (más allá de su uso habitual en procesos sigma-delta) para modelar el espacio para el canal de datos escondido bajo el umbral de ruido (para contener el 'origami' de la data sobre 22.05Khz y para las instrucciones al DAC). Esta es otra más de las razones por las cuales los test de GoldenSound están fuera de lugar: trataron de medir correspondencia bit a bit incluso en el espectro basal de ruido, cuando se sabe de la partida que ese ruido será de distinta distribución y por lo tanto no hay posibilidad alguna de esa correspondencia. Es imposible que no haya conocido esto y por lo cual estaba consciente de la partida que la técnica con que estaba midiendo era errónea: el test lo que en realidad está comprobando es que donde él quiere encontrar "ruido", hay data.... Sin embargo esta es una de las principales razones por las cuales este tipo argumenta que el formato es "lossy" (*). Pero es un asunto que no solo no tiene impacto auditivo, sino que mejora la calidad audible del archivo, al haber menos ruido perceptible. En ASR Amir hizo unos análisis de archivos hires y MQA  donde se ve muy claramente este efecto: ganar headroom en zonas auditivamente sensibles, y disminuirlo en otras no audibles.

(*): y claro, si uno es un especie de ortodoxo religioso del audio es "lossy"; pero en el contenido musical y audible no lo es. Esa ha sido siempre la discusión con el formato... no sirve para "archivar", sino para reproducir música real.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 1 hora, pbanados dijo:

A todo esto, aunque es obvio, faltó una acotación importante: las técnicas de dithering y noise sharing se hacen en etapa ADC, no DAC hasta donde entiendo. El archivo que tu lees ya viene con ese tratamiento, y no sé si existe oportunidad de nuevas correcciones similares en la conversión digital-análoga, o aún si tuvieran sentido si fueran posibles. 

Otra cosa: el noise sharing aumenta la relación señal ruido perceptible, desde los teóricos -96db en un 16 bitrate, creo que se llega hasta unos -120 db; y en 24 bits, de -144 a unos -168 db (más o menos, no me acuerdo las cifras exactas). La verdad no sé con qué ponderación se mide esto: A-weighted, C-weighted, etc. Como nota al margen, entiendo que la A-weighted, siendo las más comúnmente usada, está siendo bastante cuestionada en la actualidad.

En MQA esta técnica de noise-shaping se usa (más allá de su uso habitual en procesos sigma-delta) para modelar el espacio para el canal de datos escondido bajo el umbral de ruido (para contener el 'origami' de la data sobre 22.05Khz y para las instrucciones al DAC). Esta es otra más de las razones por las cuales los test de GoldenSound están fuera de lugar: trataron de medir correspondencia bit a bit incluso en el espectro basal de ruido, cuando se sabe de la partida que ese ruido será de distinta distribución y por lo tanto no hay posibilidad alguna de esa correspondencia. Es imposible que no haya conocido esto y por lo cual estaba consciente de la partida que la técnica con que estaba midiendo era errónea: el test lo que en realidad está comprobando es que donde él quiere encontrar "ruido", hay data.... Sin embargo esta es una de las principales razones por las cuales este tipo argumenta que el formato es "lossy" (*). Pero es un asunto que no solo no tiene impacto auditivo, sino que mejora la calidad audible del archivo, al haber menos ruido perceptible. En ASR Amir hizo unos análisis de archivos hires y MQA  donde se ve muy claramente este efecto: ganar headroom en zonas auditivamente sensibles, y disminuirlo en otras no audibles.

(*): y claro, si uno es un especie de ortodoxo religioso del audio es "lossy"; pero en el contenido musical y audible no lo es. Esa ha sido siempre la discusión con el formato... no sirve para "archivar", sino para reproducir música real.

 

El dither se aplica en algun momento de la cadena de producción, tengo entendido en el downsampling al master, la vida real es mas complicada, yo solo estuve intentando clarificar ciertas condiciones que requiere la señal para conseguir el resultado opimo durante su captura a digital. 

El articulo del link, que tambien es una discusión teorica del audio digital, pone un ruido análogico de bajo nivel antes del ADC para eliminar el aliasing. Así como en la teoría se coloca un filtro pasa bajos para eliminar el otro aliasing.

Nyquist nunca dijo que hay que usar un filtro sino que la señal debe venir limitada a 1/2 de la frecuencia de muestreo. Un filtro es una solución pero tambien es aumentar la frecuencia y no tocar la señal. Puedo capturar con 64 bits de resolución y e ignorar el error de cuantizacion. Pero cuando paso al master a 44.1/16 tengo que preocuparme, pero ahi lo hago totalmente en el dominio digital con filtros  filete. No estamos en 1985

 

 

Enlace al comentario
Compartir en otros sitios

hace 38 minutos, MarkVII dijo:

 

El dither se aplica en algun momento de la cadena de producción, tengo entendido en el downsampling al master, la vida real es mas complicada, yo solo estuve intentando clarificar ciertas condiciones que requiere la señal para conseguir el resultado opimo durante su captura a digital. 

El articulo del link, que tambien es una discusión teorica del audio digital, pone un ruido análogico de bajo nivel antes del ADC para eliminar el aliasing. Así como en la teoría se coloca un filtro pasa bajos para eliminar el otro aliasing.

Nyquist nunca dijo que hay que usar un filtro sino que la señal debe venir limitada a 1/2 de la frecuencia de muestreo. Un filtro es una solución pero tambien es aumentar la frecuencia y no tocar la señal. Puedo capturar con 64 bits de resolución y e ignorar el error de cuantizacion. Pero cuando paso al master a 44.1/16 tengo que preocuparme, pero ahi lo hago totalmente en el dominio digital con filtros  filete. No estamos en 1985

 

 

OK, voy a leer el artículo que posteaste. En todo caso hasta donde entiendo, tiene que haber un d(t) para que puedas "ditheriarlo". Si no hay un archivo digital, mal puedes entonces hacerle ese dithering (al menos como yo lo estoy entendiendo); así he visto descrito el tema en cuanto artículo he leído. Pero claro, puedo haberlos entendido mal.

Y si, un proceso fundamental en los downsampling es hacer dithering. Si no se hace queda la escoba, hasta donde sé.

Sí, Shannon especificaba como condición una banda limitada en rango, y (creo) no hablaba específicamente de filtros; es decir, el suponía un perfecto filtro vertical en la frecuencia de Nyquist, imposible en la práctica (de allí los problemas del redbook). Pero estos están implícitos, no hay otra forma de limitarla que no sea con un filtro. Si extiendes la banda a regiones supra-rurales igual debes aplicar un filtro, solo más lejos, pues de todas maneras potencialmente se te puede colar información fuera de esa banda limitada. De hecho, creo que es ese EL beneficio de Qobuz: desplaza el filtro antialiasing más arriba, reduciendo (pero no eliminando) sus efectos aurales. Pero no "densificando" el sampling como ellos se publicitan, pues eso no existe.

También creo (corrígeme please si estoy equivocado), que Shannon teorizaba fundamentalmente por el sampling, y menos por el bitrate (me imagino que en los años 40 ni siquiera soñaban con bitrates de 64 bits), que es de donde se producen los errores de cuantificación. Tengo por allí el famoso artículo de Shannon, tendría que leerlo a ver cuánto profundiza en la "vertical" (bitrate) además de la "horizontal" (sampling). En resumen, tengo la impresión que error de cuantificación y teoría de Shannon solo se tocan posteriormente con la evolución de las teorías de digitalización, no porque Shannon haya tratado este tema en profundidad (si es que siquiera lo trató).

A propósito, en Curiosity Channel hay un documental muy interesante sobre Shannon, "The BitPlayer", que lo recomiendo efusivamente. De su memoria de master  "A Symbolic Analysis of Relay and Switching Circuits" de 1937, que sistematizó el pensar en la data como computable, llegaron a decir que fue la más importante producida en el siglo 20... y después de eso publicó su aún más famosa teoría de las comunicaciones digitales, que estamos comentando acá. Todo un personaje.

Interesante conversa esta en todo caso.

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

En todo caso, no para Mark sino para otros en que todo esto puede parecer un poco vago, acá unos gráficos que explican muy básicamente el asunto:

audiophile-guide-to-quantization-sm.jpg

El diferencial entre la señal verde (la análoga de entrada) y la amarilla (la resolución resultante del sampling y bitrate usado), genera un diferencia que que puede constituirse en una señal audible (la línea roja).

En un archivo 16/44, y por descomposición Fourier, se muestra esta espectrografía típica de esa señal:

audiophile-guide-to-quantization-fig1.jp

Todo las barritas inferiores son el "ruido" de la linea roja del primer gráfico. Ese es el d(t).

 

Un closeup entre 20 y 2 Khz muestra esto en más detalle:

audiophile-guide-to-quantization-fig2.jp

Todas esas puntas levantadas podrían escucharse como una señal agregada a la sinusoidal original, eventualmente en un volumen audible. Para evitar eso se hace "dithering". que agrega ruido que enmascara ese posible "señal" espúrea, quedando el archivo así:

audiophile-guide-to-quantization-fig3-ne

 

Eso sería.

 

 

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Interesante es un adjetivo que el 99.9% que seguro del foro no comparte.

Este es el punto, el dither es ruido (blanco) análogo agregado a la señal, todavía no entramos al dominio digital. Es parte de lo denominaríamos el pre acondicionamiento de la señal, la pasamos por un filtro análogo y le agregamos ruido. 

d(t) es un concepto, no existe. Existe el f(t) y existe el g(t), llamamos d(t) a la diferencia solo para explicitar mejor la naturaleza del error de cuantización. 

f(t) es el valor de la señal por ejemplo 2.49583755 mV, el valor real.

g(t) es el valor capturado por el ADC 2.4 mV, el que se fuarda en el archivo.

Siempre va a haber error de cuantizacion por lo que d(t) no puede ser cero en ningun escenario. Dither no procesa d(t) no tiene idea de eso, es un ruido añadido (o valores aleatorios si se hacen digital) que enmascara d(t) y lo convierte d'(t). 

d'(t) es igual un error, pero se reproduce por DAC como ruido  (igual intensidad en todo el espectro) y es mas fácil para el oido separarlo de la señal porque están descorrelacionados. 

Y si quantizalcion es bitdepth(bits), nyquist es bitrate (kHz). Son dos cosas aparte.

Enlace al comentario
Compartir en otros sitios

1 hour ago, pbanados dijo:

En todo caso, no para Mark sino para otros en que todo esto puede parecer un poco vago, acá unos gráficos que explican muy básicamente el asunto:

audiophile-guide-to-quantization-sm.jpg

El diferencial entre la señal verde (la análoga de entrada) y la amarilla (la resolución resultante del sampling y bitrate usado), genera un diferencia que que puede constituirse en una señal audible (la línea roja).

En un archivo 16/44, y por descomposición Fourier, se muestra esta espectrografía típica de esa señal:

audiophile-guide-to-quantization-fig1.jp

Todo las barritas inferiores son el "ruido" de la linea roja del primer gráfico. Ese es el d(t).

 

Un closeup entre 20 y 2 Khz muestra esto en más detalle:

audiophile-guide-to-quantization-fig2.jp

Todas esas puntas levantadas podrían escucharse como una señal agregada a la sinusoidal original, eventualmente en un volumen audible. Para evitar eso se hace "dithering". que agrega ruido que enmascara ese posible "señal" espúrea, quedando el archivo así:

audiophile-guide-to-quantization-fig3-ne

 

Eso sería.

 

 

Segunda parte:

Una vez hecho ese "dithering" (y sorry que insista, pero DEBE ser digital, no hay corrección posible de errores de cuantificación si estos no están ya digitalizados; tú mismo  Mark dijiste que los downsampling requieren dithering, lo cual obviamente implica hacerlos en dominio digital), se puede redistribuir ese basal de  ruido blanco resultante. Eso es el Noise shaping.

Este es un ejemplo de un Noise shaping hecho en un downsampling de 24/96 a 16/44:

audiophile-guide-to-quantization-fig8.jp

Como se ve, el ruido general en las áreas audibles baja (se gana headroom), y se traslada sobre 16K en este caso, donde el oído no lo percibirá (curvas de Fletcher Munson, actualizado ahora con más precisión en el estándar ISO 226).

En un archivo de 24 bits este noise shaping, si fuera solo para ganar headroom sería innecesario (pero sí lo es para evitar los aliasing que genera), pues ya el headroom es mucho mayor que el oído puede percibir.  

MQA lo que hace es usarlo de todas maneras para ganar zonas de mayor amplitud en bitrate bajo el umbral de ruido, en donde colocar el canal escondido de datos. Supongo que es así pues el piso de ruido resultante del noise shaping en 24 bits es muy abajo, y no tiene amplitud necesaria para capturar el bitrate (reducido, 5 ó 6 bits) de las frecuencias supra-rurales. Al modelar el ruido crean áreas de altura suficiente para que esa data quepa debajo del umbral de ruido.

Dicho sea de paso, esto es una especulación más o menos informada: si se fijan en el espectrograma del tercer gráfico del post citado (el del closeup de 20 a 2 Khz), el pulso de 1 Khz no sube instantáneamente, sino es una especie de pirámide cóncava invadiendo para los lados un lote de frecuencias de amplitud decreciente. Esta es la espectrografía del "ringing" que provocan los filtros antialiasing necesarios en elredbook, y es lo que MQA evita. En la espectrografía de un archivo como este pero en MQA, esto se vería como un salto casi instantáneo, tan vertical en el closeup como se ve en la vista más general. Esto es la reducción del "time smearing", desde los 5000 uS de un redbook a los 10 uS de un MQA, que hace la respuesta a impulsos del archivo virtualmente instantánea (le quita "grasa" al archivo).

Lo anterior se logra por efecto del reemplazo de filtros antialiasing tipo brickwall por filtros extendidos que no producen este ringing (entre otras razones, las otras son mucho más complejas de explicar), lo cual es posible por haber extendido la captura a 88, 96, 192 o incluso 352K ( a más sampling, mejor el resultado). Esto solo se puede hacer en MQA, pues envía al DAC codificación o instrucciones respecto  de las características de los filtros que se usarán para ese archivo en específico. (el filtro brickwall es reemplazado por un filtro variable asociado a las características del archivo que se está convirtiendo). 

Se escuchará como el forro, dicen algunos acá, pero yo al menos lo encuentro de una inteligencia formidable...

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Me sirve para avanzar en puntos, porque quiero vender un Beolab 11 impecable y un Beolsound 4 con detalles mas un Beo4. Dos Beolab 4 malos como ya se habían enterado, paso el dato. 

No, dithering significa agregar ruido a la señal nada mas, http://www.cn-william.com/e2v/ad-ap/Dithering in Analog-to-digital Conversion.pdf

Se puede hacer en el dominio digital cuando necesitas bajar el bitdepth para evitar el aliasing. Pero lee el articulo escrito nada mas y nada menos que por el diseñador de sonido de Bang & Olufsen.

"RPDF dither has an equal probability of being any level between -0.5 LSB and 0,5 LSB. Remember that the dither signal is added before the quantization, so it can be a voltage level less than whatever voltage is equivalent to 1 LSB."

La clave es voltage level, se introduce un voltage analogo antes de la quantization

Otra fuente:

https://www.mwrf.com/technologies/components/article/21846556/reducing-adc-quantization-noise

"Dithering results in a noisy analog signal that crosses additional converter LSB boundaries and yields a quantization noise that is much more random, with a reduced level of undesirable spectral harmonics Fig. 4(b)>."

Claro si buscas articulo sobre producción musical dithering es el ultimo paso antes de la masterización, pero eso por otra razones ajenas al proceso ADC DAC. 

Enlace al comentario
Compartir en otros sitios

1 hour ago, MarkVII dijo:

No, dithering significa agregar ruido a la señal nada mas, http://www.cn-william.com/e2v/ad-ap/Dithering in Analog-to-digital Conversion.pdf

Ok Mark, tienes razón. En procesos ADC, el dithering se hace antes de la conversión a digital. También hay dithering digital, como en el caso de downsampling. Todo el resto de lo discutido sigue vigente en todo caso, que se haga en dominio digital o antes en análogo no cambia nada el concepto.

Quizás un concepto digno de destacar en esto es que cuando se hace antes (en ADC), se agrega ruido blanco para hacerlo (hay varias técnicas posibles). Cuando ya es en dominio digital, se "randomiza" (se hace aleatoria y no siguiendo un patrón de los samplings) la data del piso de ruido capturado.

Muy buen artículo el de cn-william.com, justo había caído en el mismo unos minutos antes de tu mensaje.

Todos los días se puede aprender algo. Muchas gracias.

 

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Después de leer los aportes de ambos, más algo que he investigado por mi cuenta, me gustarìa dejar un comentario/reflexión respecto al proceso de digitalización o el audio digital en de manera genérica:

 

Lo primero es que me parece que a los consumidores se nos ha engañado en forma bastante impresentable. Se nos dijo que el CD o el audio digital era perfecto, usando como justificación el teorema de Nyquist-Shannon como la base, pero resulta que las implementaciones reales no siguen el teorema. Evidentemente, las análogas tampoco logran la "fidelidad" real, pero no creo que la hayan publicitado como sí se hizo con el audio digital. 

Segundo, ¿cómo podríamos considerar que las pistas de audio a las cuales se les agrega ruido (en fases ADC y de downsamplig para CD) para enmascarar problemas técnicos de la implementación digital, una solución purista desde el punto de vista del dominio digital y de fidelidad a la fuente?

Tercero, creo que @pbanados ha hecho un tremendo esfuerzo por explicar MQA y cuales son sus ventajas y principios. Lo cierto es que MQA parece ser una mitigación a un problema tecnológico que la misma industria nos ha hecho creer que no existe, por ese motivo, los puristas consideran su enfoque "no lossless" como un sacrilegio a la amada perfección que supone lo digital. La realidad es que MQA usa compresión e incluye instrucciones de mitigación para que el DAC reproduzca lo mejor posible el contenido pero, como bien señala, jamás va a reconstruir una señal igual al FLAC/WAV original, que sería la base de las críticas de GoldenSound y Archimago al medir y comparar estos formatos. Me parece que ambas caras de la moneda son válidas. Las de MQA por un lado, van por el lado del criterio ingenieril, respecto a resolver problemas de las implementaciones reales ya que los defensores del FLAC (u otros formatos sin pérdidas) van por el lado del purismo y la fidelidad absoluta en dominio digital . Hago incapié en esto último, porque el fin de cuentas, como muy bien explica @pbanados, el formato tiene dos dimensiones, la de archiving (almacenamiento) vs la de la reproducción por medios físicos. Lo cual, si bien es muy fácil que los confundamos, después de todo creemos escuchar el FLAC (o el MQA), la verdad es diferente. Lo que escuchamos es lo que reproduce el DAC, con sus infinitas variaciones e implementaciones, sus filtros digitales y análogos y esto, paradójicamente, no tiene nada que ver con el concepto de la codificación de almacenamiento del archivo (bueno tal vez si lo pensamos en términos de PCM y DSD, que son los formatos que "entienden" los DACs sí tenga que ver, pero el punto acá es diferente).  En el concepto del archivo, las variables que juegan tienen que ver con cómo producimos el archivo y cómo lo almacenamos con eficiencia. Por otra parte, esta producción del archivo está metiendo al juego componentes de psicoacústica, o sea, el archivo tampoco es fiel.

Preguntas que tenemos que hacernos al día de hoy es: ¿en qué punto trazamos la línea divisora entre lo que es alta fidelidad y lo que no lo es? ¿necesitamos migrar a un formato definitivo en high res que elimine los artefactos artificiales que se introducen al audio digital? ¿quién tiene la autoridad para definir lo que es o no audible? ¿tenemos que condicionar el formato de los archivos a lo que es generalmente aceptado como audible o debiésemos considerar anchos de banda mayores? ¿que tan cierto es que el ruido digital trasladado a frecuencias utrasónicas es realmente inocuo? ¿qué pasa con los armónicos del ruido al reproducirlo en equipos reales, afectan los espectros audibles ? (yo pienso que sí, pero entiendo si hay gente que no está de acuerdo)

 

Editado por Bozon
Enlace al comentario
Compartir en otros sitios

1 hour ago, Bozon dijo:

Después de leer los aportes de ambos, más algo que he investigado por mi cuenta, me gustarìa dejar un comentario/reflexión respecto al proceso de digitalización o el audio digital en de manera genérica:

 

Lo primero es que me parece que a los consumidores se nos ha engañado en forma bastante impresentable. Se nos dijo que el CD o el audio digital era perfecto, usando como justificación el teorema de Nyquist-Shannon como la base, pero resulta que las implementaciones reales no siguen el teorema. Evidentemente, las análogas tampoco logran la "fidelidad" real, pero no creo que la hayan publicitado como sí se hizo con el audio digital. 

Segundo, ¿cómo podríamos considerar que las pistas de audio a las cuales se les agrega ruido (en fases ADC y de downsamplig para CD) para enmascarar problemas técnicos de la implementación digital, una solución purista desde el punto de vista del dominio digital y de fidelidad a la fuente?

Tercero, creo que @pbanados ha hecho un tremendo esfuerzo por explicar MQA y cuales son sus ventajas y principios. Lo cierto es que MQA parece ser una mitigación a un problema tecnológico que la misma industria nos ha hecho creer que no existe, por ese motivo, los puristas consideran su enfoque "no lossless" como un sacrilegio a la amada perfección que supone lo digital. La realidad es que MQA usa compresión e incluye instrucciones de mitigación para que el DAC reproduzca lo mejor posible el contenido pero, como bien señala, jamás va a reconstruir una señal igual al FLAC/WAV original, que sería la base de las críticas de GoldenSound y Archimago al medir y comparar estos formatos. Me parece que ambas caras de la moneda son válidas. Las de MQA por un lado, van por el lado del criterio ingenieril, respecto a resolver problemas de las implementaciones reales ya que los defensores del FLAC (u otros formatos sin pérdidas) van por el lado del purismo y la fidelidad absoluta en dominio digital . Hago incapié en esto último, porque el fin de cuentas, como muy bien explica @pbanados, el formato tiene dos dimensiones, la de archiving (almacenamiento) vs la de la reproducción por medios físicos. Lo cual, si bien es muy fácil que los confundamos, después de todo creemos escuchar el FLAC (o el MQA), la verdad es diferente. Lo que escuchamos es lo que reproduce el DAC, con sus infinitas variaciones e implementaciones, sus filtros digitales y análogos y esto, paradójicamente, no tiene nada que ver con el concepto de la codificación de almacenamiento del archivo (bueno tal vez si lo pensamos en términos de PCM y DSD, que son los formatos que "entienden" los DACs sí tenga que ver, pero el punto acá es diferente).  En el concepto del archivo, las variables que juegan tienen que ver con cómo producimos el archivo y cómo lo almacenamos con eficiencia. Por otra parte, esta producción del archivo está metiendo al juego componentes de psicoacústica, o sea, el archivo tampoco es fiel.

Preguntas que tenemos que hacernos al día de hoy es: ¿en qué punto trazamos la línea divisora entre lo que es alta fidelidad y lo que no lo es? ¿necesitamos migrar a un formato definitivo en high res que elimine los artefactos artificiales que se introducen al audio digital? ¿quién tiene la autoridad para definir lo que es o no audible? ¿tenemos que condicionar el formato de los archivos a lo que es generalmente aceptado como audible o debiésemos considerar anchos de banda mayores? ¿que tan cierto es que el ruido digital trasladado a frecuencias utrasónicas es realmente inocuo? ¿qué pasa con los armónicos del ruido al reproducirlo en equipos reales, afectan los espectros audibles ? (yo pienso que sí, pero entiendo si hay gente que no está de acuerdo)

 

a) Sobre el primer punto, en verdad @Bozon no creo que el problema es que se hayan tratado de engañar a los consumidores cuando Phillips y Sony definieron el redbook base del formato digital del CD. Pienso que honestamente creían entonces que estaban logrando algo cercano a la perfección auditiva. El problema fundamental es que no consideraron los efectos audibles de la necesidad de limitar la banda a procesar (y cuya única forma de hacerlo es con un filtro vertical - tipo brickwall- como proponía Shannon, lo que en la práctica resultó imposible), requerimiento del teorema de Nyquist-Shannon en que se basa todo esto. 

Esto que pareciera ser una especulación mía queda a las claras cuando uno se percata del espacio miserable de 20Khz a 22.05 Khz que el estándar redbook dejó para ese filtro brickwall. De ello surgen los dos problemas principales del redbook: 1- no se pueden hacer filtros tan perfectos, y por lo tanto igual se siguen colando frecuencias que generan aliasing en el redbook, y 2- el uso de filtros tan violentos genera "ringing" de impulsos y corrimiento de fases de los armónicos. Y estos dos son problemas MUY graves en la fidelidad auditiva.

Este segundo punto es la principal omisión del redbook, y es LA causa por la cual los CD suenan "duros" o "ásperos"; y no porque la señal no sea lo suficientemente redonda. Si el problema del filtro no existiera en redbook el formato sonaría casi perfecto y simplemente no existirían formatos de mayor sampling. Eso si, en cuanto al bitrate es un poco más dudoso el asunto, y allí tb sospecho que no aquilataron suficientemente el problema de los errores de cuantificación que ya hemos tratado en los últimos post. Esos errores son importantes no porque el headroom logrado sea insuficiente (teóricamente lo es, y de hecho es mucho, mucho mejor que en un vinilo), sino porque raramente se puede aprovechar por completo, o regularmente la señal audible (en un pianissimo por ejemplo) solo está un poco por sobre ese piso y por lo tanto lo haría presente por comparación; y entonces la presencia de un piso de ruido cercano sí es relevante.

---

b) Sobre lo segundo: esto del dithering es uno de los problemas más interesantes y más estudiados de la teoría de la digitalización, y no es un asunto del audio no más, es de cualquier dominio donde se aplique digitalización. El dithering se usa en procesamiento de imágenes, de video, o hasta en el procesamiento bursátil en los programas que procesan una serie temporal de precios para detectar eventuales señales en ellos. Se usa en todo, es parte esencial del procesamiento de señales, y no un problema técnico que se esté tratando de enmascarar. Es parte de la definición del problema.

---

c) Sobre tu tercer punto: MQA NO USA COMPRESIÓN (al menos no en forma distinta que cualquier otro archivo digital no lossy; y si la usaran, hay que estar conscientes que Gerzon y Craven eran absolutos expertos en procesamiento lossless, de hecho fueron ellos quienes definieron el estándar DVD para ello). Lo que hace es reemplazar el ruido blanco del piso de ruido capturado por un canal de datos escondido allí, con información que trae de bandas supra-aurales y con instrucciones específicas para el DAC de cómo reemplazar los filtros estándares de un redbook por otros más sofisticados. MQA no "arruga" las cartas del mazo de naipes para hacerlas más compactas, lo que hace es barajarlas de distinta manera.

Ahora bien, para hacerlo trabaja fuertemente con el Noise-shaping de ese piso de ruido para ganar espacio para la altura en bits de lo que está trayendo en ese canal de datos (el contenido sobre 20 Khz, que no tiene más de 5 ó 6 bits en todo caso). Como el piso de ruido resultante ahora son datos enmascarados como ruido, el resultado obviamente no es igual al ruido del un CD con el que GoldenSound y Archimago lo quieren comparar. Pero esa sola pretensión de comparación es completamente estúpida si se entiende el problema que se está analizando. Sería como decir que a Neruda le cambiaron el poema porque el color del papel de una segunda edición es distinto...Si te interesa documentar la "primera edición" del poema sí es relevante (archivamiento); si en cambio te interesa preservar o incluso mejorar la comprensión del poema no lo es (y esto es lo que no interesa, no? que la música suene más de acorde a las intenciones con que sus creadores la hicieron  originalmente, reflejadas en el master).

Además de eso MQA aplica unos filtros extendidos (para el reemplazo del brickwall, evitando con filtros benignos los efectos comentados al principio). Estos otros filtros eventualmente recortarían la señal en las octavas superiores, lo cual es fuente de nuevas diferencias respecto del CD en las comparaciones de Archimago... pero solo si se miden señales anti-naturales tales como ondas cuadradas, pues la música real jamás tiene grandes amplitudes en esas octavas que pudieran sufrir pérdidas por ese recorte. Nuevamente, MQA no es un formato para registrar fotos de la NASA enviadas por el Curiosity, es para procesar música.

Esto último es la mayor fuente de críticas de estos dos gallos al formato, y paradójicamente es lo que explica el por qué MQA suena distinto (yo creo que mejor, otros acá que creen que no). Pero ese es todo el punto de hacerlo: para que NO suenen igual, y no para que suenen igual...! Lo que MQA hace es sacarle contenido "anti-natural" al archivo, que en el CD sí existía (lo que he llamado "grasa" en varios post). 

---

Sobre tu reflexión final: el asunto acá es que todo el mundo tiene acostumbrada las pailas a las anomalías del audio heredadas por estos esquemas (el vinilo agrega otras tan importantes como estas creo yo). Eso lo sienten algunos acá como sonido "orgánico". Yo creo que es precisamente lo contrario: es sonido pichicateado, pero rico a algunas pailas.

 

 

 

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Esto se vuelve medio filosofico, pero veamos, si en el foro hablan de meter distorsión armónica de segundo orden como "mejora de la reproducción", usando nada mas y nada menos que transformadores y saturando tubos, entonces no podemos hablar de alta fidelidad. Si la discusión ha de seguir tenemos que definir que es Hi Fi y la definición tradicional es reproducción libre de distorsiones, por lo que los SET no aplican. Mejor sonido? Puede ser, pero mas fidelidad?

La discusión del dither es re simple y matemáticamente comprobada, la distorsión resultante despues de aplicar dither está descorrelacionada del programa y por lo tanto es ruido, genuino ruido, no algo parecido a ruido porque es aleatoria. Entonces 96 db de señal sobre ruido es excelente, mejor que todos los otros formatos anteriores. Se puede mas? Claro pero no se necesita en 99% de los casos y el 1% no es musica seguro que es HT. Asi que dither no introduce "Artefactos"

El almacenamiento es punto muerto, a estas alturas Flac es fácil de almacenar y transmitir con los anchso de banda acúlales, MQA es innercesario, cuando se creo podria ser que fuera algo útil. Pero no creo, la intención siempre fue cobrar royalties.

Todos lo puntos discutidos anteriormente son la teoría,  no creo que alguien en la vida real aplique dither análogo sobre 24bits, tendrías que poner ruido a -140db que no creo que siquiera sea posible. Son ejemplos didácticos que enseñan como funciona el audio digital. 

Lo de los filtros digitales o de reconstrucción existen artículos sobre eso, la distorsión provocada por al reconstrucción es menor que  todas las otras fuentes. Está ademas en las mediciones, el THD es mínimo.

Otro punto sobre al diferencia entre la teoría y la realidad es que ahora se puede hacer una gran parte de la interpolación en digital aproximando mucho mas al ideal por lo que el CD sigue vigente como medio de alta fidelidad. 

La discusión es mas ideológica en el sentido que ciertas distorsiones don audiofilas y otras son de los mundanos. Asi que -60 db de armónicos pares son excelentes, pero -96 de ruido no. El tocadiscos tiene pésima separacion de canales que seguro que genera algun efecto "nice" sobre el soundstage.

Mi comentario es para todo el mundo, porque tambien no se puede decir que MQA es lossless porque hace un proceso psicacoustico solo con el ruido, como es que determina que es ruido? La defincion de de lossy es irreversible, MQA es irreversible Flac es reversible. 

 

  • Like 1
Enlace al comentario
Compartir en otros sitios

hace 55 minutos, MarkVII dijo:

Esto se vuelve medio filosofico, pero veamos, si en el foro hablan de meter distorsión armónica de segundo orden como "mejora de la reproducción", usando nada mas y nada menos que transformadores y saturando tubos, entonces no podemos hablar de alta fidelidad. Si la discusión ha de seguir tenemos que definir que es Hi Fi y la definición tradicional es reproducción libre de distorsiones, por lo que los SET no aplican. Mejor sonido? Puede ser, pero mas fidelidad?

La discusión del dither es re simple y matemáticamente comprobada, la distorsión resultante despues de aplicar dither está descorrelacionada del programa y por lo tanto es ruido, genuino ruido, no algo parecido a ruido porque es aleatoria. Entonces 96 db de señal sobre ruido es excelente, mejor que todos los otros formatos anteriores. Se puede mas? Claro pero no se necesita en 99% de los casos y el 1% no es musica seguro que es HT. Asi que dither no introduce "Artefactos"

El almacenamiento es punto muerto, a estas alturas Flac es fácil de almacenar y transmitir con los anchso de banda acúlales, MQA es innercesario, cuando se creo podria ser que fuera algo útil. Pero no creo, la intención siempre fue cobrar royalties.

Todos lo puntos discutidos anteriormente son la teoría,  no creo que alguien en la vida real aplique dither análogo sobre 24bits, tendrías que poner ruido a -140db que no creo que siquiera sea posible. Son ejemplos didácticos que enseñan como funciona el audio digital. 

Lo de los filtros digitales o de reconstrucción existen artículos sobre eso, la distorsión provocada por al reconstrucción es menor que  todas las otras fuentes. Está ademas en las mediciones, el THD es mínimo.

Otro punto sobre al diferencia entre la teoría y la realidad es que ahora se puede hacer una gran parte de la interpolación en digital aproximando mucho mas al ideal por lo que el CD sigue vigente como medio de alta fidelidad. 

La discusión es mas ideológica en el sentido que ciertas distorsiones don audiofilas y otras son de los mundanos. Asi que -60 db de armónicos pares son excelentes, pero -96 de ruido no. El tocadiscos tiene pésima separacion de canales que seguro que genera algun efecto "nice" sobre el soundstage.

Mi comentario es para todo el mundo, porque tambien no se puede decir que MQA es lossless porque hace un proceso psicacoustico solo con el ruido, como es que determina que es ruido? La defincion de de lossy es irreversible, MQA es irreversible Flac es reversible. 

 

Si claro, es filosófico. Aún cuando me gustan los tubos y lo rico que suenan sus distorsiones en segundos armónicos, y a veces tb el sonido del vinilo, parto por reconocer que es menos fidedigno (son distorsiones, al fin y al cabo). Si hablamos estrictamente de "alta fidelidad" y no de que suene rico no más, los tubos y especialmente el vinilo son tecnologías con anomalías fundamentalmente erróneas, mucho más erróneas que los errores de digitalización que estamos comentando. Pero sí, suenan rico. El violín suena en ellos a veces más rico que el que tocó Pinchas Zukerman originalmente. Si eso es lo que quieres, bien por tí, excelente incluso. A mí me interesa(ba) especialmente recrear el "espacio" audible que fue originalmente grabado, punto en el cual tecnologías antiguas son especialmente débiles.Y MQA en cambio es especialmente fuerte, pues la resolución de esos aspectos es extremadamente dependiente de la respuesta a impulsos y coherencia de fases de armónicos, que es lo que ella mejora.

"almacenamiento es un punto muerto... MQA es innecesario": No, estás mirando mal el asunto del MQA, precisamente porque no se trata de almacenamiento el problema. El MQA no es solo tener un archivo hires en un tamaño menor (lo cual sigo sosteniendo es importante de todas maneras, especialmente para el streaming). De hecho eso es casi un sub-producto (*) de lo realmente importante del formato: el que elimina los problemas de corrimiento de fases y de lentitud de impulsos que son inherentes al estándar CD. La mayoría de los archivos hires de otros tipos aminoran estos problemas (y creo que es la única razón por la cual suenan mejor que un CD), pero no los eliminan completamente; el MQA sí. Por eso Tidal suena mejor que Qobuz, si se comparan los archivos correctos en que ambos casos maximizan la potencialidad de los respectivos formatos.

Este tema además está contaminado con el asunto completamente fuera del tema audible que es el de royalties que mencionas y la posible certificación de autoría que incluye el formato, sobre lo cual todo lo discutido son meras especulaciones pues nadie realmente sabe qué, cómo y cuánto es lo que MQA cobra por ello. Que en todo caso no puede ser mucho, pues ni aún hoy esta tecnología ha sido un buen negocio, y los productos que la incorporan son solo marginalmente más caros.

Cuando MQA ideó una forma de esconder un canal de datos bajo el piso de ruido, uno de los usos que le dio fue agregar metadata útil, y se decidió que entre muchas posibles alternativas de qué poner allí,  la importante era certificar que la calidad resultante era lo más parecido posible al master desde el cual se preparó ese archivo, certificación emitida por el emisor del archivo (el estudio o el ingeniero de grabación normalmente). Quizás la cagaron con meterse en la pata de los caballos con esto, puede no aquilataran la cantidad de problemas y variables que harían a la gente cuestionar esto (caso Neil Young).  Pero teóricamente esta idea de un canal de datos escondidos podría tener otros usos: cuando publicaron (mucho antes del MQA incluso) la patente de este canal de datos escondido sugerían de hecho varios posibles usos: instrucciones DSP incluidas en el archivo; canales adicionales de música para sistemas multicanal, etc.

 

(*): subproducto en el sentido que creo que MQA no busca extender la resolución per se, lo hace para poder implementar con esa mayor resolución los beneficios de mejora de impulsos. Y para implementarlas, necesita tb un canal de datos escondido. El resultado es que con ese canal de datos. bajo el piso de ruido se puede hacer todo en un archivo más pequeño que un 24/96, pero con mejor calidad auditiva. 

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 14 minutos, pbanados dijo:

Pero teóricamente esta idea de un canal de datos escondidos podría tener otros usos: cuando publicaron (mucho antes del MQA incluso) la patente de este canal de datos escondido sugerían de hecho varios posibles usos: instrucciones DSP incluidas en el archivo; canales adicionales de música para sistemas multicanal, etc.

Eso se llama in band signaling, corrompe el PCM, otro compromiso para compatibilidad. Este método existe desde hace 100 años, el primer formato dolby stereo usaba eso. La información del canal trasero era codificada entre los canales L y R, esperando que en ausencia de un decodificador como pro-logic no pasara nada. Out  band signaling es lo optimo para no ensuciar el stream.

En el sitio de Bob dice lo siguitente

"‘Deblurring’ of the source to remove audible artefacts introduced by analogue-digital converters, mixing and mastering."

No suena para nada logico, los artefactos no se introducen en ADC y el Mix es la calidad maxima. Lo logico es MQA entregue herramientas para producir el mix que es el equivalente del director's cut. Suena a lo que pondría llame ya, con Swiss nature labs.

Meridian es una compañía que producía excelentes CD y DSP y que ahora tiene que buscar nuevos negocios como su asociacion con LG, que para colmo suenan re mal con musica.  Por que no pones fuentes donde especifiquen un poco lo del MQA, porque con el famoso SACD lo que hacen era un remix completo que sonaba mejor que el master CD. Pero estaban comparando peras con manzanas.

Enlace al comentario
Compartir en otros sitios

Después de leer los aportes de ambos, más algo que he investigado por mi cuenta, me gustarìa dejar un comentario/reflexión respecto al proceso de digitalización o el audio digital en de manera genérica:

 

Lo primero es que me parece que a los consumidores se nos ha engañado en forma bastante impresentable. Se nos dijo que el CD o el audio digital era perfecto, usando como justificación el teorema de Nyquist-Shannon como la base, pero resulta que las implementaciones reales no siguen el teorema. Evidentemente, las análogas tampoco logran la "fidelidad" real, pero no creo que la hayan publicitado como sí se hizo con el audio digital. 

Segundo, ¿cómo podríamos considerar que las pistas de audio a las cuales se les agrega ruido (en fases ADC y de downsamplig para CD) para enmascarar problemas técnicos de la implementación digital, una solución purista desde el punto de vista del dominio digital y de fidelidad a la fuente?

Tercero, creo que [mention=15723]pbanados[/mention] ha hecho un tremendo esfuerzo por explicar MQA y cuales son sus ventajas y principios. Lo cierto es que MQA parece ser una mitigación a un problema tecnológico que la misma industria nos ha hecho creer que no existe, por ese motivo, los puristas consideran su enfoque "no lossless" como un sacrilegio a la amada perfección que supone lo digital. La realidad es que MQA usa compresión e incluye instrucciones de mitigación para que el DAC reproduzca lo mejor posible el contenido pero, como bien señala, jamás va a reconstruir una señal igual al FLAC/WAV original, que sería la base de las críticas de GoldenSound y Archimago al medir y comparar estos formatos. Me parece que ambas caras de la moneda son válidas. Las de MQA por un lado, van por el lado del criterio ingenieril, respecto a resolver problemas de las implementaciones reales ya que los defensores del FLAC (u otros formatos sin pérdidas) van por el lado del purismo y la fidelidad absoluta en dominio digital . Hago incapié en esto último, porque el fin de cuentas, como muy bien explica [mention=15723]pbanados[/mention], el formato tiene dos dimensiones, la de archiving (almacenamiento) vs la de la reproducción por medios físicos. Lo cual, si bien es muy fácil que los confundamos, después de todo creemos escuchar el FLAC (o el MQA), la verdad es diferente. Lo que escuchamos es lo que reproduce el DAC, con sus infinitas variaciones e implementaciones, sus filtros digitales y análogos y esto, paradójicamente, no tiene nada que ver con el concepto de la codificación de almacenamiento del archivo (bueno tal vez si lo pensamos en términos de PCM y DSD, que son los formatos que "entienden" los DACs sí tenga que ver, pero el punto acá es diferente).  En el concepto del archivo, las variables que juegan tienen que ver con cómo producimos el archivo y cómo lo almacenamos con eficiencia. Por otra parte, esta producción del archivo está metiendo al juego componentes de psicoacústica, o sea, el archivo tampoco es fiel.

Preguntas que tenemos que hacernos al día de hoy es: ¿en qué punto trazamos la línea divisora entre lo que es alta fidelidad y lo que no lo es? ¿necesitamos migrar a un formato definitivo en high res que elimine los artefactos artificiales que se introducen al audio digital? ¿quién tiene la autoridad para definir lo que es o no audible? ¿tenemos que condicionar el formato de los archivos a lo que es generalmente aceptado como audible o debiésemos considerar anchos de banda mayores? ¿que tan cierto es que el ruido digital trasladado a frecuencias utrasónicas es realmente inocuo? ¿qué pasa con los armónicos del ruido al reproducirlo en equipos reales, afectan los espectros audibles ? (yo pienso que sí, pero entiendo si hay gente que no está de acuerdo)

 

Estás mezclando 2 cosas del MQA, una son las supuestas mejoras que tienen los procesos de captura, digitalización y dac, que podrán ser discutibles pero tienen su lógica y pueden ser ciertas. Ahora estas mejoras no tienen nada que ver con su proceso de empaquetamiento (posterior e independiente a los primeros) cuya única función es reducir el tamaño del archivo, ese es un segundo tema y las críticas se enfocan en que este proceso de empaquetamiento (no recuerdo críticas a sus supuestas mejoras en captura/digitalización más que la realidad de que en muchos casos no hay tal proceso y que además los mismos MQA indican que el 70% de su supuesta mejora está en usar sus técnicas desde cinta análoga) reduce la calidad que podría tener el mismo mqa (o el pcm original) antes de empaquetarlo y en especial reduce más la calidad si no se usa una cadena “full mqa”. Los críticos indican esto además indicando que el proceso sólo se haría con objeto de asegurar ventas de sus licencias. Esto de las pérdidas en el proceso de empaquetamiento es 100% cierto en lo teórico, añades varios pasos, filtros etc que degradan el auto contenido original MQA, si serán audibles o nno lo se, pero la discusión sería tanto más simple para ellos mismos si entregaran un MQA “full” sin empaquetamiento (las instrucciones de filtro específicas pal dac pueden ir igual), tendrían un nicho incluso dispuesto a pagar más.

Enlace al comentario
Compartir en otros sitios

Encontré este video que es 100% preciso, la belleza es que usa instrumentos antiguos 100% analógicos, cubre todos los temas y empíricamente demuestra los efectos del dither. Es tan preciso que distingue entre la salida de escaleras (zero hold) del circuito físico  y el tren de impulsos de Dirac  que es parte del teorema. 

 

 

Enlace al comentario
Compartir en otros sitios

hace 7 minutos, Patagonia dijo:


Estás mezclando 2 cosas del MQA, una son las supuestas mejoras que tienen los procesos de captura y digitalización, que podrán ser discutibles pero tienen su lógica y pueden ser ciertas. Ahora estas mejoras no tienen nada que ver con su proceso de empaquetamiento (posterior e independiente a los primeros) cuya única función es reducir el tamaño del archivo, ese es un segundo tema y las críticas se enfocan en que este proceso de empaquetamiento (no recuerdo críticas a sus supuestas mejoras en captura/digitalización más que la realidad de que en muchos casos no hay tal proceso y que además los mismos MQA indican que el 70% de su supuesta mejora está en usar sus técnicas desde cinta análoga) reduce la calidad que podría tener el mismo mqa (o el pcm original) antes de empaquetarlo y en especial reduce más la calidad si no se usa una cadena “full mqa”. Los críticos indican esto además indicando que el proceso sólo se haría con objeto de asegurar ventas de sus licencias. Esto de las pérdidas en el proceso de empaquetamiento es 100% cierto en lo teórico, añades varios pasos, filtros etc que degradan el auto contenido original MQA, si serán audibles o nno lo se, pero la discusión sería tanto más simple para ellos mismos si entregaran un MQA “full” sin empaquetamiento (las instrucciones de filtro específicas pal dac pueden ir igual), tendrían un nicho incluso dispuesto a pagar más.

Ok pero el contenido MQA es contenido previamente grabado, donde ahi está la ventaja si el original multipista y la mezcla final están en PCM?. Igual es bueno para el negocio vender la cadena completa, mas royalties, pero en general las grabaciones MQA son re ediciones recodificadas en MQA

Enlace al comentario
Compartir en otros sitios

hace 2 horas, MarkVII dijo:

Eso se llama in band signaling, corrompe el PCM, otro compromiso para compatibilidad. Este método existe desde hace 100 años, el primer formato dolby stereo usaba eso. La información del canal trasero era codificada entre los canales L y R, esperando que en ausencia de un decodificador como pro-logic no pasara nada. Out  band signaling es lo optimo para no ensuciar el stream.

En el sitio de Bob dice lo siguitente

"‘Deblurring’ of the source to remove audible artefacts introduced by analogue-digital converters, mixing and mastering."

No suena para nada logico, los artefactos no se introducen en ADC y el Mix es la calidad maxima. Lo logico es MQA entregue herramientas para producir el mix que es el equivalente del director's cut. Suena a lo que pondría llame ya, con Swiss nature labs.

Meridian es una compañía que producía excelentes CD y DSP y que ahora tiene que buscar nuevos negocios como su asociacion con LG, que para colmo suenan re mal con musica.  Por que no pones fuentes donde especifiquen un poco lo del MQA, porque con el famoso SACD lo que hacen era un remix completo que sonaba mejor que el master CD. Pero estaban comparando peras con manzanas.

😄

Interesante que cites a Dolby. Cuando Thomas Dolby estaba definiendo su formato, viajaba de California a Oxford, UK, específicamente para pedirle consejo a Gerzon (el creador intelectual de MQA, y gran ingeniero matemático), pues era el experto mundial en este tema del encapsulado de datos (Band Signaling). No sé en verdad si tiene 100 años, (todo el audio tiene como 90, la AES tiene 75),  pero en la patente que Gerzon publicó sobre le tema está la referencia a la única patente anterior sobre lo mismo, la cual ellos mejoraron significativamente. De hecho, tan importante habría sido la contribución de Gerzon en el formato, que Dolby le habría ofrecido ser socio de la empresa, cosa que Gerzon, que era bastante excéntrico rechazó, pues le gustaba la investigación y no se quería mover de Oxford. Supongo que prefería codearse con Hawkins que con los gringos de California..

Foto de Ray Dolby en Oxford (creo que es de fines de los 60 o principios de los 70), donde le estaba pidiendo consejos a Peter Craven (izq, el gran Partner de Gerzon y co-creador del MQA) y Michael Gerzon (Der), sobre el diseño del sistema Dolby. Gerzon había fundado la Audio Society de Oxford, y era la estrella del depto de ingeniería acústica de esa Universidad. En ingeniería de audio, Gerzon está considerado como uno de los más grandes genios de la historia de esta disciplina, por la cual la AES le dió la Gold Medal, que solo han obtenido unos 70 ingenieros en su historia (otros: Studer, Rudy Van Gelder, el propio Dolby, Shannon, etc). Lamentablemente se murió muy temprano, en 1996 creo, de asma y otras afecciones. Tenía también una paila privilegiada por lo que cuentan: está certificado año que podía escuchar al menos hasta 22 Khz.

Craven-Dolby-Gerzon.png

 

Obviamente que el band signaling le quita compatibilidad con el PCM original. No tiene por qué tenerla, está explícitamente diseñado para no tenerla, de hecho. Por eso se necesitan DAC's con MQA, o al menos un software que le haga el desdoblado parcial.

No quiero parecer pendante @MarkVII, pero en esto de MQA soy bastante experto; he estudiado en profundidad kilos de información disponible, literalmente decenas de artículos, documentos, patentes y papers, como les consta a varios acá. Hay un par de hilos en este foro donde puedes ver en detalle de qué se trata el "deblurring" si tienes dudas sobre ello.

Los procesos ADC SI incluyen muchos artefactos en la digitalización en el dominio del tiempo, como solo hoy he explicado un par de veces y en el foro, al menos una 15 veces en estos meses (estos se producen por efecto fundamentalmente del filtro en frecuencia de Nyquist).

En una explicación muy simplificada, básicamente el "deblurring" de MQA (evitar la "borrosidad" provocada por el ringing a impulsos) se trata de evitar el uso de filtros brickwall en la frecuencia de Nyquist, y reemplazarlos por filtros extendidos y de geometría variable (adaptada al contenido del archivo). En artículos sobre procesamiento digital en otros dominios, como en procesamiento de imágenes, se ocupa el mismo concepto: "blurring" habitualmente, y su efecto en imagen es clarísimo. Generalmente en audio la gente no está acostumbrada a esto, pues rara vez se habla del time-doman, sino siempre del frecuency-domain. La traslación entre uno y otro dominio de hace a través de transformadas Fourier.

En MQA hay medidas adicionales, como la implementación de una serie de filtros complementarios cuando los proyectos son detallados (por ejemplo, hay traqueo de cómo se hizo la grabación original), para compensar (mediante filtros convolucionales básicamente) los efectos de "time Smearing" que crearon cada uno de los equipos que se usó en la grabación del master original. Como resultado de todo ello, un archivo MQA de sampling altos llega a una respuesta de impulsos de 10 uS (microsegundos) si el master era digital, y 3 uS si el master era análogo. El PCM redbook tiene una respuesta de unos 5000 uS. Estos filtros adicionales, focalizados en la grabación, es parte de la información al DAC que queda codificada en el canal escodido de datos.

Un efecto complementario de los filtros que alteran el time Domain (esto se llama "ringing") es que van corriendo las fases de los armónicos de una onda compuesta, con el resultado que la forma de onda resultante tiene importantes discrepancias con la original. Hace unas décadas se pensaba que esta coherencia de fases de armónicos era irrelevante, pues no se habría escuchado. Actualmente está aceptado que sí se escucha, y es uno del los aspectos más relevantes en la resolución de la información espacial: es lo que permite definir focalizadamente en el espacio dónde está cada evento sonoro de la grabación (imaging, soundstage). 

Si quieres consultar más en detalle lo anterior, te puedo enviar después los datos de la patentes a que me refiero para que las leas.

Dicho sea de paso, el oído humano puede captar respuestas a impulsos hasta tan poco como 12 a 8 uS (esta última cifra es la más aceptada, por investigaciones de universidades japonesas). Varias páginas atrás en este hilo están los gráficos de la diferencia de respuesta a impulsos en el time Domain que tiene un PCM normal y un MQA.

 

 

 

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invitado
Responder en este tema...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Crear Nuevo...