Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

MQA - La verdad


tanglewire

Recommended Posts

Leyendo tu comentario me acordé de algo, los sistemas de streaming ocupan técnicas de transmisión para dar la sensación de instantaneidad, que incluyen permitir la perdida de información considerando que "no se nota". En el mecanismo diseñados inicialmente por Spotify consideraron eso, aparte de la adaptabilidad de la codificación para hacer mas liviana la transmisión. 
Hay un punto en el audio digital que no me queda claro, cdda tiene 44k muestras por segundo lo que permite reconstruir una señal de 22khertz, entonces, ¿192k de muestreos permiten frecuencias de hasta 96khertz?
Otro cosa es la igualdad de condiciones, no es comparable un cd a un streaming, en el sentido puro de los bits y bytes, sus transportes y procesos de codificación/decodificación, ambos medios tiene procesos intermedios diferentes desde la captura de audio hasta la salida análoga para ser amplificada, cada etapa tiene sus particularidades en la implementación que las hacen diferentes, y por tanto difícil de comparar. En informática existen infinitas implementación para una misma solución, todo dependerá del programador de turno, la tecnología existente, etc. Por ejemplo, existen varias implementaciones para codec flac, pero los resultados son diferentes, suenan diferente.
Por cierto, no creo que vayas a chacrear el tema, son dudas razonables, jajajaja 

A la pregunta, si, con 192khz puedes muestrear 96khz, y con 24bit lo qué haces es subir el rango dinámico de 96db a 144db (nominal, con técnicas de dithering se puede llegar hasta 120db en 16bit).

Ambas cosas son importantes en la etapa de producción, pero en teoría deberían ser irrelevantes en reproducción, con 22khz pasas lo que alguien puede escuchar y con unos 90db de rango también (una sala silenciosa tiene al menos 30db de ruido de fondo, si le sumas 90db estas en 120 que son niveles inescuchables y peligrosos salvo algún peak puntual)

Peeero, primero el teorema dice que una señal de banda limitada puede representarse completamente con una frecuencia de muestreo de el doble de su frecuencia más alta, ok, pero los sonidos no están limitados, tienes que limitarlos poniendo filtros y ahí empiezan los problemas (al menos teóricos), también tienes los relojes de cada equipo y un montón de otros detalles que pueden “ensuciar” tu archivo digital, son cosas que degraden el audio? Creo no hay consenso, tienes que formarte tu propia idea estudiando y escuchando…y encima tratar de limpiar la paja del grano ya que justamente ahí es donde los vendedores explotan esos detalles a gusto, se escucha mejor un equipo que tiene 0,00001% de thd a uno que tiene 0,0001%? Quizás te hable de que tiene componentes de más calidad pero que de esos porcentajes se pueda deducir directamente que uno suena mejor simplemente no…así con otras variables.
Enlace al comentario
Compartir en otros sitios

hace 3 horas, ap1978 dijo:

Mi planteamiento se basa solo en experiencias, las diferencias en transportes es notoria, no es lo mismo escuchar en un transporte 2proM bien implementado que un dvd, ambos reproducen el disco pero la captura de información es claramente notoria, no es de mejor o menor, se escuchan diferencias en profundidades e instrumentos muy obvias entre uno y otro transporte, no digo que todo suene mejor, debido a que existen cd que realmente se escuchan muy mal, tengo un streaming que debería estar dentro de los mejores, al escuchar entre una versión Tidal MQA y un CD de un buen sello en un buen transporte , las diferencias entre soundstage, detalle, naturalidad de voces es demasiado evidente. Comparto desde el punto de vista técnico lo expuesto por diferentes foreros, en mi caso es lo que escucho lo que manda. Lo que estoy abierto es a probar es MQACD a CD de buen sello, ojala en música clásica. slds

Claro. Yo lo que sugería probar justamente es música clásica: bajando los archivos del Test Bench en varios formatos que proveía el sello 2L Recordings... pero... acabo de cachar que lo bajaron y ya no están disponibles. Si te interesa hacer esas comparaciones, creo que en algún momento bajé varios de esos archivos y te los podría buscar y mandar. Son además todos grabaciones extraordinariamente buenas en calidad de audio (de hecho, creo que ese sello podría calificar como el de mejor calidad grabada que conozco).

Personalmente la principal razón por la cual me gusta el MQA (aún stremeado por Tidal) es justamente por las razones que citas: escucho en él más espacialidad, soundstage y un "foco" más nítido de lo que escuchas. Por lo demás la explicación técnica de lo que intentan hacer apunta justamente a eso (mejorar transientes, cuyo principal efecto es precisamente eliminar la "borrosidad" de la reproducción, posicionando más nítidamente las cosas en el espacio virtual recreado y eso es especialmente notorio cuando debe coordinarse lo emitido por dos canales, que en conjunto definen donde ocurre en el espacio cada evento sonoro). Pero bueno, tb puede ser que tengo equipos mucho más rascas que los tuyos... "poco resolutivos" me los calificó un forero hace un tiempo.

Y si, también he escuchado diferencias enormes entre distintos transportes.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 4 minutos, pbanados dijo:

te los podría buscar y mandar. 

*Y si, también he escuchado diferencias enormes entre distintos transportes.

te mande whasapp...slds

* es notoria.

AMP:JRDG CAJAS:ATC PSLT100 FUENTES:ESOTERIC N-05XD CDPLAYER EXIMUS 2PROm CABLES:NORDOST FREY/ VALHALLA PODER:FURUTECH 950ALPHA ACCESORIOS:NORDOST QB8- QK1-QV2 RACK:SOLIDSTEEL HY4

Enlace al comentario
Compartir en otros sitios

hace 19 horas, cristiangarcia dijo:

Leyendo tu comentario me acordé de algo, los sistemas de streaming ocupan técnicas de transmisión para dar la sensación de instantaneidad, que incluyen permitir la perdida de información considerando que "no se nota". En el mecanismo diseñados inicialmente por Spotify consideraron eso, aparte de la adaptabilidad de la codificación para hacer mas liviana la transmisión. 

Hay un punto en el audio digital que no me queda claro, cdda tiene 44k muestras por segundo lo que permite reconstruir una señal de 22khertz, entonces, ¿192k de muestreos permiten frecuencias de hasta 96khertz?

Otro cosa es la igualdad de condiciones, no es comparable un cd a un streaming, en el sentido puro de los bits y bytes, sus transportes y procesos de codificación/decodificación, ambos medios tiene procesos intermedios diferentes desde la captura de audio hasta la salida análoga para ser amplificada, cada etapa tiene sus particularidades en la implementación que las hacen diferentes, y por tanto difícil de comparar. En informática existen infinitas implementación para una misma solución, todo dependerá del programador de turno, la tecnología existente, etc. Por ejemplo, existen varias implementaciones para codec flac, pero los resultados son diferentes, suenan diferente.

Por cierto, no creo que vayas a chacrear el tema, son dudas razonables, jajajaja 

Congratulations por la pregunta, directo al callo, acabas de desenmascarar con ella una de las mayores mentiras o mitos del audio.

Sí, 192K extienden la captura hasta 96Khz, NO DENSIFICAN EL MUESTRO ENTRE 0 hz Y 22KHz,... pues según el teorema de Nyquist-Shannon  de... mediados de los años 40, eso es innecesario, y hasta donde sé, ningún formato actual lo hace (densificar en vez de extender la captura). La idea, para ejemplificarlo con una analogía, es que para describir una recta solo necesitas dos puntos; si capturas más puntos de esa recta, no la harás "más recta". En una señal sinusoidal (aunque sea compleja: una fundamental con N armónicos o incluso contenido no armónico) es exactamente lo mismo: necesitas el doble de puntos que la frecuencia más alta contenida en esa señal compleja (el armónico o no armónico más alto contenida en ella). Si te empecinas en capturar más puntos, es simplemente esfuerzo redundante y en definitiva idiota.

Formalmente lo que el teorema dice es que si tienes un algoritmo de reconstrucción adecuado, con 2X el sampling de la frecuencia más alta puedes reconstruir a la perfección, con toda su redondez inicial, cualquier forma de onda de entrada. Para ser rigurosos, el algoritmo propuesto por Shannon en su 'Theory of Communication' (la función sinc(x)) era técnicamente perfecto pero en la práctica NO era el adecuado, pues demandaba un tiempo infinito de reconstrucción antes y después del instante de la señal. Pero han habido muchísimos perfeccionamientos posteriores que sí logran esa reconstrucción adecuada, muy cercana a esa perfección teórica....

Figure-2022-09-04-152025-3.png

La gente quiere creer que un CD reproduce una escalera cuantificada como la mostrada en este gráfico. Lo que en realidad sucede es que el algoritmo de reproducción toma esos puntos y reconstruye la onda "redonda" original. En el gráfico la nota original es la gris gorda, y la reconstruida es la roja. Además abajo está el piso de ruido descompuesto, pero eso es otro cuento que no viene al caso. Y esta ya es una señal reconstruida "imperfecta"  (*) porque fue usada una función sinc(x)/x sin temporalidad infinita... (los DACs en realidad reconstruyen con mucha más precisión).

(*): el ejemplo es sacado de unos ejercicios de programación en Python que hice hace un tiempo, en que aproveché de practicar con este tema.

Pero... AJA!!!...eso es válido solo en el dominio de frecuencias (la foto de ese instante), no en el dominio del tiempo. El problema básico es que debes asegurar que la información de entrada a capturar no sobrepase de ese 2X el sampling usado, y para eso necesitas filtrar esa señal (de lo contrario se producía el sumamente pernicioso efecto de aliasing: frecuencias fantasmas extendidas hacia abajo, a la zona audible). Siendo 20 Khz el límite de acción humano, el formato redbook del CD definió entonces un espacio entre 20 Khz y 22.05 Khz para ese filtro (por eso es 16/44 y no 16/40), lo cual resulta en un filtro del tipo "brickwall", MUY vertical (varios cientos de db/octava).

Lo que no consideró Phillips/Sony cuando definieron este estándar es que estos filtros generan un efecto indeseado, y más exagerado a más violentos (verticales) sean: retrasan o adelantan los armónicos de la señal compuesta, lo cual produce el efecto de "ringing" en la onda  EN EL TIEMPO.  Así, en vez de reproducir un pulso instantáneo, ese pulso es antecedido de vibraciones previas y posteriores al pulso mismo. Efecto que se mide en microsegundos (uS). En el redbook ese pre y post ringing combinado es del orden de 2000 a 5000 uS (dependiendo de que tan estricto seas en definir la amplitud inaudible de ese ringing- ver gráfico-). El oído humano, según investigaciones universitarias de muchos lados (principalmente Jasón) puede separar eventos asumibles tan cercanos como 8 a 10 uS. El efecto audible de este ringing es que los sonidos quean "fuera de foco", algo parecido a lo que pasa cuando no has regulado bien el lente en una fotografía.

700px-Si-sinc.png

 

Con lo cual se explica la ÚNICA razón audible por la cual vale la pena desgastarse con archivos de mayor resolución: ya sea a) desplazar más adentro este filtro brickwall; o mejor aún, b) dejar de usar un filtro brickwall y reemplazarlo por uno más extendido. 

a) es solo medianamente efectivo porque igual el efecto brickwall contamina, menos pero lo hace, el espectro audible. Esto es lo que creo que sucede con los formatos hires estándar (un flac 24/192 por ej).

b) es mejor, pero no soluciona por completo el problema, pues si duplicas el sampling (24/88), solo has ganado una octava; si lo cuadruplicas (24/176), has ganado dos: en vez de ser un filtro de 300db/octava, será uno de 75 db/octava. Mejor, pero aún insuficiente para eliminar el problema:

918-Zenfig03.jpg

 

Para no alargame más (casi una broma con lo largo que ya está esto), eso es lo que mejora el MQA. Evita casi por completo el "ringing" en los archivos digitales. Para hacerlo debe intervenir tanto en etapa de creación del archivo (ADC)  como luego en reproducción (DAC); y vincular los filtros usados en ambos lados. Cuando la situación es ideal, el MQA reduce el ringing a 10a 20 uS (si el master era digital), y a 3 uS( si era análogo), como muestra el siguiente gráfico:

918-Zenfig16.jpg

 

 

Editado por pbanados

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 40 minutos, pbanados dijo:

Congratulations por la pregunta, directo al callo, acabas de desenmascarar con ella una de las mayores mentiras o mitos del audio.

Sí, 192K extienden la captura hasta 96Khz, NO DENSIFICAN EL MUESTRO ENTRE 0 hz Y 22KHz,... pues según el teorema de Nyquist-Shannon  de... mediados de los años 40, eso es innecesario, y hasta donde sé, ningún formato actual lo hace (densificar en vez de extender la captura). La idea, para ejemplificarlo con una analogía, es que para describir una recta solo necesitas dos puntos; si capturas más puntos de esa recta, no la harás "más recta". En una señal sinusoidal (aunque sea compleja: una fundamental con N armónicos o incluso contenido no armónico) es exactamente lo mismo: necesitas el doble de puntos que la frecuencia más alta contenida en esa señal compleja (el armónico o no armónico más alto contenida en ella). Si te empecinas en capturar más puntos, es simplemente esfuerzo redundante y en definitiva idiota.

Formalmente lo que el teorema dice es que si tienes un algoritmo de reconstrucción adecuado, con 2X el sampling de la frecuencia más alta puedes reconstruir a la perfección, con toda su redondez inicial, cualquier forma de onda de entrada. Para ser rigurosos, el algoritmo propuesto por Shannon en su 'Theory of Communication' (la función sinc(x)) era técnicamente perfecto pero en la práctica NO era el adecuado, pues demandaba un tiempo infinito de reconstrucción antes y después del instante de la señal. Pero han habido muchísimos perfeccionamientos posteriores que sí logran esa reconstrucción adecuada, muy cercana a esa perfección teórica....

Figure-2022-09-04-152025-3.png

La gente quiere creer que un CD reproduce una escalera cuantificada como la mostrada en este gráfico. Lo que en realidad sucede es que el algoritmo de reproducción toma esos puntos y reconstruye la onda "redonda" original. En el gráfico la nota original es la gris gorda, y la reconstruida es la roja. Además abajo está el piso de ruido descompuesto, pero eso es otro cuento que no viene al caso. Y esta ya es una señal reconstruida "imperfecta"  (*) porque fue usada una función sinc(x)/x sin temporalidad infinita... (los DACs en realidad reconstruyen con mucha más precisión).

(*): el ejemplo es sacado de unos ejercicios de programación en Python que hice hace un tiempo, en que aproveché de practicar con este tema.

Pero... AJA!!!...eso es válido solo en el dominio de frecuencias (la foto de ese instante), no en el dominio del tiempo. El problema básico es que debes asegurar que la información de entrada a capturar no sobrepase de ese 2X el sampling usado, y para eso necesitas filtrar esa señal (de lo contrario se producía el sumamente pernicioso efecto de aliasing: frecuencias fantasmas extendidas hacia abajo, a la zona audible). Siendo 20 Khz el límite de acción humano, el formato redbook del CD definió entonces un espacio entre 20 Khz y 22.05 Khz para ese filtro (por eso es 16/44 y no 16/40), lo cual resulta en un filtro del tipo "brickwall", MUY vertical (varios cientos de db/octava).

Lo que no consideró Phillips/Sony cuando definieron este estándar es que estos filtros generan un efecto indeseado, y más exagerado a más violentos (verticales) sean: retrasan o adelantan los armónicos de la señal compuesta, lo cual produce el efecto de "ringing" en la onda  EN EL TIEMPO.  Así, en vez de reproducir un pulso instantáneo, ese pulso es antecedido de vibraciones previas y posteriores al pulso mismo. Efecto que se mide en microsegundos (uS). En el redbook ese pre y post ringing combinado es del orden de 2000 a 5000 uS (dependiendo de que tan estricto seas en definir la amplitud inaudible de ese ringing- ver gráfico-). El oído humano, según investigaciones universitarias de muchos lados (principalmente Jasón) puede separar eventos asumibles tan cercanos como 8 a 10 uS. El efecto audible de este ringing es que los sonidos quean "fuera de foco", algo parecido a lo que pasa cuando no has regulado bien el lente en una fotografía.

700px-Si-sinc.png

 

Con lo cual se explica la ÚNICA razón audible por la cual vale la pena desgastarse con archivos de mayor resolución: ya sea a) desplazar más adentro este filtro brickwall; o mejor aún, b) dejar de usar un filtro brickwall y reemplazarlo por uno más extendido. 

a) es solo medianamente efectivo porque igual el efecto brickwall contamina, menos pero lo hace, el espectro audible. Esto es lo que creo que sucede con los formatos hires estándar (un flac 24/192 por ej).

b) es mejor, pero no soluciona por completo el problema, pues si duplicas el sampling (24/88), solo has ganado una octava; si lo cuadruplicas (24/176), has ganado dos: en vez de ser un filtro de 300db/octava, será uno de 75 db/octava. Mejor, pero aún insuficiente para eliminar el problema:

918-Zenfig03.jpg

 

Para no alargame más (casi una broma con lo largo que ya está esto), eso es lo que mejora el MQA. Evita casi por completo el "ringing" en los archivos digitales. Para hacerlo debe intervenir tanto en etapa de creación del archivo (ADC)  como luego en reproducción (DAC); y vincular los filtros usados en ambos lados. Cuando la situación es ideal, el MQA reduce el ringing a 10a 20 uS (si el master era digital), y a 3 uS( si era análogo), como muestra el siguiente gráfico:

918-Zenfig16.jpg

 

 

 

Si la densifica po, 44khz significa 44 mil muestras por segundo, 96 khz 96.000 muestras por segundo, mucho más denso. Entiendo a que te refieres a que ese aumento no aportaría información adicional, esto sería correcto de acuerdo al teorema y todas esas muestras extra dentro del rango audible no aportarían nada...

No existe eso de extender la captura, todas las muestras siempre recogen toda la banda que se presente, el problema es que si tienes información más allá del doble de la frecuencia de muestreo vas a tener errores en la captura, por eso es necesario filtrar esa información antes de muestrear.

 

Editado por Patagonia
Enlace al comentario
Compartir en otros sitios

Ahora, Patagonia dijo:

 

Si la densifica po, 44khz significa 44 mil muestras por segundo, 96 khz 96.000 muestras por segundo, mucho más denso. Entiendo a que te refieres a que ese aumento no aportaría información adicional, esto sería correcto de acuerdo al teorema y todas esas muestras extra dentro del rango audible no aportarían nada...

No, no lo densifica: son el doble de samplings, pero esparcidos en 48Khz, no el doble de samplings en los 22 Khz originales. Eso es lo que es CLAVE de entender en este asunto.

Si alguien quisiera malgastar esos samplings en el rango inicial, teóricamente lo podría hacer (y se ganaría el premio a la estupidez emho). Pero en la realidad, todos los formatos hires -como es lógico- lo que hacen es extender esos sampling hasta una frecuencia de la mitad del sampling usado. En tu ejemplo: 96K/2= 48 Khz. Al ganar ese espacio *inaudible* adicional no están tratando que escuches lo que un murciélago: lo que están tratando de hacer es minimizar el efecto del filtro anti-aliasing.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 2 minutos, pbanados dijo:

No, no lo densifica: son el doble de samplings, pero esparcidos en 48Khz, no el doble de samplings en los 22 Khz originales. Eso es lo que es CLAVE de entender en este asunto.

Si alguien quisiera malgastar esos samplings en el rango inicial, teóricamente lo podría hacer (y se ganaría el premio a la estupidez emho). Pero en la realidad, todos los formatos hires -como es lógico- lo que hacen es extender esos sampling hasta una frecuencia de la mitad del sampling usado. En tu ejemplo: 96K/2= 48 Khz. Al ganar ese espacio *inaudible* adicional no están tratando que escuches lo que un murciélago: lo que están tratando de hacer es minimizar el efecto del filtro anti-aliasing.

Estás profundamente equivocado, de partida densidad es N de muestras por unidad de medida, eso, así de simple. En este caso cada muestra puede tomar cualquier valor, si hay información en 100khz y la muestreas a 44khz la va a muestrear igual, pero es posible que la vea como 100khz o 50khz dependiendo de los puntos que tome, no tienes información para asegurar la puedes muestrear bien y el resultado va ser malo. Es por esto que tienes que filtrar y quitar esas frecuencias antes de digitalizar, como tu mismo lo has puesto, sino las vas a recoger igual!

Distinto es el caso de la profundidad de bits, en que efectivamente amplias el rango que puedes recoger.

Enlace al comentario
Compartir en otros sitios

Acá se muestra es efecto de muestrear una frecuencia de valor f a frecuencias de muestreo de 2,6xf; 2xf; 1,4xf; 0,8xf. Todas las frecuencias de muestro pueden muestrear f...donde está la diferencia, cuando la frecuencia de muestreo es menor a 2 lo hace mal, hay errores, en verde se muestra el error, en vez de representar la onda real (línea azul) se equivoca y cree que es la linea verde. 

Los puntos rojos son los puntos de muestra, se ve claramente también la mayor densidad a medida que se aumenta la frecuencia de muestreo.

Captura-de-Pantalla-2022-12-22-a-la-s-17

 

Cómo se hace entonces para evitar estos errores, antes de digitalizar, en dominio análogo, tienes que filtrar la señal y eliminar todo contenido mayor a 2f, sino lo vas a muestrear igual. 

Editado por Patagonia
Enlace al comentario
Compartir en otros sitios

hace 4 minutos, Patagonia dijo:

Estás profundamente equivocado, de partida densidad es N de muestras por unidad de medida, eso, así de simple. En este caso cada muestra puede tomar cualquier valor, si hay información en 100khz y la muestreas a 44khz la va a muestrear igual, pero es posible que la vea como 100khz o 50khz dependiendo de los puntos que tome, no tienes información para asegurar la puedes muestrear bien y el resultado va ser malo. Es por esto que tienes que filtrar y quitar esas frecuencias antes de digitalizar, como tu mismo lo has puesto, sino las vas a recoger igual!

Distinto es el caso de la profundidad de bits, en que efectivamente amplias el rango que puedes recoger.

Creo que estas confundiendo dominios. Me da la impresión que con "unidad de medida" la interpretas como x tiempo (un segundo, un milisegundo o lo que sea). El sampling rate se refiere a frecuencias, no tiempo. 

Otra cosa: me parece que lo estás sugiriendo es que los sampling disponibles se "adaptan" a lo que se esté registrando en ese momento: en tu ejemplo si se adoptó un sampling para capturar 100 Khz (sería un sampling raro de 24/200, que no es posible porque no es binario), esos asampling si no hay contenido de agudos se van redistribuyendo en lo que realmente hay (cachai la capacidad computacional que demandaría hacer eso, necesariamente en tiempo real?). Pero no es así: Una vez definido un sampling rate, estos son repartidos en "bins" de igual magnitud en todo el espectro posible. Si no hubiera información en los "bins" más altos, todos esos bits quedan en 0 no más.

Si hay un aspecto interesante en todo esto: la mayor parte del tiempo la información a capturar no tiene todo el espectro posible, y por lo tanto el sampling usado está tomando más muestras de las que en rigor son necesarias para reconstruir la señal captura EN ESE INSTANTE. En algún momento estuvo de moda los VBR (variable bit rate), que hasta donde entiendo estaban inspirados en esta observación. También entiendo que en teoría digital avanzada en otros dominios (no música), si se usan formatos de Bit rate variable.

Un segundo aspecto interesante: supongo que por simplicidad matemática estos "bins" (la división espacios  iguales del espectro en el sampling usado) no toma en consideración que la gravitación de frecuencias es logarítmica y no lineal. Pero eso ya es paja...aunque capaz que alguien sí trabaje sobre esto.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 5 minutos, pbanados dijo:

Creo que estas confundiendo dominios. Me da la impresión que con "unidad de medida" la interpretas como x tiempo (un segundo, un milisegundo o lo que sea). El sampling rate se refiere a frecuencias, no tiempo. 

Otra cosa: me parece que lo estás sugiriendo es que los sampling disponibles se "adaptan" a lo que se esté registrando en ese momento: en tu ejemplo si se adoptó un sampling para capturar 100 Khz (sería un sampling raro de 24/200, que no es posible porque no es binario), esos asampling si no hay contenido de agudos se van redistribuyendo en lo que realmente hay (cachai la capacidad computacional que demandaría hacer eso, necesariamente en tiempo real?). Pero no es así: Una vez definido un sampling rate, estos son repartidos en "bins" de igual magnitud en todo el espectro posible. Si no hubiera información en los "bins" más altos, todos esos bits quedan en 0 no más.

Si hay un aspecto interesante en todo esto: la mayor parte del tiempo la información a capturar no tiene todo el espectro posible, y por lo tanto el sampling usado está tomando más muestras de las que en rigor son necesarias para reconstruir la señal captura EN ESE INSTANTE. En algún momento estuvo de moda los VBR (variable bit rate), que hasta donde entiendo estaban inspirados en esta observación. También entiendo que en teoría digital avanzada en otros dominios (no música), si se usan formatos de Bit rate variable.

Un segundo aspecto interesante: supongo que por simplicidad matemática estos "bins" (la división espacios  iguales del espectro en el sampling usado) no toma en consideración que la gravitación de frecuencias es logarítmica y no lineal. Pero eso ya es paja...aunque capaz que alguien sí trabaje sobre esto.

 

Favor revisa la definición de frecuencia de muestreo en audio.

Un sampling rate de 44khz es simplemente tomar 44.000 muestras por segundo, nada más que eso, no hay nada que acomodar, que distribuir etc, etc, etc...no te enredes!

 

Editado por Patagonia
Enlace al comentario
Compartir en otros sitios

hace 9 minutos, Patagonia dijo:

Acá se muestra es efecto de muestrear una frecuencia de valor f a frecuencias de muestreo de 2,6xf; 2xf; 1,4xf; 0,8xf. Todas las frecuencias de muestro pueden muestrear f...donde está la diferencia, cuando la frecuencia de muestreo es menor a 2 lo hace mal, hay errores, en verde se muestra el error, en vez de representar la onda real (línea azul) se equivoca y cree que es la linea verde. 

Los puntos rojos son los puntos de muestra, se ve claramente también la mayor densidad a medida que se aumenta la frecuencia de muestreo.

Captura-de-Pantalla-2022-12-22-a-la-s-17

 

Cómo se hace entonces para evitar estos errores, antes de digitalizar, en dominio análogo, tienes que filtrar la señal y eliminar todo contenido mayor a 2f, sino lo vas a muestrear igual. 

Lo que ese gráfico está mostrando es el efecto de aliasing (la linea verde segmentada) por usar un sampling más bajo que el doble de la frecuencia más alta. Esto no tiene nada que ver con lo que estábamos comentando. El sampling es definido ANTES de que se reciba ninguna información, y no se adapta a la información que va recibiendo ( no al menos en los estándares de audio).

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

@cristiangarcia para que no te enredes, te sugiero leer info para entender los conceptos de digitalización, hasta en wikipedia está explicado en simple, no tiene nada que ver con la frecuencia del sonido que se va a muestrear

La tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman de una señal continua para producir una señal discreta, durante el proceso necesario para convertirla de analógica en digital. Como todas las frecuencias, generalmente se expresa en hercios (Hz, ciclos por segundo) o múltiplos suyos, como el kilohercio (kHz), aunque pueden utilizarse otras magnitudes.

"https://es.wikipedia.org/wiki/Frecuencia_de_muestreo

 

Enlace al comentario
Compartir en otros sitios

Alguien más hizo la pega, acá está. El video muestra la digitalización de una línea de audio que sube desde 100hz hasta 3200hz, sampleada a 8000hz y 4000hz, se ve y se escucha el aliasing, por eso en la realidad el audio se filtra antes y así eliminar las frecuencias que el codificador no va a poder recoger fidedignamente.


Enlace al comentario
Compartir en otros sitios

1 hour ago, Patagonia dijo:

@cristiangarcia para que no te enredes, te sugiero leer info para entender los conceptos de digitalización, hasta en wikipedia está explicado en simple, no tiene nada que ver con la frecuencia del sonido que se va a muestrear

La tasa o frecuencia de muestreo es el número de muestras por unidad de tiempo que se toman de una señal continua para producir una señal discreta, durante el proceso necesario para convertirla de analógica en digital. Como todas las frecuencias, generalmente se expresa en hercios (Hz, ciclos por segundo) o múltiplos suyos, como el kilohercio (kHz), aunque pueden utilizarse otras magnitudes.

"https://es.wikipedia.org/wiki/Frecuencia_de_muestreo

 

Si, lo se, mi pregunta apunta a que sentido tiene. El teorema Nyquist-Shannon no es el problema, si no su utilización. Matemáticamente hablando mientras se cumpla el teorema la señal es perfectamente reconstruible, hasta aquí todo funciona, pero no se debe confundir con la cuantificación que NO es parte del teorema. Lo que te dice es que una señal continua se puede muestrear hasta el doble de la frecuencia de la señal original, desde ahí para arriba no tiene ningun sentido, en decir si tengo una señal periódica de hasta 20kHz el resultado es el mismo con 40.000 muestras o 100.000. Pero existe un gran problema con el proceso de cuantificación que es donde se generan todas las técnicas para tratar el ruido y hacer preciso la representación de un valor continuo a discreto, precisión de bit, profundidad, filtros, aliasing, y cuanta cuestión aparece. Entonces, volviendo a la pregunta, creo que me respondo solo, 192k muestras, no voy a hablar de profundidad de bit porque es cuantificación, en teoría serviría para meter señales de frecuencia hasta 96khz, y tiene todo el sentido, porque en la medida que te alejas del umbral útil, ejemplo umbral audible frecuencias de hasta 20khz, el proceso impreciso de cuantificación queda alejado de meter errores en el espacio útil. Ahora si volviendo, no tiene ningún sentido sobre muestrear señales con mas puntos de muestra si no tomar lo justo para que haya más espacio para tratar los errores del proceso posterior, o sea subir hasta señal de frecuencia de 96khz o 48khz, sabiendo que lo util serán las frecuencias reconstruidas de 20khz hacia abajo

Enlace al comentario
Compartir en otros sitios

hace 58 minutos, cristiangarcia dijo:

Si, lo se, mi pregunta apunta a que sentido tiene. El teorema Nyquist-Shannon no es el problema, si no su utilización. Matemáticamente hablando mientras se cumpla el teorema la señal es perfectamente reconstruible, hasta aquí todo funciona, pero no se debe confundir con la cuantificación que NO es parte del teorema. Lo que te dice es que una señal continua se puede muestrear hasta el doble de la frecuencia de la señal original, desde ahí para arriba no tiene ningun sentido, en decir si tengo una señal periódica de hasta 20kHz el resultado es el mismo con 40.000 muestras o 100.000. Pero existe un gran problema con el proceso de cuantificación que es donde se generan todas las técnicas para tratar el ruido y hacer preciso la representación de un valor continuo a discreto, precisión de bit, profundidad, filtros, aliasing, y cuanta cuestión aparece. Entonces, volviendo a la pregunta, creo que me respondo solo, 192k muestras, no voy a hablar de profundidad de bit porque es cuantificación, en teoría serviría para meter señales de frecuencia hasta 96khz, y tiene todo el sentido, porque en la medida que te alejas del umbral útil, ejemplo umbral audible frecuencias de hasta 20khz, el proceso impreciso de cuantificación queda alejado de meter errores en el espacio útil. Ahora si volviendo, no tiene ningún sentido sobre muestrear señales con mas puntos de muestra si no tomar lo justo para que haya más espacio para tratar los errores del proceso posterior, o sea subir hasta señal de frecuencia de 96khz o 48khz, sabiendo que lo util serán las frecuencias reconstruidas de 20khz hacia abajo

Pero ojo que el teorema tiene un “pero” es que la señal debe estar limitada en banda para que se cumpla, y ahí es donde aparecen posibles problemas, la forma de hacerle el quite ahora es usar un filtro para sacar el contenido sobre 20khz antes de digitalizar. Pero los filtros no son perfectos por lo que si quieres cortar en 22khz (por ej como cd) el filtro necesariamente va a afectar más abajo y modificar ondas en el campo audible, ponte 2db por octava o cosas así, mientas más gradiente el filtro más problemas aparecen como modificación de fase. Entonces algunos sugieren que ese es el problema del formato cd y que el usar frecuencias de muestreo 96, 192 o más permite usar filtros con menos gradiente y que no afecten significativamente bandas audibles. 

Lo pongo en condicional porque no hay concenso en que efectivamente esa diferencia, si bien medible, afecte la experiencia final. 
 

 

Enlace al comentario
Compartir en otros sitios

A ver @Patagonia, reconozco que cometí un error serio arriba. Efectivamente el sampling se mide por segundo y me dejé llevar por una explicación rápida en una de las respuestas. Pero en términos prácticos eso no cambia nada, pues ese aumento de sampling lo que hace es permitir registrar un espectro más amplio (limitado a la mitad del sampling usado; sin no se usa porque no hay ese contenido no es relevante, igual como no es relevante que en un caso concreto de un 16/44 no exista, por ejemplo, contenido sobre 10 Khz, que en muchos pasajes musicales ocurre frecuentemente.

Como consecuencia, también reconozco otro error: al usar un sampling más alto, como subproducto de ello (pero no como objetivo) sí hay mayor densidad de muestras en la onda capturada. Pero esto es innecesario o esfuerzo perdido hasta al menos 1/4 del sampling usado, si no hubiera contenido a registrar sobre ese 1/4 en Hz equivalentes -no es una crítica, es un hecho de la causa en cualquier PCM-.

Cuando aumentas el sampling pasa lo mismo que comentaba antes: hay una parte del espectro que estará sobre-sampleado (habrán más sampling de lo necesario para reconstruir esa onda). Voy a usar en lo que sigue el ejemplo de un 24/96: El grano más fino obtenido por ese mayor sampling permitiría resolver, si las hubiera, frecuencias hasta 48 Khz en la forma de onda compuesta, que en esa onda compuesta se verían como micro ondulaciones en la continuidad de la onda (por supuesto, imperceptibles al oído humano). Si no las hay, el sampleo estará capturando más de lo necesario (la analogía de la recta descrita con más de dos puntos) y ello no es un "error" sino un asunto de mera definición de cualquier PCM. 

El asunto concreto entonces para el fondo de esta discusión es que el único objetivo de ampliar el sampling no es "obtener una onda reconstruida más redonda" (pues la teoría dice - y es pura matemática el asunto, no sujeto a interpretación- que esos sobre sampleos son redundantes), sino "extender la captura a frecuencias supra-aurales". El objeto de esto, a su vez, no es que tu escuches ese contenido supra-aural, sino darle un espacio más amplio al algoritmo de sampleo (en etapa ADC) para que el imprescindible filtro anti-aliasing a aplicar sea lo menos nocivo posible. Al haber un sampling más denso, el antialiasing ya sea se desplaza a una frecuencia más alta o, mejor aún, el inicio filtro se mantiene donde mismo (iniciando en 20 Khz), pero es "tendido" o "suavizado" una o dos octavas más. (*)

Sobre tu último post, el uso del filtro no es optativo, es una necesidad definida por el propio Shannon en su teoría. El "pero" no es que tenga que existir ese filtro y no que pueda fallar (aunque sí, la alteración de fases de armónicos que produce es también otro problema potencialmente serio que tiene el uso de estos filtros; y sí, en redbook no es infalible e igual se produce algún aliasing),  sino las consecuencias que él trae aún si funciona perfecto (ringing en el dominio del tiempo), si el filtro que se usa es muy violento (como en redbook). Eso es lo que no consideraron los tipos de Phillips y Sony cuando definieron el estándar.

En todo caso te agradezco tu comentario porque me corregiste un error que tenía hace tiempo - irrelevante, pero error conceptual al fin y al cabo- y que me tenía un poco atravesado, pues intuía que tenía un vacío allí.

 

(*): sobre esto (y para volver a MQA del hilo) que ya haría cualquier archivo hires, el MQA hace, a mi entender, tres cosas adicionales que le permiten esta respuesta a impulsos de 3 a 10uS:

1- corre el inicio del filtro varias octavas *más atrás* de los 20 Khz. Eso porque el formato considera que en las octavas superiores de la música no hay amplitud dinámica que pudiera recortarse al aplicar ese filtro recortando los bits superiores. Por supuesto, si la hay gran amplitud en esas octavas superiores en pitos de tests, por eso el algoritmo -si se usa sin los ajustes de estudio diseñados para ello- arroja errores en test hechos por amateurs.

2- no usa un filtro "lineal", sino uno paramétrico "apodizante" que es de geometría variable (tipo "S", los parámetros definen las curvaturas de esa "S"). Uno de los autores del MQA, Peter Craven, fue quien propuso -mucho antes de MQA- este tipo de filtros que ahora son habituales en muchos DAC. La gracia del MQA es que los usaría no solo el el DAC sino en ADC también.

3- el uso de este filtro además no sería estático, sino cambiante según el contenido musical que se está digitalizando. El formato establece una "vinculación" entre los parámetros del  filtro que usó en cada instante de la conversión ADC, para que el DAC haga lo opuesto, reconstruyendo la misma geometría de filtro. Esto está incrustado en el canal de datos que acompaña la música que contempla el formato.

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

On 21-12-2022 at 11:57, ocj dijo:

Hace un tiempo indagué sobre el tema. Efectivamente el asunto es como se comenta en la web: para leer un CD MQA se requiere un CDP que lea el formato; en caso contrario, basta con cualquier transporte de CD a un DAC que lea mqa. Cuál es el pero? Que el DAC debe leer MQA en la entrada que se conectará al transporte, es decir, debe estar implementada por coaxial. No era mi caso, tengo un DAC con MQA, pero sólo con usb: descargué un CD mqa que me prestó un amigo y luego intenté reproducirlo usando la salida óptica del note, no me pescó; pero al intentar el mismo archivo por usbm obviamente se desdobló.

Entiendo que depende del DAC, tengo un Mytek Brooklyn que es full MQA decoder por USB, coaxial, y optico, asi que desde mi CDP Marantz 6007, que no lee MQA ni menos SACD, saque el sonido con un cable óptico toslink al DAC Mytek, le coloqué un CD MQA, y el DAC me lo reconoce como MQA, acá la imagen:

https://ibb.co/HGFqfGW

Me queda la duda del porque si el CD MQA es 24/96, el DAC me lo reconoce como 24/88.2. 

Editado por AndreSM
Enlace al comentario
Compartir en otros sitios

hace 34 minutos, pbanados dijo:

A ver @Patagonia, reconozco que cometí un error serio arriba. Efectivamente el sampling se mide por segundo y me dejé llevar por una explicación rápida en una de las respuestas. Pero en términos prácticos eso no cambia nada, pues ese aumento de sampling lo que hace es permitir registrar un espectro más amplio (limitado a la mitad del sampling usado; sin no se usa porque no hay ese contenido no es relevante, igual como no es relevante que en un caso concreto de un 16/44 no exista, por ejemplo, contenido sobre 10 Khz, que en muchos pasajes musicales ocurre frecuentemente.

Como consecuencia, también reconozco otro error: al usar un sampling más alto, como subproducto de ello (pero no como objetivo) sí hay mayor densidad de muestras en la onda capturada. Pero esto es innecesario o esfuerzo perdido hasta al menos 1/4 del sampling usado, si no hubiera contenido a registrar sobre ese 1/4 en Hz equivalentes -no es una crítica, es un hecho de la causa en cualquier PCM-.

Cuando aumentas el sampling pasa lo mismo que comentaba antes: hay una parte del espectro que estará sobre-sampleado (habrán más sampling de lo necesario para reconstruir esa onda). Voy a usar en lo que sigue el ejemplo de un 24/96: El grano más fino obtenido por ese mayor sampling permitiría resolver, si las hubiera, frecuencias hasta 48 Khz en la forma de onda compuesta, que en esa onda compuesta se verían como micro ondulaciones en la continuidad de la onda (por supuesto, imperceptibles al oído humano). Si no las hay, el sampleo estará capturando más de lo necesario (la analogía de la recta descrita con más de dos puntos) y ello no es un "error" sino un asunto de mera definición de cualquier PCM. 

El asunto concreto entonces para el fondo de esta discusión es que el único objetivo de ampliar el sampling no es "obtener una onda reconstruida más redonda" (pues la teoría dice - y es pura matemática el asunto, no sujeto a interpretación- que esos sobre sampleos son redundantes), sino "extender la captura a frecuencias supra-aurales". El objeto de esto, a su vez, no es que tu escuches ese contenido supra-aural, sino darle un espacio más amplio al algoritmo de sampleo (en etapa ADC) para que el imprescindible filtro anti-aliasing a aplicar sea lo menos nocivo posible. Al haber un sampling más denso, el antialiasing ya sea se desplaza a una frecuencia más alta o, mejor aún, el inicio filtro se mantiene donde mismo (iniciando en 20 Khz), pero es "tendido" o "suavizado" una o dos octavas más. (*)

Sobre tu último post, el uso del filtro no es optativo, es una necesidad definida por el propio Shannon en su teoría. El "pero" no es que tenga que existir ese filtro y no que pueda fallar (aunque sí, la alteración de fases de armónicos que produce es también otro problema potencialmente serio que tiene el uso de estos filtros; y sí, en redbook no es infalible e igual se produce algún aliasing),  sino las consecuencias que él trae aún si funciona perfecto (ringing en el dominio del tiempo), si el filtro que se usa es muy violento (como en redbook). Eso es lo que no consideraron los tipos de Phillips y Sony cuando definieron el estándar.

En todo caso te agradezco tu comentario porque me corregiste un error que tenía hace tiempo - irrelevante, pero error conceptual al fin y al cabo- y que me tenía un poco atravesado, pues intuía que tenía un vacío allí.

 

(*): sobre esto (y para volver a MQA del hilo) que ya haría cualquier archivo hires, el MQA hace, a mi entender, tres cosas adicionales que le permiten esta respuesta a impulsos de 3 a 10uS:

1- corre el inicio del filtro varias octavas *más atrás* de los 20 Khz. Eso porque el formato considera que en las octavas superiores de la música no hay amplitud dinámica que pudiera recortarse al aplicar ese filtro recortando los bits superiores. Por supuesto, si la hay gran amplitud en esas octavas superiores en pitos de tests, por eso el algoritmo -si se usa sin los ajustes de estudio diseñados para ello- arroja errores en test hechos por amateurs.

2- no usa un filtro "lineal", sino uno paramétrico "apodizante" que es de geometría variable (tipo "S", los parámetros definen las curvaturas de esa "S"). Uno de los autores del MQA, Peter Craven, fue quien propuso -mucho antes de MQA- este tipo de filtros que ahora son habituales en muchos DAC. La gracia del MQA es que los usaría no solo el el DAC sino en ADC también.

3- el uso de este filtro además no sería estático, sino cambiante según el contenido musical que se está digitalizando. El formato establece una "vinculación" entre los parámetros del  filtro que usó en cada instante de la conversión ADC, para que el DAC haga lo opuesto, reconstruyendo la misma geometría de filtro. Esto está incrustado en el canal de datos que acompaña la música que contempla el formato.

👍

Enlace al comentario
Compartir en otros sitios

On 21-12-2022 at 15:14, CarlosGomez dijo:

Hola @pbanados, buenas tardes. Por mi parte yo compré hace poco un CD-MQA que es un sampler de musica pop '70s-'80s, trae dos discos con las mismass canciones, uno en formato normal y el otro en formato MQA, pero como dije antes no tengo ningún reproductor o dac que soporte MQA, por lo que no puedo probarlo, por ahora. Por lo que si gustas te lo puedo enviar, lo pruebas y nos comentas acá en el foro los resultados. Gracias! 

Recibí hoy en la tarde el disco doble, solo alcancé por ahora a hacer la prueba si mi CD-player lo lee y el DAC (Mytek Brooklyn) lo interpreta. Y sí!! lo hace!!. Y nada menos que en 24/352! (son la mayoría grabaciones análogas de discos clásicos del rock de los 70; cuando los master son análogos tratan de llevar el sampling bien arriba). Mañana trataré de comparar formatos.

Muchas gracias @CarlosGomez!! pero me cagaste compadre... ya estoy mirando en la web donde comprar más MQA-CD...😂 Y sorpresa! Needle está trayendo varios...

Para el resto de los foreros, despejada la duda: si mi vejestorio de CD-player usado como transporte puede usarse para mandar MQA-CD al DAC MQA-compatible, cualquier otro DAC debiera poder hacerlo. Incluso yo tengo conectado al DAC por cable óptico, e igual me lo leyó como 24/352 (ese dato aparece en la pantalla del Mytek).

1: Audioquest Niagara 3000 >CD Sony XA50ES / Rega Planar 3, AT-OC9XML, Moon 110LP / Macmini (Tidal+Roon) > Theoretica BACCH4Mac >RME Babyface pro/ Mytek Brooklyn DAC > Rogue Audio Cronus Magnum III (KT120) >Magnepan 1.7i  

2: TV qled 55"/ Roon> Advance Acoustics MyConnect 50 > Kef LS50 Meta.  

"I've looked at life from both sides nowFrom win and lose and still somehowIt's life's illusions I recallI really don't know life at all" Joni Mitchell

Enlace al comentario
Compartir en otros sitios

hace 1 minuto, pbanados dijo:

Recibí hoy en la tarde el disco doble, solo alcancé por ahora a hacer la prueba si mi CD-player lo lee y el DAC (Mytek Brooklyn) lo interpreta. Y sí!! lo hace!!. Y nada menos que en 24/352! (son la mayoría grabaciones análogas de discos clásicos del rock de los 70; cuando los master son análogos tratan de llevar el sampling bien arriba). Mañana trataré de comparar formatos.

Muchas gracias @CarlosGomez!! pero me cagaste compadre... ya estoy mirando en la web donde comprar más MQA-CD...😂 Y sorpresa! Needle está trayendo varios...

Para el resto de los foreros, despejada la duda: si mi vejestorio de CD-player usado como transporte puede usarse para mandar MQA-CD al DAC MQA-compatible, cualquier otro DAC debiera poder hacerlo. Incluso yo tengo conectado al DAC por cable óptico, e igual me lo leyó como 24/352 (ese dato aparece en la pantalla del Mytek).

Excelente noticia. De todos modos, no alcanzo a comprender esa maravilla tecnológica: en un CD normal meter lo que en el fondo es un 24/96 pa' arriba.

Como señaló @AndreSMlo importante es determinar si el DAC finalmente decodifica MQA en todas sus entradas (asumo además que por óptico estará limitado a una frecuencia determinada por el protocolo del cable). Ahora para encontrar mqa-cds acá.....ya es peludo encontrar sacds.

Enlace al comentario
Compartir en otros sitios

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Invitado
Responder en este tema...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Crear Nuevo...