Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

pbanados

Miembros
  • Contenido

    3.388
  • Registrado

  • Última Visita

  • Días ganados

    67

Todo lo que pbanados posteó

  1. No. Lo que significa que uno es una copia autentificada por el notario MQA, y el otro una copia simple (quizás hecha por el estudio, sin que MQA hubiera certificado que se usó el master original). Lo que MQA promete es que si se te prendió el testigo azul, puedes hacer uso de tu fe en la honestidad de la gente, y que sí se hizo a partir del master original. Lo del puntito azul y verde es lo mismo que contaba de mi DAC, que tiene la palabrita "MQA" (más el sampling del archivo) prendida en azul si es certificado, o en verde si no.
  2. por supuesto discrepo tb . Los desdoblados superiores al primero sí deben hacerse en el DAC (el equipo, no el chip), pues están diseñados ad-hoc para cada equipo en particular, para compensar las alteraciones de time-domain añadidas por esos equipos. Se hacen en el equipo DAC, pero previo a la conversión DAC, pues consiste en la aplicación de una serie de filtros, y para que no generen nuevos problemas de corrimientos de fases deben hacerse en dominio digital. Te confieso que hasta pocas semanas atrás tb creía que esto era un asunto solo comercial; no encontraba razón por la cual no pudiera hacer toda la pega la aplicación (Tidal, Roon,etc). Hasta que pillé algún documento en que describían lo anterior. Solo cuando lo entendí me animé a comprarme el DAC MQA... (soy muy coñete... lo sé) Sobre las incompatibilidades con MQA de la implementación FPFA de Chord, solo lo leí un poco al pasar en algún lado, por lo que no puedo abundar en el tema. Pero hay una cosa bien notable con los Chord: el array de puertas retrasa la señal (esto lo puedes comprobar muy fácilmente si mandas la señal a un Chord y otro en simultáneo, el Chord empieza a sonar uno a dos segundos después). Sospecho que esa debe ser una de las causas de la incompatibilidad, pues todo este tema tiene que ver con correcciones de time-domain que se miden en millonésimas de segundo. Lo último de tu post es un gran error (y el que creo que causa de muchas concepciones erradas de este asunto): MQA es cualquier cosa MENOS un algoritmo de compresión (el origami, posterior a la corrección de la captura digital, tampoco es un algoritmo de compresión, sino uno de empaquetado). MQA es mucho más que simplemente un formato de sampling alto y luego comprimido (como parece creer mucha gente, y más encima con la creencia que sería lossy en eso); corrige los problemas de Time-domain inherentes a cualquier conversión PCM: 1- extendiendo la aplicación de filtros mucho más arriba, por hacer una captura análogo-digital a samplings más altos. Eso traslada los problemas de desfase de armónicos mucho más arriba, y no afecta el rango audible (la alteración de fases es producto de los necesarios filtros análogos que deben aplicarse previos a la captura, esto lo expliqué brevemente en otro hilo). En rigor, cualquier sampling alto haría lo mismo; pero esto es lo que normalmente no se entiende del por qué los samplings altos suenan mejor: no porque "densifiquen" samplings en el rango audible (según Nyquist-Shannon no se saca nada con ello), sino por que extienden la captura más arriba, trasladando el efecto de los filtros al rango supra-audible. Los archivos de smapling altos tiene el rango audible con las fases de los armónicos en sincronía con la fundamental; los archivos de sampling bajos (red book) los tienen alterados. Por eso suenan "ásperos". 2- corrigiendo los efectos de aliasing -que se producen alrededor de la frecuencia de Nyquist en cualquier captura PCM- mediante una batería de filtros convolucionales (no sé si está bien traducido esto). El aliasing en audio, para quienes no sepan, es equivalente al efecto moiré en las imágenes: es la aparición de frecuencias fantasmas que no estaban en la señal original, por el efecto de data que se extiende más allá de la frecuencia Nyquist (la frecuencia de Nyquist e la mitad del sampling: en 44.1 Khz, sería 22.05 Khz). Todo fabricante de equipos ADC y después en el otro extremo, de DACs, tiene que tomar decisiones respecto de este punto: si pone filtros bruscos ("brickwall"), aumenta los problemas de fase de armónicos en la mayor parte de la señal capturada; si pone filtros suaves (de pocas db/octava), aumenta los problemas de aliasing. De hecho, muchos DACs actuales viene con una selección de filtros: precisamente l que hacen es que tu puedas seleccionar qué te suena menos mal de esos dos problemas. nota: la razón que el formato red book se extiende a 44.1 y no 40 khz (siendo 20 Khz el límite audible humano), además de las matemáticas binarias, es básicamente porque corren la frecuencia de Nyquist un poco más arriba, con la idea que el aliasing no alcance a bajar hasta el rango audible. Esa era la idea original; en la práctica, el aliasing SI invade el rango audible. 3- eliminando los problemas de ringing que generan los filtros que se usan para digitalizar, y que generan una más lenta respuesta a impulsos (el ringing son las onditas que aparecen antes y después del t0 del impulso; en una captura PCM típica, el ancho temporal afectado creo que es entre 200 a 500 uS). Este ringing se produce tanto en la captura a digital como en el proceso inverso. Cada vez que vemos los gráficos de los reportes de un DAC, este es casi el primer tema que tocan (los DACs aportan, sobre ese ringing de la captura, nuevos ringing en su proceso de conversión). MQA corrige este efecto mediante una matemática muy chora, pero poco intuitiva en principio: los problemas de ringing generados por los filtros.. .se corrigen con otros filtros (!) que se llaman adaptativos. Esto es lo que Paul Gowan (PS Audio) en el video criticaba. Si se entendió lo anterior, podrán también entender lo estúpido de la crítica: Gowan critica la corrección de time-domain de MQA porque se aplican filtros... porque aumentarían los problemas de time-domain! . Pero los filtros adaptativos están diseñados exactamente para lo contrario: no para aumentar el problema, sino para corregirlo, lo cual se fácilmente comprobable midiendo el comportamiento en un laboratorio... el ringing de un archivo MQA baja a 10uS (si el MQA se hizo desde un master digital), hasta 3 uS (si se hizo desde análogo). Alguna gente puede detectar (acá entra la neurociencia)hasta tan pco como unos 8 uS (uS: millonésimas de segundo). Hay algunas cosas adicionales en esto del MQA, pero lo anterior da una idea de qué se trata la corrección de time-domain que genera. Por qué todo lo anterior es importante: porque el efecto de las alteraciones de time-domain generan lo que Meridian llama el "blurring" de la señal: se pierde foco, definición, y se altera el timbre de lo reproducido. En stereo este problema aumenta, pues a eso se agregan las distintas alteraciones en uno u otro canal: en consecuencia, disminuye la precisión del imaging y se contrae el soundstage. Al hacer el de-blurring del MQA se corrigen enormemente esas anomalías.
  3. Dicho sea de paso: no porque el archivo MQA sea MQA necesariamente es un "autheticated master". Existen pseudo MQA's. En mi DAC el testigo de MQA se prende azul si es autenticado, y en verde cuando no lo es. ¿estamos seguros entonces que los famosos discos de NY fueron autenticados por MQA, y no fue la discográfica que simplemente se arrancó con los tarros? Por que, ya que insistimos en analizar un caso en particular entre decenas de miles: supongo que sabes que la Geffen le metió una demanda una vez a Neil Young porque se los estaba bypasseando, no cierto? Neilcito es uno de los personajes más conflictivos de toda la industria (no digo que no tenga razón, solo que despierta ronchas como pocos otros).
  4. ¿y qué prueba tienes tú de que no? Ni siquiera de la propias declaraciones de NY es automático inferir eso. ¿Cómo sabes que es Neil Young y no la Geffen o la discográfica que sea posee esos masters? Y si finalmente los sacaron de circulación, puede ser que sea como dices, y que MQA se dió cuenta que le pasaron una copia de ese master y no el original (y entonces estamos suponiendo además que la copia tiene degradación respecto del original para que el punto sea relevante). Y entonces los sacaron. Cáchate la suposición: Tidal tiene ya miles miles de discos en master. MQA está armando un negocio infinitamente mayor que el archivo de NYA. Pero corrieron el riesgo de mentir, por Neil Young, que supone cuánto, ¿el 0.001% de su volumen de streaming? Pero ¿Por qué estamos discutiendo esto? ¿qué estamos tratando de probar?
  5. ok, como quieras. Tuve en mi casa, delante de mis ojos y escuché el disco completo, una de esas cintas (como contaba, recuperada de un estudio que las estaba botando; hay una historia de esto en la internet que tb salió en un reportaje en la Stereophile). Esas cintas son precisamente los masters.... No sigo mucho a Neil Young (a pesar del insistencia de un amigo fanático de él), pero entiendo que en los NYA lo que el tipo está explícitamente haciendo (eso está documentado en todos lados) es remasterizar esos discos antiguos, incluso remezclando las pistas. El resultado seguramente es un mucho mejor master que el que existe del Harvest, del cual NY le habría gustado tener la versión digital definitiva, pero eso no significa necesariamente que el original master de Harvest lo hayan hecho desaparecer. ¿No te parece posible al menos que MQA haya procesado, provisto por la casa discográfica junto a cientos de otros trabajos, el master original de 1972, en vez del remasterizado hecho este siglo que tiene Young en su NYA? Pregunto: ¿No será eso más probable (dado que es lo que la empresa hace con miles y miles de otros casos) que la alternativa: suponer que MQA son unos mentirosos, específicamente para el caso de Neil Young? ¿En verdad tu crees que MQA fue a la tienda de la esquina, compró un CD de Harvest en sale, y a partir de allí procesó el MQA que no le gustó a NY?
  6. MQA no dice en ninguna parte que hace nuevos masters (aunque a veces sí sería necesario). Dice que autentifica que el archivo MQA se hizo a partir de los masters y no de fuentes truchas. Si no son los masters que ha NY le hubiera gustado es otro problema. Mi especulación es que no fue así por negociaciones comerciales, que finalmente terminaron en esta ruptura. El punto relevante en todo caso, si no queremos pasarnos el resto de la vida discutiendo uno por uno el caso de los cientos de miles de músicos existentes, es que MQA sí se hace a partir de los masters.
  7. Estoy absolutamente consciente que NY es muy preocupado de la calidad auditiva de su música, eso es bastante obvio. Precisamente por eso ha estado remasterizando sus discos antiguos. Pero tb que le importa monetizar ello. Como ninguno de nosotros sabe cuáles fueron las negociaciones comerciales entre NY, Tidal, MQA y Chord, podemos especular lo que sea... pero el hecho objetivo es que MQA hizo archivos a partir de masters de los discos de NY. Si no hubiera sido así, se exponen a una demanda de aquellas monstruosas que suelen haber en USA, por engaño de fe pública. Que Neil hubiera preferido que lo hicieran sobre sus masters posteriores... obvio. Si no sucedió, es altamente probable que fuese por alguna traba comercial. También es altamente probable que instigado por Chord y el contrato conque lo debe haber amarrado, ahora Young tenga que alegar contra esos master... dado que Chord no los puede desdoblar. Es obviamente de alto interés de Chord y muchos otros bajarle el perfil al MQA, que les podría sacar del mercado si resultan exitosos. Sobre lo segundo (si te entendí): No es necesario hacer master distintos para una versión MQA ( aunque entiendo que a veces sí se hace). Sí es necesario tomar esa fuente master original, ojalá análogas, para hacer el archivo MQA, pues de esa forma se aseguran no heredar los problemas inevitables de la digitalización original, la mayor parte de ellas provocados por los filtros análogos necesarios de usar para poder digitalizar (largo de explicar, algo mencioné de esto en otro hilo). Si se trata de masters digitales y no hay fuentes análogas, el procesamiento MQA igual puede trabajarlos, con técnicas distintas y algo menos efectivas para eliminar parte de los artefactos incrustados en esos masters digitales. Uno de los más importantes son los filtros adaptativos. Los que sin embargo requieren el mapeo del equipamiento que se usó en la grabación original para hacer una suerte de "ingeniería inversa" mediante esos filtros adaptativos (tema super interesante pero que no domino todavía), que corrigen los aliasing, los desfases de armónicos, y especialmente el ringing y fantasmas (no sé el nombre exacto) que provocan una respuesta "fofa" a impulsos en la señal grabada. MQA dice bajar la respuesta impulsos de unos 200 a 500 uS de los Redbook a 10 uS procesando archivos digitales, y a 3 uS si parte de análogos. Sospecho que, por ejemplo, ECM está en un programa acelerado de generación de archivos MQA (eliminando los anteriores), pues como tienen una metodología consistente de grabación (siempre ocupan los mismos estudios y el mismo equipamiento), el procedimiento para procesarlos MQA ya lo tienen equipado y lo pueden aplicar sin cambios a gran parte de su catálogo. Si la casa discográfica le cree a MQA, tendrá normalmente un único archivo que sirve tanto para PCM normal como para desdoblado en mayor resolución (el caso de ECM). Si no, tendrá (y hay) versiones master Tidal y versión normal. Todo lo anterior tiene que ver con la generación de archivos MQA. Hay toda otra parte que tiene que ver con la reproducción de esos MQA. Precisamente por ello (y esto lo supe hace poco, antes me preguntaba por qué no podía la app de Tidal o Roon hacer todo de una vez y había que tener DAC's MQA) los DAC deben ser MQA compatibles para hacer el desdoblado completo, pues se diseñan filtros para las características específicas de cada DAC en particular, que compensan las alteraciones de time-domain que también se producen en etapa de reproducción. La mayoría de ellas solo pueden hacerse en el dominio digital, previo a la conversión DAC.
  8. Mi interés por MQA se inició el año 2015, cuando Stuart empezó a dar conferencias y hacer demos pero todavía no era una implementación comercial. Me acuerdo de la fecha porque íbamos a hacer un viaje a Escocia, y me puse a cachar donde habían tiendas Meridian (en Edinburgh o Londres) donde estaban haciendo demos. Al final no me alcanzó el tiempo, y después se me olvidó la cosa. Hace un tiempo atrás, creo que coincidente a cuando agregué un DAC Chord a mi sistema, noté que los masters Tidal sonaban consistentemente mejor. Un ejemplo clarísimo es el disco blanco de Los Beatles, pero no sabía cuánto atribuirle al remastering del hijo de Martin y cuanto a la tecnología. Pero no era ese no más, en cada masters encontraba que sonaban mejor, con más micro-detalle, y más contrastes dinámicos. Ya era sabido lo polémico del asunto (y en efecto, Stuart parece ser un tipo muy soberbio y antipático), pero me costaba creer que tuviera las taras que decían: cómo se mandan la paja que decían, para después echarla a perder con procesos "lossy"; realmente no lo podía creer. Por lo cual me propuse informarme un poco más (se habrán dado cuenta que soy un poco TOC), a leer los documentos de Meridian y alguna otra información disponible más clarificadora, los documentos de Meridian son bastante oscuros. Encontré fascinante el tema y muy clever, pero aún con la duda si no era una pura pomada no más. Para entender a cabalidad esos documentos, sin embargo, y este es un aspecto bastante clave, hay que estudiar un poco más, cosa que tb hice (el hobby este no termina solo escuchando o comprando/vendiendo equipos). Lamentablemente, este tema es técnicamente bastante complejo, y es re fácil prejuzgar si no lo entiendes bien. Lo que personalmente me revienta es el prejuicio sin siquiera haberlo probado: como mínimo uno esperaría a que por lo menos realmente lo hayan escuchado con atención y en buenas condiciones antes de emitir sentencias. Finalmente hace un par de semanas, y estando cada vez más intrigado, para salir de la duda me compré un DAC MQA. El primer día encontré mejoras pequeñas respecto de lo que lograba con el Chord. Pero al final del día me dí cuenta que el DAC no estaba prendiendo el testigo MQA de su visor (que también informa el sampling y que es distinto del que parece en tu pc: es el sampling final después del desdoblado). Averiguando me fijé (mediante un proceso no corto de prueba y error) que habían varios pasos de configuración en el Mac mini que tengo conectado a ambos DAC para que efectivamente el archivo MQA fuera completamente desdoblado por el DAC y no por la app de Tidal. Una vez que lo configuré mejor, realmente se destapó el asunto. Las diferencias son relevantes en favor del desdoblado MQA por hardware. La verdad es que no esperaba tanto. Si el archivo no es MQA, aún sigue sonando un poco mejor mi DAC 2Qute, aunque no es demasiado la diferencia; es similar a lo que Chord contra casi con cualquier otro DAC que he probado: un sonido más lleno y con más cuerpo; quizás con un DAC MQA de mejor calidad que este Project no pasaría. Pero si el archivo es MQA el salto cualitativo con el DAC MQA varía entre grande a enorme (microdetalle, obvia mayor profundidad de soundstage, tangibilidad de instrumentos, sobre todo percusiones; más resonancia de bajos, en general los bajos suenan más enriquecidos -pero sin exageraciones-, etc). Te vuelves a cambiar al Chord o al propio Project sin activar el desdoblado y hay cosas que virtualmente desaparecen. Incluso se percibe la calidad del tipo de archivo MQA: a más alto el sampling MQA, mejor suena. Una de mis primeras pruebas fue con el soundtrack del Twin Peaks original (serie que estaba viendo) y se me cayó la quijada con la diferencia de calidad. Simplemente ABISMANTE. Como contraparte, a veces suena un poco delgado en rangos medios (comparado al Chord), pero lo atribuyo a taras del DAC más que del MQA. Por supuesto depende del archivo: el otro día, por ejemplo, escuché el primer disco grabado por ECM (Mal Waldron) que está en master y normal en Tidal; y allí si bien las diferencias existen, son menores. En cambio los discos posteriores de ECM suenan espectacularmente bien, y algunos más recientes, espectaculares. Otros que suenan realmente extraordinarios son los del sello 2L Audiophile Recordings (generalmente en 352K), que por lo demás fue uno de los primeros impulsores del MQA. La calidad en esos discos es realmente sobresaliente. A nivel de fuente, creo que lo único comparable en mi casa ha sido cuando un amigo trajo hace unos meses un muy buen R2R de cinta ancha, y escuchamos un master de estudio (me contó que lo recuperaron de los tarros de basura de un estudio en Miami...). Con buenas grabaciones (no todas obviamente), el MQA en verdad suena a ese nivel.
  9. Numeración referida a tus tres párrafos: 1- Claro que MQA tuvo acceso al master original (casi no lo podrían hacer de otra forma).... pero no tuvo acceso al master modificado a posterior por NY (que no es el original, es uno mejorado después por NY, como el mismo lo publicita para promover los Neil Young Archives, creo que incluso remezclando las pistas). El alegato de NY es que él le hubiera gustado que se publicara el archivo MQA a partir de ese remasterizado que él hizo. Sospecho que a MQA le hubiera encantado, y no fue así porque NY pedía una plata que MQA no estuvo dispuesto a pagarle; entonces clausuró los masters en Tidal y firmó acuerdo con Chord (o al revés: logró la plata que quería con Chord y no lograba con MQA, y entonces cerró los master Tidal; por lo demás lo mismo hizo con YouTube). Pero de que MQA trabaja a partir de master, de eso no hay ningún indicio para desconocerlo, que sería tratarlos abiertamente de mentirosos. No te entendí lo de los 16 vs 24 bits, pero en todo caso, en vez de acusaciones al vuelo, evidencias please. 2- Entonces convence a todos los demás (al mundo completo, no solo a nuestros foreros) que cuando les cuentan que el MQA sería "lossy" automáticamente hablan horrores del MQA por ello (partiendo por Paul Gowan, es exactamente la justificación que dio en el video), que el hecho que lo fuera lossy como tu entiendes el término no implica merma de calidad. TODO el mundo (a excepción de tí al parecer) lo entiende así: "MQA es lossy" -> "ah! entonces MQA por definición va a ser peor, haga lo que haga después, pues su algoritmo de empaquetado pierde información!!". Personalmente no estoy dispuesto a seguir en esto si ese punto basal no es despejado primero, pues es fundamental. No te voy a hablar de los milagros divinos si eres ateo: convengamos que es altamente probable que no me creas lo que te cuente. Y no te puedo sacar el contenido de 15Khz para el proceso MQA, pues es exactamente lo contrario: necesito ampliarlo lo más arriba posible para minimizar el efecto de corrimiento de fases de los filtros (entre otras razones. Y por eso es que MQA DEBE procesar desde los masters y no de otro lado; por eso tb la discusión de la "mentira" del punto 1 es absurda). 3- No te mandan el archivo A mejorado, porque sería muy grande; la misma razón por la cual ningún streaming publica DSD directos independiente de lo que tú opines del ancho de banda requerido (si alguien intentó esa aventura fracasó, es culpable MQA de tratar de viabilizarlo?); en este mismo foro hemos llorado a mares porque se nos interrumpe el flujo de streaming, con una facción de lo que demandaría un DSD...La empresa más grande del mundo, Apple, con recusos virtualmente ilimitados, lleva más de una década stremeando en AAC a pesar de la indignación de sus usuarios (fue, de hecho, esa indignación el puntapié inicial para NY y su pono), y todavía se niega a transmitir en HD. Y también, obviamente, porque el negocio (supongo que tienen derecho a armar un modelo de negocio como les parezca, está en cada uno aceptarlo o no) incluye empaquetarlo (y algunos al parecer piensas que son tan inconmesurablemente estúpidos que luego de haber hecho un trabajo de joyería arreglando el archivo, después lo hacen pedazos haciéndolo "lossy" en ese empaquetado). ¿Acaso el formato 176/24 suena más mal porque HDTracks cobra más caro por esos archivos y hay que abrir una cuenta para bajarlos?
  10. "El 1 es falso, solo ver la cita a Neil Young": Cuidado con lo que citas. Como norma trato de infomarme un poco antes de citarlo. Young está en una guerra por monetizar su producción (legítimo) desde hace una década, cuando empezó a planear el pono. Entonces dijo que la calidad CD era apenas escuchable (la misma que algunos foreros ahora sostienen que le vuela la raja al MQA). El pono era simplemente archivos 176/24, nada mas que eso, y con la cual prometía "la misma calidad del master de estudio".... Sobre su abandono de Tidal reciente habría antes que nada saber si fue anterior o posterior a su acuerdo con Chord... que por definición no puede procesar MQA. Que Young no esté de acuerdo con que Tidal procese masters (aunque sean discos de él) desde lo disponible en los sellos en vez del remasterizado que él ha estado haciendo en su archivo NYA, no significa que MQA esté mintiendo y no esté procesando a partir de masters. Lo que significa es que son los masters del sello, no los del archivo de Young, que son otros, vueltos a remasterizar por él, como él mismo lo declara a vox populi. Eso es lógica elemental. "El 2 es falso, pierde datos, que no sean relevantes no cambia el significado". Me estás convenciendo que debo ser tonto, porque sigo no entiendo tu porfía en insistir en este punto. Lo que concluyo es que no me crees, y sí sigues creyendo que MQA degrada señal por procesos "lossy". Si tú mismo reconoces que no lo hace, ¿cuál es el sentido de insistir en esto? Y ya que insistes en la precisión lingüística: el ruido (por abajo) y la inexistencia de registros (por arriba), no son datos, NO SON INFORMACION. IT IS NOT DATA. CE N'EST PAS DE INFORMATION. NON SONO INFORMAZIONI. ES IST KEINE INFORMATION. Te voy a pedir un favor: yo hice todos mis esfuerzos por demostrar que el origami no pierde información. Si tu quieres insistir en el punto, hazlo demostrando lo contrario: que SI pierde información (entendida como datos, no ruido o silencio). Pero si lo intentas, te vas a topar con un problema fundamental: contra qué lo vas a comparar? porque dado que parten de distinto origen, necesariamente serán distintos. Te vuelvo a insistir: estás analizando el tema desde la óptica de un algoritmo de compresión. MQA NO ES UN ALGORITMO DE COMPRESION QUE BUSUQE UNA NUEVA FORMA DE COMPRIMR EL MISMO ARCHIVO PCM. Es un proceso que empaqueta una información que desde el origen es distitnta a la del redbook con la cual quieres comrararlo. Es imposible que lleguen al mismo resultado si uno está describiendo una manzana y el otro una pera. De la manera que estás planteando este punto (como crítica al MQA) básicamente significa que el Redbook es el formato último, final, inamovible y definitivo. Cualquier cosa que altere un solo de los millones de bits de ese archivo sería "lossy" según tu concepción. Pero luego te respaldas en Neil Young, que en paralelo dice que el redbook vale callamapa.... "El 3 que de hecho es lo único relevante, lo único en que mqa podría estar haciendo un aporte en mejorar el sonido actual dices que no lo vas a explicar" ¿Y como quieres que lo explique, si antes de ello ya has estipulado que el MQA pierde datos? Si el personaje parte cojo, nunca va te voy convencer que podrá ganar la carrera de 100 metros planos en la próxima olimpíada. Antes de seguir, debemos aclarar el punto anterior. "Por el contrario, una y otra vez vuelves con explicaciones de cómo se hace el origami que no aporta a la discusión de la calidad de sonido". Ver párrafo anterior. No voy a meterme a una interminable explicación del efecto de desfases de armónicos que generan los filtros, el aumento de ese problema en sistemas multicanal, por qué un PCM debe inevitablemente ocupar esos filtros, los detalles de la teoría de Nyquist-Shannon, los problemas de ringing de las frecuencias de Nyquist, la forma en que MQA baja la respuesta de impulsos de 500 uS de un PCM normal a 10 us (si trabaja sobre archivos digitales) o a 3uS (si lo hace desde análogos), las razones neurocientíficas de por qué eso es importante, la teoría de los filtros adaptativos, las explicaciones del aliasing (o efecto moire auditivo) y por qué se poducen, etc, etc, todo lo cual, aunque fuera de la NASA valdría callampa si antes de eso tu partes creyendo que el MQA pierde información.
  11. No. No voy a siquiera entrar en el punto de explicar el por qué el MQA mejora la señal respecto de un PCM (la cual sí requiere de tecnicismos de entender), si antes hay que aclarar una y otra y otra vez la cosa más obvia de todas: el esquema origami de empaquetado no pierde data, sino modifica el ruido, ya que sería una acusación suficientemente grave para invalidar todo lo demás. Realmente se me acabó la creatividad en las formas de intentar de explicarlo, pero siguen hablando de la cantileja del "lossy", sin siquiera preocuparse de tratar de entender cómo se hace el origami. En todo caso: leer el PRIMER (!!) POST DE ESTE HILO: MQA son 3 cosas en un formato, y no tienen (casi) nada que ver una con otra: 1-autentificación (para certificar que se hacen desde masters, Archimago...) 2- empaquetamiento sin pérdida de datos (para viabilizar transmisión de archivos de alta densidad por streaming, sobre lo cual no solo si hay demanda, en poco tiempo será la forma en que el >90% de la música se escuchará, Archimago...) 3- corrección del time-domain (para corregir las falencias auditivas de un redbook respecto de un master). Después de como 50 posts, ni siquiera hemos empezado a tocar el punto 3. Pero si solo explicar la segunda y más obvia tenemos que ponernos de acuerdo hasta de como la Real Academia define un término... "Aunque igual no es mucha utilidad en estos tiempos donde internet vuela": Bueno saberlo. Please, dime donde stremear en calidad DSD si es así. Porque la calidad MQA, al menos supuestamente, es equivalente o incluso superior a la DSD.
  12. Como a pesar de todo lo que me he esmerado en explicarlo, buena parte de los foreros siguen insistiendo (junto a Paul Gowan ) que el MQA seria lossy (entendido como pérdida de datos audiblemente significantes; el ruido no es audiblemente significante; la ausencia de datos por sobre la señal musical tampoco), acá van unos fundamentos importantes de entender: 1- Fundamento 1: repito lo dicho al inicio del hilo: el formato PCM de redbook graba 44.000 pulsos por segundo (su sampling: el sampling es siempre el doble de la frecuencia que se es capaz de registrar. Un archivo HD de 96K registra hasta 48 Khz - leer en wikipedia o cualquier lugar web sobre el teorema de Nyquist-Shannon-). Cada uno de esos pulsos tiene 16 bits posibles de valores. Esto significa que para 20 hz puede registrar hasta 96 db de diferencias de amplitud (dinámica, volumen intrínseco del sonido, no el volumen que después amplificas tú). Y para un contenido sonoro de 20 Khz... también puede registrar 96 db de diferencia. Ejemplo: La imagen anterior está mostrando una señal simple (una sinusoidal pura). Supongamos que esta onda corresponde a una sinusoide de 200 hz (se repite 200 veces en un segundo), este diagrama muestra 1/220= 0.005 segundos. Hay +- 20 pulsos (divisiones horizontales; se ven menos porque algunos son de la misma amplitud, como en la cúspide) en el diagrama. La digitalización implícita en este mono sería de un sampling de 20/ 0.005= 4K (4 mil samplings en un segundo). Para cada uno de ellos hay 8 posibles estados verticalmente en la línea roja (la señal digitalizada). 8 estados se puede registrar con 3 bits (2^3). Este ADC habría procesado entonces esa señal en calidad 4/3 (recordemos, el redbook es 44/16; en este ejemplo tendría 256 veces más escalonados; un archivo 176/24 tendría 1536 veces más posibles datos) 2- Fundamento 2: Cada nota musical de cualquier instrumento que sea está compuesta de una onda sinusoidal principal (la "fundamental"), que determina la nota misma (llamémosla X: el tercer LA de la escala musical, por ejemplo, que es de 220 Hz); y una cantidad de "armónicos" (ondas sinusoidales menores, múltiplos de la fundamental: 2X, 3X, 5X, 8X, etc.). La cantidad y amplitud de cada uno de esos armónicos determina el timbre del instrumento (es la principal característica que permite diferenciar un violín de un cello, por ejemplo). Todos los instrumentos (a excepción de sintetizadores generando ondas artificiales, y aún en esos casos las excepciones son muy escasas - y molestas auditivamente- ) tienen una distribución decreciente en amplitud de armónicos. como en el sgte gráfico: El diagrama muestra la distribución de armónicos de algún instrumento cualquiera (no sé cual, pero uno real). H1 es la fundamental (el tercer LA, A3 o 220 Hz de nuestro ejemplo previo), de mayor amplitud; todos los saltos siguientes son menores, y se van haciendo más chicos a más agudos sean. H4 (4x220=880 hz), por ejemplo, es más de 4 veces menos fuerte que la fundamental (si h1 era de 70 db, h4 sería de 70-12=58 db; cada 3 db se duplica el volumen). H8 (220 * 8=1760 hz) es como 20 veces más chica; se hace un calculo logarítmico, pero supongamos que es de 30 db menos: 40 db. Todos los instrumentos se comportan igual. Si juntas muchos en una orquesta, hay MUCHO más volumen en la parte baja del espectro que en la parte alta; a tal punto que en las zonas realmente altas hay poquísimo volumen, en comparación al que hay en los bajos (por lo mismo cuando bi-amplificas o tri-amplificas en tu sistema, requieres muchos menos watts para el tweeter que para el woofer). Aquí entonces el primer problema del redbook: usa la misma cantidad de bits (16) para registrar una sinusoide de 20 hz que una de 10.000. En el ejemplo de arriba (simplificando mucho), necesitaría unos 12 bits para f0, pero solo 6 a 7 bits para el octavo armónico. A más voy subiendo en frecuencia, menos bits necesito para registrar todo el contenido posible que capturará mi micrófono. En la zona supra aural (sobre 20 Khz) será de apenas 3 o 4 bits... hasta llegar a 0 en alguna frecuencia muy alta (algo sobre los 100 khz). Pero... el redbook (y cualquier PCM para el caso) ocupa la misma cantidad de bits para cualquier frecuencia que registra. En el ejemplo, desperdicia 5 a 6 bits en el octavo armónico (1760 hz); y quizás 12 o 13 bits cerca de los 20 Khz. Pregunta: ¿tiene sentido usar la misma cantidad de bits arriba, donde no hay amplitud que lo justifique, que los de frecuencias bajas, donde hay mucha más energía a capturar? Todo esa enorme espacio usado en capturar algo que NO EXISTE es espacio perdido en los archivos PCM. Si encuentras una forma de no registrar esa "no información", el archivo resultante, en una interpretación talibana del término serás "lossy" (no registró la nada), pero en términos prácticos, es "lossless" (donde había contenido real, registró todo y no perdió nada). Alguien que le cuente esta noticia a Paul Gowan, por favor.... 3- Fundamento 3: Todo lo anterior demuestra el espacio desperdiciado por arriba de la amplitud máxima a registrar. Pero además hay un piso de "basura" que tampoco sería teóricamente necesario registrar: es ruido. Si ocupan un decibelímetro al escuchar música, probablemente registrarán 80 , 90 o 100 db de volumen máximo. Pero cuando la música se detiene, el decibelímetro no cae a 0: sigue marcando 35 a 45 db... ese es el ruido basal que existe en tu ambiente y también parte de él en tu cadena de reproducción. Lo mismo pasa al capturar la señal: el silencio absoluto NO EXISTE: hay un "piso" de ruido aportado desde el propio micrófono y cada componente que se interpuso entre el instrumento y el conversor ADC que transformó esa señal acústica en pulsos digitales. Pero el formato PCM registra desde el 0 absoluto. Ese piso de, digamos, 40 db, son varios bits desperdiciados en cada uno de los 44.000 pulsos por segundo del redbook. Si el ruido es rojo o amarillo en tu nuevo formato optimizado da lo mismo: igual no lo ves. Pero un talibán dirá que el archivo es "lossy", porque es amarillo y no rojo. La gracia que e realidad ese "amarillo" en un archivo MQA no es "ruido": es señal traída a este piso basal desde las frecuencias supra-aurales. Un lector PCM normal 8un cd player) sigue viéndolo como ruido y no como información porque esa información (amarilla y no roja) es enmascarada como si fuera ruido para ese lector (el proceso se denomina "dithering", introducción de una señal de alietoreidad en ese ruido para que sea entendido como ruido, pero que el MQA sabe filtrar ´para que deje de ser ruido). 4- Entonces: Hay tanto espacio ganado entre los fundamentos 2 y 3 que en efecto, en el mismo espacio "formal" de una archivo redbook es ahora posible encapsular (el "origami") toda la información significante que se capturó de los samplings más altos, sin alterar en lo más mínimo la señal que son datos significantes en el espacio del redbook original. Lo anterior se resume en un diagrama como el que sigue: Se trata de un archivo basado en 48/16 (hay dos múltiplos para los oversamplings: basados de 44.1Khz =88.2, 176.4, 352.8Khz; y basados en 48KHz, 96, 192, 384, y hasta la friolera de 768 Khz). Hasta 24 khz (el límite del redbook: 48 dividido por 2; recordar Nyquist-Shannon) es espacio donde hay música que debe ser registrada llega hasta la línea roja por arriba (volumen máximo en cada frecuencia - punto 2 de arriba-) y la línea azul por abajo (el ruido basal, punto 3 de arriba). El área significante es la "A". En la zona de 48 a 96K, lo mismo, pero área B; etc. El MQA define un triángulo de captura (las líneas amarillas en el mono), algo mayor que ambos límites, donde registra lo que hay dentro de él. Lo que hay arriba no lo registra (porque no hay nada); lo que hay abajo en el achurado, debajo de la línea amarilla inferior si registra, pero no el ruido del PCM, sino la data doblada de los estratos superiores. (el proceso de origami), a la cual le agregó proceso de dithering para que un CD normal no se confunda y lo siga viendo como ruido. Si quieren llamar "lossy" a ello, es cosa de cada uno; pero lo importante de todo esto es que no se pierde UN SOLO BIT DE DATA SIGNIFICANTE, solo se dejan de copiar bits donde no se necesitan (por arriba), y se modifica la estructura de bits por abajo para que registre información y no ruido. Finalmente: nada de esto explica por qué el archivo suena mejor, solo el esquema de empaquetado (no compresión: no está traduciendo la información de ninguna manera, solo ordenando los naipes de la baraja de otra forma). Si alguna vez vemos (lo cual requiere entender esa estupidez mía de gastar este esfuerzo en tratar de convencer a quienes no quieren ser convencidos) por qué además el contenido grabado es de mejor calidad que el PCM, veremos que, ahora si, por esta razón el contenido significante (lo almacenado en las zona A, B C del último diagrama) SI están modificados. Peor esta modificación no hace "perder" datos, sino "mejorarlos": sacándoles sus alteraciones temporales y su lentitud ante impulsos. Pero eso es mucho más complejo de explicar, y antes había que tratar de convencerlos, boys, que los archivos MQA NO SON LOSSY (en la zona de data). Me cansé...
  13. HiFi+, crítica del dCS Rossini (que vale más de 17.000 libras esterlinas en UK, puesto en Chile serían más de 20 palos, solo en un DAC/streamer): "MQA certainly brings a cleaner presence and sense of reality but its main lure for me is the generous increase in colour and enriched tonality. It is more precise too and deals with silences much better. Heard with all the latest dCS software updates it has that rare combination of extreme detail and musical and rhythmic integrity and this runs through listening sessions. It strikes a very attractive balance between dynamic articulation and a real sense of instrumental and vocal warmth, presence, and shading. The way it copes with high-stress musical passages where the soundstage is crammed full of musical happenings is quite easily the best I have heard from any equipment with a digital source." Por suerte en Chile tenemos gente que le puede enmendar la plana a estos gallos medio sordos...
  14. 1- OK. Honestamente sospecho que Paul Gowan no se ha dedicado a entender el MQA. "Mostly MQA is a compression squeme. A lossy compression scheme... meaning it loses DATA". ¿Ves, Patagonia?. Que DSD sería mejor: por lo menos en eso están +- deacuerod Gowan y Stuart: DSD es lo mejor. Pero Stuart dice que MQA es un pelo mejor aún. El fundamento de Gowan, al menos en este video, sería que el MQA empaca en el espacio de un redbook un archivo original mucho más grande, y por lo tanto necesariamente pierde data. Si se queda solamente allí, está cayendo en las críticas idiotas de aficionado ignorante del mexicano del video, que no ve más que la superficie del asunto. Si va a criticar, que haga una comentario técnico, no que se base en ese argumento insólito. No voy a explicar de nuevo esto, el que quiere entenderlo, bueno, el que no... bueno, no hay peor ciego que el que no quiere ver. ¿Y qué tal la ética comercial de PS Audio si opina eso, y aún así lo mete en sus productos, todos carísimos? 2- "Benchmark es una tremenda marca". De acuerdo (pero siendo tan tremenda, por qué respalda su crítica única y exclusivamente con la opinión sacada de internet de dos aficionados?). dCS también es una tremenda marca (casi indisputadamente la mejor en DACS). Esto es lo que dicen de su implementación del MQA en el -Rossini: "Features a full MQA™ decoder. This MQA™ implementation is unique, as it is the first opportunity to enable a DAC which, by providing exact rendering to beyond 16x (768 kHz), matches the desired temporal response with very low modulation noise." 3- A Chord no le gusta el MQA porque nunca lo podrá implementar, aunque quisiera. Técnicamente la tecnología de FPGA (al menos en su implementación propietaria de Chord) es incompatible con la de MQA. Es una pena, porque efectivamente los Chord suenan la raja, hasta cuando los comparas con otros DAC desdoblando MQA, que suenan mejor aún (tengo ambos, lo digo por lo que escucho). Mi mundo ideal sería un Chord con MQA. 4- "Yo no le encuentro ningún brillo la MQA": supongo que lo probaste con un DAC MQA compatible, y te aseguraste que el desdoblado completo lo hiciera el DAC para emitir esa opinión. Me imagino que debes tener un DAC increíble si logras algo mejor que eso. En mi modesta opinión de usuario que SI está desdoblando por hardware.
  15. Como contraparte, todas estas opinan lo contrario. Incluyendo a los DACs más caros del mundo (dCS), o Moon, Mark Levinson, Krell, bel canto, PS Audio, etc. En todo caso, interesantes las críticas de Benchmark, específicamente el tema super interesante de la técnica de filtros adaptativos del MQA, orientados a acortar la respuesta a impulsos (esto por si solo merecería un post extenso para explicarlo). Benchmark dice que ellos generan aliasing... lo cual es curioso, pues el problema del aliasing del redbook es uno de los puntos más fuertemente analizados en los documentos de Meridian. Sobre el que NO sería lossless, ya dí mi opinión antes... personalmente me importa una raja si lo que no es igual es el ruido, que es lo que Benchmark y Archimago (un aficionado al que Benchmark cita para respaldar su opinión...) parecen no darse cuenta cuando supuestamente ponen el dedo en la yaga en el diagrama de una patente, intencionalmente vago, como todos los diagramas de todas las patentes. PD: en uno de los diagramas de Archimago muestran un hoyo con 0 db en la respuesta de frecuencia del MQA en la zona de 22 Khz. No lo he visto bien todavía, pero una cosa interesante es que es justamente esa es la frecuencia que se llama la "Nyquist Frecuency" del redbook, donde se producen feroces problemas de aliasing por la aplicación de filtros pasabajos necesarios para digitalizar en 16/44. Especulo: quizás lo que hace MQA cuando está corrigiendo archivos digitales (y no a partir de fuentes análogas como sería lo ideal) es eliminar esa pequeña banda supra-audible, para eliminar los problemas de aliasing incrustados en el master digital que están reprocesando, que son mucho más perjudiciales auditivamente.
  16. No, yo tampoco los entiendo mucho, y eso que tb creo ser seco pa los gráficos. Hay que leer con detención el artículo de este conocido crítico del MQA. Al menos parece estar bien escrito, no como las payasadas del mexicano del video del otro día. Sí me leí con detención su punto 1, y creo que es refutable virtualmente frase por frase. Pero lo que nos importa realmente es su punto 2 (incluyendo estos gráficos), pero para ver si está bien, mal, o más o menos hay que estudiarlo un poco. Por lo demás, todo esto (la calidad intrínseca - o no- ) del MQA se supone que viene en los siguientes capítulos de esta novela. En algún momento hay que trabajar también.... Si anticipo un comentario al pasar sobre los gráficos: mostrarían que al aplicar filtros deblurring del MQA en el Mytek aumenta la distorsión armónica de, digamos, los 10 Khz desde nada a unos 0.015% (ó 0.2% arriba de 15 Khz -que yo ya no escucho a mi edad). Por alguna razón que no me explico (pero siguiendo la filosofía talibana de Amir de ASR), este 0.015% parece ser MUY importante... pero en un amplificador a tubos aceptamos felices distorsiones de 1%, 5% y hasta he visto casi 10% en equipos sideralmente caros, sin que nadie chiste nada.... Yo creo que ni Superman sería capaz de escuchar, sobre los 10Khz (hay escasísima música arriba de eso, y la que hay -los últimos armónicos audibles- es de muy bajo volumen), distorsiones de.... 0.015%! Si a cambio de ese aumento insignificante de distorsión armónica he corregido las fases de esos armónicos (y de todos los de frecuencias más bajas, los realmente importantes) y además mejorado radicalmente la respuesta a impulsos (eso es lo que hace el MQA)... bueno... el trade-off sería más que aceptable. Una aclaración: yo mismo partí super escéptico de este asunto del MQA. Pero escuchando los master Tidal en mi DAC Chord (que no es MQA compatible) sí notaba una cierta mejora, solo por el proceso de desdoblado por software (primer folding) que hace la app de Tidal. Como estaba tan metido, me terminé comprando un DAC MQA. Ahora que sí puedo hacer el desdoblado por hardware, realmente no me explico (llamémoslo "dilema") cómo no perciben otros la diferencia de calidad resultante. Estoy juzgando esto con mis (gastadas) pailas, no solo por lo que leo. Personalmente estoy llegando a la conclusión que quizás la mejora más barata y efectiva que puedes hacer a tu cadena de audio no es invertir en amplificadores o parlantes más caros, antes de ello es implementar MQA por hardware. Segunda aclaración: tratando de encontrar una explicación al "dilema", y un argumento que no quería tirar aún para que no me tilden de fanático: las mejoras del MQA se basan en la coherencia temporal del contenido audible. Para realmente percibirlas probablemente necesitas un sistema que resuelva bien eso. Creo que si hay algo en lo que mi sistema anda bien (fundamentalmente por los parlantes) es precisamente eso. Hay en cambio otros fabricantes que ese problema (el time-domain) ni siquiera existe para ellos.
  17. Todavía no consulto un diccionario del audio para saber el origen del término "lossy", pero la palabra usada deja muy en claro el contenido que se trata de transmitir: que se pierde información. En todo caso, más allá de como lo describa la Real Academia, el asunto es que cuando uno habla de un archivo "lossy", 99 de 100 personas (solo te estoy dejando afuera a tí) entiende que se trata de una calidad degradada. Me motivé a iniciar este hilo porque ayer hablando con un gran amigo del foro (miembro de la realeza jugosa, yo en cambio soy representante de los bajos fondos [bajos=escasos, ves lo que pasa con ocupar laxamente los términos?]), le conté lo fascinado que estaba con el MQA por hardware... y su respuesta fue: "pero el MQA es lossy... no puede sonar mejor..." Acá va lo que yo creo que es el origen y entendimiento del término (y me parece haber leído una explicación similar): Cuando empezaron los primeros esquemas de compresión de datos en música, o codecs (co:codificación; dec:decodificación; que de hecho creo que son muy posteriores al estándar redbook), surgió la palabra "lossy" y "lossless". Esto se debe a que algunos de estos esquemas (como el FLAC) logran comprimir de forma que al hacer el proceso inverso (el "dec"), obtienen el mismo resultado. Otros esquemas en cambio, como el MP3, comprimen con algoritmos estadísticos, transforman el contenido del archivo, y entonces en el proceso inverso no logra una copia fiel del original. Se pierden DATOS en el proceso, y como resultado, el archivo MP3 (todos estarán de acuerdo), suena peor que el original. Y entonces, a estos algoritmos que pierden DATOS se les llamó "lossy" (de nuevo, loss=pérdida). Los codec, recurriendo de nuevo a las analogías, traducen del castellano al mandarín, con la pretensión que al traducir de vuelta, del mandarín al castellano, obtengas exactamente la misma frase original. Esto parece obvio, pero en la mayoría de los idiomas eso no es posible. Por eso las editoriales tienen traductores, o si no, lo haría una máquina (y ahí tienes las "traducciones" de google). Empecé el hilo diciendo que el MQA NO ES UN CODEC. Por lo tanto, desde ya no aplica el término, porque el MQA no es un proceso de traducción, sino uno de empaquetamiento. La verdad no sé si en el proceso de folding los datos además son comprimidos de alguna forma (sospecho que igual como lo haría un flac). Para hacer ese empaquetamiento usa las grandes zonas inútiles del esquema redbook. En efecto, el resultado es distinto, pero es irrelevante: difieren en lo que no importa; en lo que importa no difieren (en teoría, en la realidad lo mejoran, eso viene en el próximo capítulo de esta novela). Incluso dando vuelta el argumento, te podría decir que el "lossy" es el redbook: si ambos se comparan contra la fuente original y no contra el archivo digital (cosa por lo demás tonta, ver abajo), es el MQA el que es más parecido a esa fuente, no el redbook... Usar un término peyorativo para describir un proceso que no es degradante es, si este fuese aceptado como lo indicas, abiertamente mal intencionado (no tú, el inventor del uso del término lossy como tú lo entiendes). Si en un proceso educativo llamo al alumno cordero, sin juicio o capacidad de discriminación, "inteligente", y en cambio llamo al que traspuso lo que estoy enseñando en una concepción científica innovadora como "estúpido", no porque lo sea, sino simplemente porque no repitió como loro lo que le enseñé, estarás de acuerdo que hay un problema en la denominación... En todo caso, reitero un concepto que es muy importante: Aún si se aceptara el término "lossy" como lo indicas, es IMPOSIBLE determinar esta comparación, porque estás comparando una pera con una manzana. Por definición el archivo MQA TIENE que ser distinto la Redbook, ya que ambos parten de orígenes distintos. Ese es precisamente el objeto del asunto. Si queremos llamar "moronossity" a ello, bueno, aclaremos que no es lo que piensan... morón no significa estúpido, solo significa... distinto. Como diría Condorito...plop! "Así no entiendo porque dicen compresión mqa es mejor si para explicarlo dicen que el archivo que comprimen es mejor de entrada, cuál es la ventaja de esa compresión aparte del tamaño." Bueno, me parece que allí está precisamente tu error: estás suponiendo que el MQA es una forma de codec sobre el mismo archivo PCM de entrada. NO ES ESO: el archivo MQA parte de nuevo desde el origen (el master), nunca siquiera vió el archivo redbook con el cual lo está tratando de comparar si es diferente o no. Y lo que estás preguntando ya te lo contesté en un post anterior: el esquema de empaquetamiento no tiene (casi) nada que ver con la calidad del archivo, sino solo con una forma más conveniente de transportarlo a través de las redes. La calidad del MQA, ya viene en próximas entregas... stay tuned. Salud! dejo la cerveza para la noche... pero será escuchando espléndidos MQA
  18. Ay Patag... el problema es el término. Te voy a poner otra analogía. Suponte que una persona está cagada de las piernas por una operación, y perdió la musculatura. Tienes registrado el estado original de sus músculos, y la pretensión es volver a llegar después de la kine. Pero resulta que el kine es tan re capo que no solo le arregló las patas, se las dejó mejor: ahora tiene tremendos músculos. ¿Es entonces "lossy" el proceso? (dicho sea de paso, como me fui en la personal, ojalá aparezca un tal kine "lossy", me arregle mis patas y pueda volver a hacer los deportes que hacia.... ahí se las vería Niemann ) Loss= pérdida. Cuando la gente habla que el MQA es "lossy" estás implícitamente insinuando que el archivo tiene pérdidas de INFORMACION. En circunstancias que el archivo MQA no pierde información, sino que transformó la característica del ruido (que no es información, es ruido!) para hacer que ese ruido (pero solo para un decodificador MQA) no sea ruido, sino más información que la que había en el archivo "lossless" con que lo estamos comparando. Dicho sea de paso: la sola comparación es una lesera: por definición el MQA parte de un origen distinto que el PCM. Mal pueden ser iguales entonces... Cómo es tan difícil de entender esto?? Yo diría que tu descripción del término "lossy" (voy a tener u revisar algún diccionario a ver si realmente es tan absurdamente literal que haría imposible validar ninguna mejora sobre el redbook), en realidad debiera ser "same-ity".
  19. Si, por supuesto. Me refiero a la calidad auditiva. El proceso de autenticación asegura que esa calidad es la que dicen, pero creo que lo que nos interesa acá es determinar si esa calidad en verdad es mejor o no. Por eso dije que no era relevante (para efectos de esta discusión), pero por supuesto que es muy relevante para la industria. Alguien me comentó muy clevermente que una razón por la cual ECM está pasando el catalogo a MQA es por esta autenticación. Super buena razón. Pero yo tb creo que es porque ellos perciben que suenan mejor (y personalmente lo he comprobado: los ECM master, desdoblados por hardware, SI suenan mejor). Ah... no leí bien tu crítica además. ¿Cómo se certifica realmente que han reprocesado el master? Supongo que tus oídos lo dirán, si tienes dudas. Para hablar de este tema hay que explicar en qué consiste el proceso de de-blurring, y como puede aplicarse idealmente a los master análogos, pero también en menor medida a master que estén solo en digital (eso lo supe hace pocos). pero eso va para largo. A ver si otro día me animo.
  20. Chuta, eso es para sentarme una tarde a escribir... si explicando la parte simple no nos ponemos de acuerdo, no quiero ni imaginar lo otro, que sí es complejo de verdad. Pero sí, el folding es una técnica para encapsular más información en el mismo tamaño de un redbook (teóricamente se podría hacer con cualquier archivo HD). El proceso de corrección del time-domain es otro asunto totalmente distinto.
  21. Y tú llamas "lossy" a un archivo que tiene MÁS información que uno que para tí es lossless. ¿Quién esta interpretando s su antojo entonces? Y lo que para tí es malo ("lossy!!") es que el ruido, que sigue sonando como ruido (en un lector no MQA), tiene los bits ordenados de otra forma... tan relevante es que ese ruido sea distinto? (y ojo: es ruido que nadie escucha: es la señal que está por debajo del ruido basal de los componentes electrónicos de tu sistema de reproducción, entre otras cosas). Si una tele 4K le cambia el color a los pixeles con más información respecto de una imagen desplegada en el mismo tamaño en baja resolución... llamarías a la tele 4K "lossy"? Donde había un píxel gigante rojo ahora hay 16 pixeles con distintos tonos de rojo. Como no es igual... es lossy??!!
  22. Bueno, precisamente a esas concepciones erradas que citas me refería. Y no es una opinión mía: es una condensación de la información técnica que existe; tema por lo demás que está recién enunciado, y ni siquiera empecé a explicarlo en el primer post, por l tanto no hay aún ninguna "interpretación" posible. Voy a tratar de explicarla rápidamente por ahora, después podemos abundar. Un archivo PCM se caracteriza por una frecuencia de sampling (cuántos muestreos por segundo se hacen) y un bit-rate (cuántas diferencias de amplitud se pueden registrar para cada uno de esos muestreos). A grosso modo, cada bit permite registrar 6 decibeles de amplitud. Un archivo 16/44 significa 16 bits de amplitud (96 db), y registros hasta 22 Khz (un poco más allá del límite auditivo, para minimizar el efecto moiré de filtros, cosa que explicaré otro día, si es necesario). El formato plano de un Redbook registra de la misma forma una señal de 20 hz (con 16 bits), como una señal de 20 Khz (nuevamente 16 bits, ese armónico de 20 Khz podría tener hasta 96 db de diferencia de volumen). El formato usado por MQA es de 24 bits. Esto permite hasta 144 db de amplitud de señal. Eso desde ya otorga más espacio, aunque los primeros 16 bits se siguen viendo como un redbook para un lector no MQA. Pero el asunto relevante para esta discusión del "lossy" es que el formato Redbook desperdicia una enorme cantidad de espacio. Por dos razones: 1- Hay un "piso" de ruido, de tamaño significativo, sobre el cual no hay música, solo ruido. Ser exacto en la descripción de ese ruido es irrelevante, porque es ruido. El archivo MQA difiere (es "lossy") porque en vez de usar ese espacio en grabar ruido, lo usa en encapsular información en él de los samplings más altos. A nadie le importa que se ruido tipo A o tipo B. La gracia es que en el tipo B está "escondida" (técnica muy larga de explicar acá) como ruido información que sí es relevante, y que un descodificador MQA si puede interpretar. Un lector CD en cambio, la sigue viendo como ruido. Como ambos ruidos no son iguales, pueden diferir en tamaño, pero eso no es audible. 2- En cualquier señal musical (mira la descomposición fourier de cualquier nota de cualquier instrumento), los armónicos van decreciendo en amplitud. El último fundamental del instrumento más agudo es de unos 3 a 4 Khz; todo lo que hay arriba de ello (y buena parte de lo que se acerca a ese límite por debajo) son armónicos de amplitudes cada vez menores. Pero el formato Redbook registra igual con 16 bits esos pulsos. En la zona de agudos, bastan unos poco bits para registrar todo el contenido musical que hay: el redbook desperdicia la mayor parte de ese espacio por arriba (además del piso de ruido ya mencionado por abajo). El espacio superior también es usable, en este caso por la forma en que se codifica (mira los triángulos de espacio significante en los diagramas de Meridian). Si eso es así en las zonas altas del espectro audible, en el espectro supra-audible es MUCHO más exagerado aún. A más alta la frecuencia registrada, menor la amplitud necesaria de capturar. En el límite de información musical a registrar por sobre el basal de ruido (algo más arriba de 100 Khz) basta con 2 o 3 bits para registrar toda la amplitud posible. Pero un archivo HD sigue usando 24 bits aún allí. Más del 85% del espacio ocupado está registrando información... inexistente, inútil. Lo que hace el proceso de folding del original MQA es encapsular esos poquísimos bits significativos de la zona de 96 a 192 Khz debajo del umbral de ruido de la zona de 48 a 96 Khz. Luego para la zona de 48 a 96 Khz (más el "ruido" ahora significativo traído del primer folding) hace lo mismo: lo almacena debajo del umbral de ruido de la zona de 0 a 24 Khz. Para que un lector corriente(no MQA) lo siga viendo como ruido esa información se le aplican filtros de ruido (están latamente explicado cómo en los documentos de Meridian). El asunto es un poco más complejo, pero estoy simplificando la cosa para un entendimiento general. Conclusión: Por supuesto que un archivo PCM Redbook es distinto de uno MQA. Pero en la zona significante (donde hay música y no ruido o silencio), la información es casi (*) igual. En cambio hla información en las zonas de ruido hay información que un decodificador puede interpretar. Eventualmente ese ruido puede ocupar menos espacio (es menos aleatorio) que el ruido de un PCM, por eso los archivos pueden ser incluso más chicos. (*): Es casi igual, pero no necesariamente igual. En el proceso de de-blurring (recuperar consistencia temporal del archivo) el contenido musical también es levemente alterado mediante diversas técnicas (como aplicación de filtros, o por el propio registro desde la fuente master análoga). Como el contenido resulta más "armónico" (sin desfases temporales), eventualmente también puede ocupar menos espacio. Pero eso no hace que sea lossy, sino exactamente lo contrario: no tiene "menos" información que un Redbook, tiene más.
  23. Después de tanto que se ha escrito en el foro, sigo escuchando de distinguidos foreros que el famoso MQA sería una compresión lossy. Como las explicaciones, incluidas las mías, sobre qué es el MQA han sido incompletas y repartidas por muchos hilos distintos, parece bueno compilar este tema en un solo lugar. Lo cual parece de alto interés, pues aún hoy hay gente (probablemente una mayoría) que parece no estar convencida de que MQA implique una real mejora de calidad de audio. En mi experiencia al menos las mejoras que logra un MQA bien implementado son muy importantes y difícilmente obtenibles de otra forma. Para iniciar organizadamente el tema, hay que resumir a grandes rasgos qué es MQA. Partamos por lo que NO es: No es un codec (o algoritmo de compresión), al menos no en el estricto rigor del término. MQA no busca "achicar" un archivo digital existente (aunque tb hace eso). No es un codec porque no hace una "traducción" del contenido digital en uno distinto, sino más bien lo que podría llamarse un "empaquetamiento". Pero respecto de lo que sí es, MQA parte por reconocer cuatro aspectos fundamentales: a) los archivos del formato Redbook (CD) no suenan tan bien como el sonido analógico (de un vinilo o una cinta). Existe una enorme distancia cualitativa entre los masters de estudio y la información distribuida en el formato Redbook de los CD comunes. b) También reconoce que los formatos digitales de alta resolución (ej: 24/192, que llamaré HD en adelante para resumir) sí suenan mejor que los Redbook originales... (aunque menos que los masters), pero no está suficientemente entendido el por qué suenan mejor. Por de pronto, no se trata de "mayor resolución": según el teorema de Nyquist-Shannon (la base fundamental de toda conversión de señales análogas discretas, en cualquier dominio, no solo audio), basta con duplicar en el sampling de la frecuencia más alta a capturar (en el humano, 20 Khz). Cualquier sampling más denso que 20Khz * 2= 40 Khz aplicado solo al espectro audible (20hz-20Khz), no aportaría NADA en mejorar la resolución del archivo (de hecho, la empeoraría). Los formatos HD en cambio, "extienden* la captura muy por sobre el límite audible. ¿Para qué, si no lo escuchamos? Ese asunto, de compleja explicación, es uno de los elementos claves a entender en esta tecnología. c) Estos archivos de alta resolución demandan en demasía a las redes como para ser streameados sin compresiones importantes. Es necesario encontrar una forma de comprimirlos (empaquetarlos) sin que pierdan calidad. d) El eslabón perdido entre los formatos digitales y los analógicos que explica la merma de calidad es la información temporal de las señales digitalizadas. Toda señal periódica (sinusoidal, como cualquier señal musical) está compuesta por una componente base (la fundamental) y por una serie de armónicos (otras ondas sinuosidades a distintas frecuencias que la acompañan, de distintas amplitudes -normalmente decrecientes-, y que definen el timbre sonoro de cada instrumento). Si descompusiéramos (como de hecho hace cualquier proceso ADC o DAC, mediante transformaciones Fourier) esa señal compuesta en las ondas sinusoidales puras que la forman, cada una de esas ondas tiene tres componentes básicos: I-frecuencia ("frecuency domain"), II-amplitud, y III- fase temporal de cada armónico ("time domain"). Pero solo los dos primeros son completamente abordados por el Redbook o incluso por los formatos HD. No basta con digitalizar a altos samplings (192K, 352K, etc); debe además mantenerse la coherencia temporal de lo grabado (si bien el problema del time domain es más que solo los armónicos, pero esto excede este resumen inicial). Ojo, esto no se trata de "ritmo" u otros esoterismos misteriosos tipo descripciones What Hifi, si no del microtiempo que relaciona la fundamental y sus armónicos (o de los impulsos sonoros), tiempos que se miden en millonésimas de segundo (en rigor, en desfases angulares). Aunque parezca increíble, el oido humano SI es muy sensible a ello (y esto es un hecho comúnmente aceptado solo en años recientes). Estos desfases entre fundamental y sus armónicos, (o el ringing o fantasmas en señales de impulsos que producen; a explicar en otros posts), generan lo que Meridian llama el "blurring" (desenfoque, borrosidad) de la señal capturada, tema agravado en contenido multicanal, como el estereo. Para corregirlo a cabalidad, MQA debe reprocesar los masters originales de la grabación. Idealmente a partir de la grabación análoga original, aunque también cuenta con técnicas (algo menos efectivas) para corregir la información temporal incrustada en masters puramente digitales. En base a lo anterior, MQA es entonces básicamente tres cosas: 1- Un mecanismo de autenticación del contenido del archivo: certifica que corresponde al originalmente grabado desde el master original del estudio de grabación o sello discográfico, y no una copia alternativa. No vale la pena abundar en este aspecto, que no influye mayormente en lo que nos interesa acá: la calidad auditiva del formato. 2- Un mecanismo de empaquetamiento de archivos de alta resolución (88K hacia arriba, no tiene objeto en menos que eso, por definición), sin pérdidas *en el contenido audible*, y con la enorme gracia que mantiene compatibilidad con formatos antiguos. Y la principal fuente de las concepciones erradas de que sería un formato lossy. 3- Una forma de capturar (y luego reproducir) el contenido audible sin alterar la coherencia temporal de los componentes de la señal, que involucra desde la etapa inicial de captura de la señal análoga y su conversión a digital, hasta la etapa final de reconversión a análoga. En todas estas etapas, los diversos componentes del proceso y cada componente de la cadena de audio van generando estas alteraciones temporales, que MQA dice corregir como ningún otro formato logra hacerlo. Meridian denomina al proceso el "de-blurring" de la señal. Para entender a cabalidad el crucial punto 3 se requiere, sin embargo, interiorizarse en algunos aspectos técnicos de cierta complejidad. Eventualmente en otros posteos trataré de explicar lo que he entendido al respecto. Y por supuesto, los aportes de otros foreros serían muy bienvenidos. El otro aspecto, más simple pero que también requiere de abundar técnicamente para terminar con esta mala concepción de lo "lossy" que sería el formato MQA es la forma en que se empaqueta (el famoso "origami") el MQA, y por qué esta información, no siendo idéntica a la original, sigue siendo lossless *en el espectro con contenido audible*. Es precisamente el no entenderlo técnicamente lo que genera esta creencia de que el formato sería "lossy". En el intertanto, esta es una MUY buena explicación general (aunque hay aspectos que no se tratan). Para entenderla bien es probable que requiera de más de una sola lectura: https://www.soundonsound.com/techniques/mqa-time-domain-accuracy-digital-audio-quality#para3
  24. Jaja... bueno, ese era el marco de este hilo: no pasarse de 2 palos (wn... apenas pasa de US$2500!...). Ojo que se inició hace más de 10 años: 2 palos de entonces deben ser al menos 3 de ahora (con el palo adicional le agregaría un SW REL, un transporte para CD, y mejores cables). Aún así, este sistema "de pc" sería según la Stereophile (revista quizás discutible, pero harto más seria que los habituales pasquines ingleses) un clase A de su clasificación de calidad: los LS50 y el DAC Project los tienen clasificados en A; a un ampli chino jamás lo van a rankear, pero yo creo que al menos por calidad de sonido no andaría muy lejos de los clase A: a mis pailas mi Yaqin similar al de arriba no arruga vs muy buenos amplificadores que he probado. Y se complementan perfecto con los KEF que, de acuerdo, a esos hemisferios izquierdos les hace bien el romanticismo del hemisferio derecho de los tubos, si el ampli tiene músculo suficiente para moverlos bien. Hay otras marcas que cobran lo que todo eso junto por los puros pedestales... Si uno no tiene esa fijación mental de que la única forma de escuchar en alta calidad es gastarse más que un auto de lujo... bueno, esta es una alternativa que estaría al alcance de mucha gente. Y suena muy, muy bien. Incluso me arriesgo a decir que probablemente suena mejor que algunos sistemas que he visto por 3 ó 4 veces ese valor. Debo ser muy coñete quizás, pero encuentro que hay cierta belleza en esto del "value for the money". PD: mi sistemita B no vale tan poco como 95 lucas, pero tampoco alcanza al millón, y tb suena super, encuentro.
  25. Amplificador: Yaqin MC-10T: $750 / Parlantes: KEF LS50 usados $650 / DAC: Project Pre Box S2 $400 / NUC Intel o Mac mini usado para streaming $200 = $2.000.000.... y..... heaven, I'm in heaven... Tb se puede cambiar el DAC por otro MQA barato: Ifi ZEN ($140), y quedan 260 lucas abonadas para un subwoofer REL Tzero.
×
×
  • Crear Nuevo...