-
Contenido
3.388 -
Registrado
-
Última Visita
-
Días ganados
67
Tipo de Contenido
Perfiles
Comunidad
Calendario
Store
Todo lo que pbanados posteó
-
Qué improvisación o discos de estudio estan escuchando ahora?
pbanados respondió a Tomhate en topic Jazz y Blues
Sí, yo lo encuentro aún mejor (pero hay que escucharlo muy concentrado). Lo que es mucho decir, porque el Köln es -obviamente- una obra maestra también. Siendo un poco burdo, el Köln es un poco más oreja (entra más fácil), este es un paseo por el cosmos. Una cosa notable del Bremen Lausanne es que hay partes en que parece que cada uno de los diez dedos de Jarrett está tocando una línea melódica aparte. Es simplemente increíble pensar que hay una sola persona tocando. Además usó acá buenos pianos, y se nota: usó todo el teclado, no omitió la primera y quizás hasta la segunda octava como en el Koln, producto del piano penca que le tenían. De hecho, parte de la gracia del Koln es la manera, justamente, en que Jarrett bypassea las limitaciones del piano (estuvo a punto de no tocar por ello), mediante el uso de "ostinatos" (repeticiones insistentes de un a nota, bajas en este caso), y figuras con la mano izquierda, ya que los pedales del piano estaban malos. Estas repeticiones te quedan rápidamente incrustadas en el mate y no te olvidas más de ellas. Vean el artículo en wikipedia, y todas las que pasó Jarrett para hacer este concierto (incluido un viaje largo en la Renoleta de Eicher, llegó con la espalda pa la cagá y tuvo que usar corset en el concierto...) -
Consulta (un poco larga) a los expertos en Roon: derivado de problemas de un trauma acústico que sufrí estoy pensando en ecualizar la señal, dado que requiero escuchar a bastante más bajo volumen del que acostumbraba y (fletcher-munson) naturalmente eso implica menos percepción de los bajos, entre otras cosas. Estuve leyendo que Roon incorpora un DSP, y que ese incluso puede actuar sobre archivos MQA; para lo cual -si entiendo bien- hace un proceso bien sorprendente en el caso que trates de usar un DAC full MQA: hace el primer desdoblado de la señal (hasta 88K o 96K dependiendo del archivo), ecualiza esa señal desdoblada, y vuelve a empaquetarla para que el DAC reciba el paquete MQA completo. En cualquier caso, es necesario declarar ese DAC en "exclusive Mode" (aún si no es MQA), o si no escucharán el MQA, sino solo el empaquetado CD-compatible del formato. "First, Roon will decode the MQA file or stream it to an MQA Core stream. This produces a PCM audio stream at 88.2kHz or 96kHz which contains MQA signaling information that your DAC needs to render the MQA signal properly. Then Roon preserves the signaling information (setting it aside for safekeeping), applies DSP to the audio portion, and then restores the signaling information. This re-embeds it into the stream so that your DAC can complete the rendering process." Me sorprende el proceso descrito, porque implicaría que MQA (empresa) le ha dado un inusual acceso a Roon al corazón de la tecnología. El re-empaquetado es algo nada fácil de hacer, pues tienen que leer el canal escondido de datos de MQA donde están las descripciones de cada filtro y en cada momento del tema que se está reproduciendo, entender qué está haciendo ese filtro, ecualizar en función de ello, y luego re-empaquetar todo, sin alterar la calidad de la señal (más allá de la ecualización misma). Consultas: 1-Han usado el DSP de Roon? Por qué @Bozon usabas sonarworks si Roon provee DSP? 2- Han usado DAC's full MQA en "exclusive mode", y han ecualizado la señal enviada a ese DAC? 3- Han comparado con ese DAC MQA reproducir el mismo archivo por Roon o directo por la app Tidal->DAC MQA? Suenan igual? Otra cosa: - si tienes un DAC conectado a tu red pero no es Roon-compatible (en mi caso un ampli con DAC incorporado Advance Acoustics MyConnect), ¿cómo se hace para declararlo como un "audio device" de tu sistema? Gracias de antemano.
-
Si, yo tampoco tengo muchas ganas. No va bien mi oído, tiene pésimo pronóstico, gracias por preguntar.
-
Me imagino que es una situación incómoda tener que defender a un personaje cuyo prontuario podría llenar más páginas todo lo que se ha escrito nunca en este foro. La forma que Ponce Lerou pasó de ser un pescador artesanal, a Gte de Conaf y luego de Corfo (impuesto por su suegro, por supuesto; y que a pesar de eso tuvo que dejar por las irregularidades que cometía adentro), a empresario ganadero (con préstamos multimillonarios de la propia Corfo que había dejando meses antes), a cómo saldaba sus deudas insolubles de cientos de miles de UF con la Corfo / BID con vacas... enfermas de aftosa y listas para el matadero; a cómo embaucó pagándoles (con la plata juntada de sus "negocios" ganaderos) a cuanto pampino hubo (al más puro estilo de los SALarios de las salitreras inglesas del siglo XIX) para hacerse de las Cascadas, con las cuales después pudo nuevamente obtener préstamos aún más millonarios para hacerse de SQM... todo respaldado por la presión de ser el yerno de Pinochet (y anda a decirle que no a eso en la época que estamos hablando...), hasta como luego, cuando a falta de suegro estaban los políticos, terminó corrompiendo a toda la clase política chilena casi sin excepción; está todo contado en innumerables lados. Así terminó siendo una de las personas más millonarias del mundo y el segundo más rico de Chile. Ponce Lerou es uno de los principales virus de la sociedad chilena. CIPER Chile tiene un buen recuento de algunas de sus "gracias" acá: https://www.ciperchile.cl/tag/julio-ponce-lerou/ Y la historia está contada con harto detalle en varios libros. Como este: "La estrecha complicidad con su suegro, Augusto Pinochet, que le valió el apodo de “yernísimo” durante el régimen militar. Sus años en Conaf y Corfo. Las acusaciones sobre irregularidades que lo obligaron a renunciar a sus cargos públicos en dictadura. La ofensiva en la pampa nortina que le permitió conseguir de golpe el mando de SQM, la compañía que en 2018 ostentaba una significativa porción del mercado mundial del litio, el “petróleo blanco”. Sus vínculos con la derecha y los que laboriosamente tejió con sus adversarios en la izquierda. Sus amigos y sus célebres enemigos. Los sospechosos manejos bursátiles en el caso Cascadas. El escándalo de las platas negras del financiamiento de la política, que derrumbaron su estrategia de bajo perfil. Gracias a una investigación periodística de cinco años, con más de cien entrevistas a testigos y protagonistas, una minuciosa revisión de archivos y el hallazgo de importante material inédito, el autor consigue el más detallado retrato publicado hasta ahora sobre Julio Ponce Lerou, una de las figuras más enigmáticas e influyentes de la historia reciente chilena. En un relato ágil donde confluyen políticos, empresarios, autoridades, altos ejecutivos, campesinos y lobistas, Víctor Cofré reconstruye decenas de episodios sobre un hombre que, pese a los escándalos, sigue manejando SQM a través de un entramado societario que culmina en un fideicomiso anclado en el paraíso fiscal de las Islas Vírgenes Británicas." Todo eso podrá ser historia, y quizás como sumisas ovejas tendremos que aceptarla en pro de la convivencia nacional. Lo que es imperdonable de "patriotas" como supuestamente son, es manejar como lo han hecho un negocio de rentabilidad casi infinita, con costos marginales que son prácticamente 0 (básicamente, bombear salmuera y dejarla secar al sol), sabiendo (y si no lo sabían, peor aún) que con un poco de tecnología costos porcentualmente insignificantes respecto de los valores de venta podrían haber disminuido enormemente el impacto ambiental causado por décadas y haber devuelto gran parte del agua usada a los acuíferos; y que con esos márgenes insólitos de rentabilidad hayan optado por la plata fácil en vez de haber desarrollado una industria (tecnologías asociadas al litio) que hoy perfectamente podría estar a la vanguardia mundial y habernos sacado del subdesarrollo hace muchos años,... eso es lo imperdonable. Y ahora nos tenemos que conformar con que nuestro Zar decida hacer, ahora!, ... no baterías, sino.. los míseros CÁTODOS de ellas! Y en mi referencia a los amigos de los hijos no estaba pensando en este personaje sobre el cual abundan argumentos para la repugnancia, sino en otro que lo sucedió en andanzas: Décadas después, cuando el Presidente de Chile logró en su gira por Asia tener una reunión con las principales empresas de tecnología del mundo (y de qué puede hablar Chile allí si no es de su papel como proveedor del combustible de las tecnologías no contaminantes?) metió en esa reunión, no a ministros, no al presidente de Codelco, no por último a representantes de las mayores industrias del país... sino ... a sus hijos. ¿cuál era entonces el currículum de los querubines?: haber fundado exactamente un mes antes una empresa de tecnologías informáticas, y cuyos únicos clientes eran los 7 u 8 contratos que se había ganado de empresas estatales, sin concurso público o en licitaciones truchas de ChileCompras. Cuando Tim Cook, Bezos, Satya Nadella, etc, vieron a Piñera entrar con sus hijos a esa reunión, habrán pensado si los habían trasladado en el tiempo y espacio, a la Haití de los Duvalier... Poco tiempo después empezaron a planificar como virtualmente REGALAR el litio chileno en cuotitas de 61 millones de dólares. Ese mismo litio que a Soquimich (mientras en paralelo discutías sobre mis "precios soñados" no obstante te decía que la información la estaba sacando de Bloomberg e Interactive Brokers), le permitió vender casi 1500 millones de US$ en UN MES. Ese mismo litio que solo 6 meses después de frustrada esa licitación ya costaba cerca de 7 veces más que el precio al que lo habían calculado en ella. A raíz de ese escándalo, recordemos, es que empezó este hilo. Y como ciudadano de este país, tengo derecho a pensar lo que se me ocurra y a decirlo. No necesitaría respaldo para hacerlo, pero en este caso me sobran, hay en este tema más que en casi cualquier otro.
-
Si, el otro día salió el ministro de transportes participando de la inauguración de esta fábrica. Precioso y encomiable ejemplo Marcelo; y sí, me siento interpelado de hablar mucho y hacer poco. Sin embargo, creo que lo que estábamos discutiendo es más un asunto de política nacional que iniciativas de pequeña escala individuales. Si alguien se embarca comprometiendo esfuerzos, recursos que no deben ser pocos, y gente en una aventura como esta, debe tener estudiado que tendrá mercado y logrará un producto competitivo para ese mercado. Ojalá que sea así en este caso. Personalmente concuerdo incluso con los que me criticaron (creo que entendiendo que proponía cosas de escala inabarcable, aunque espero no lo sean): NO creo que este país esté preparado (hoy) para fabricar autos BEV de categoría mundial. Pero sí en cambio creo que podría embarcarse en producción de tecnologías intermedias, y específicamente baterías (mercado: todo el mundo) y exportación de energía (a la región). Para hacerlo como un competidor relevante, ello tb implica capital en grandes proporciones (aunque menores). De hecho, hay muchas opiniones e informes de expertos mundiales en el tema que sugieren precisamente eso: Chile debiera ser una potencia mundial en producción de baterías y otras tecnologías limpias. Tiene todas las ventajas, y mínimas dificultades. Excepto dos: nuestra clase dirigente y empresarial; y la abrumadora falta de cultura de investigación (el presupuesto nacional de investigación es simplemente ridículo). En un país con el grado de inequidad el nuestro, uno de los resultados es que existen acá varios de los personajes más ricos del mundo (Las Solari, el infame Ponce Lerou, Paulmann, Luksic, etc) . Me parece francamente inconcebible que teniendo el litio de mejor calidad del mundo, las mayores reservas explotables de litio del mundo, con un desierto con el mayor potencial de energía verde del mundo, terrenos casi perfectos para industrialización en el norte con bajo impacto ambiental (comparativo), incluso hasta demanda interna importante (minería por ej), y hordas de capital humano disponible que si bien puede no estar preparado ha demostrado ser capaz de adaptarse rápidamente.... estos empresarios (incluso aquel que recibió regalado NUESTRO litio) no hayan movido un dedo... Ya hay decenas y decenas de productores de alta relevancia en el mercado de las baterías de litio que han aparecido solo en la útima década... menos nosotros. Ojalá esto cambie. Tengo esperanzas que será así. Al fin se está hablando en serio de esto a nivel gubernamental... y sin tratar de regalarle nuestras riquezas a los amigotes de los hijos del presidente de turno (el tema que inició este hilo). Así son las fábricas automotrices de clase mundial: TESLA, fabrica de Berlín recién inaugurada (por qué no acá?): XPeng, productor chino 10 veces más chico que TSLA y que aún no sale del break-even, pero cuyo valor bursátil (actualmente cercano a 30.000 millones del US$) ha subido exponencialmente en los últimos años:
-
Realmente muchas gracias a todos. Gracias @Fitzcarraldo@Bozon @Camposur @claudio200x @rrohland No, no soy hombre de fe pero respeto muchísimo a los que si la tienen, y les agradezco de lo más profundo de mi ser las buenas vibras que me dan. Muchas, muchas gracias de nuevo.
-
Claro, pero recuerda que están cuantizando en apenas 4 bits: 16 peldaños. En 16 bits son 65 mil, en 24 bits son 16.7 millones. --- no lo había querido contar todavía, pero hace cerca de tres semanas atrás (casi justo un mes después, irónicamente, que hice el hilo de la anatomía del oído) sufrí lo que se está pintando como una verdadera tragedia. En una obra, y de puro buena onda....estaba ayudando a subir unos perfiles metálicos pequeños (rectangulares de 40/20/2 mm, 6 mts de largo). El asunto es que los perfiles estaban aceitados y uno que tenía tomado de una punta se me resbaló del guante, chocando contra otro que estaba unos 50 cms más abajo en una zona encajonada por una pared lateral. Entraron en resonancia en un pito ululante fuerte y agudo, aunque nada demasiado especial, no lo pesqué mucho en el momento. Pero 10 minutos después me dí cuenta que estaba escuchando horriblemente mal por el oído izquierdo. La otorrino me detectó inflamaciones en el tímpano y oído medio y pidió los exámenes estándares de audiometría (que claro, miden pérdidas auditivas, pero no las distorsiones que estoy escuchando). Acabo de hacerme una segunda comparativa, y una de altas frecuencias además (las audiometrías normales solo miden de 125 a 8 Khz). A pesar de mi edad (61), la audiometría de alta frecuencia arrojó que sigo escuchando hasta 16 khz en el oído malo (15 Khz en el otro). Tengo además algo de menor audición en el oído malo en una zona puntual alrededor de los 3Khz. Pero el problema no es eso. Resumo el drama: es altamente probable que tenga daños serios y permanentes en el oído interno. Tengo dos síntomas muy claros: ante presiones internas (bostezo, hipo, etc) me suena un "grillo", bastante parecido a los pitos de llamada de grillo del iPhone, y de frecuencias tb parecidas al ulular que generaron los perfiles. Asumo que eso es un trauma inflamatorio en el oído medio y eventualmente pasará. Pero el síntoma grave es el otro: A mi propia voz (ergo: transmisión craneal) y con sonidos moderados o fuertes externos (especialmente vocales) escucho absolutamente distorsionado. Las frecuencias con problema están entre 220 y 1800 hz, y me suenan como un amplificador con clipping, un cono de parlante con movimiento restringido, o parecido a una onda triangular (aunque más agudo), dando a todo un tinte "metálico". Si me mido con pitos sinuosidades, entre esas frecuencias de 200 a 1800 hz siento un raspado superior (a-> ajj; e-> ejjj; etc), básicamente parecido a ondas de armónicos impares. (lo probé, la onda saw-tooth genera armónicos pares e impares y suena más "dulce" que la distorsión que estoy escuchando; la onda cuadrada armónicos solo impares pero de mayor volumen en los iniciales (3, 5, 7 etc). Lo mío debe ser una onda triangular pero con los primeros armónicos de menos amplitud). El efecto de clipping (se puede ver en el link anterior), tb genera algo parecido, aunque no exactamente igual. Estoy absolutamente desolado. Pasé de escuchar con total atención 2 a 3 horas diarias de música... a cero, nada. Hace unos años me amenazaron con la posibilidad de amputarme una pierna por otro problema, lo que afortunadamente no sucedió. Perdí el olfato por otra operación. Tengo varias otras pifias acumuladas. Pero nada se compara a esto. Así como van las cosas, parece que se acabó la audiofilia, e incluso la música a cualquier volumen distinto de ridículamente bajo. Sabía que me quedaban pocos años de audición seria, pero verse en esta situación de un minuto a otro, la posibilidad que se te acabe de zopetón el principalísimo hobby (y alimento al espíritu) de toda una vida, es algo que no me imaginé ni en mi peor pesadilla. --- Por lo que cuentan con un alivio muchachos: al parecer ya no podré emitir más opiniones de como suena Qobuz, Tidal, o cualquier otra cosa. Tengo un round de exámenes en la semana para tratar de objetivar el problema, pero me parece que está bastante claro: se me debe haber alterado la flexibilidad de la membrana basilar (donde se discriminan las frecuencias en la cóclea), las ondas internamente se recortan por limitación de movimiento de esta membrana y generan el efecto de clipping: la onda no absorbida del líquido perilinfático genera respuestas adicionales en otras zonas de la cóclea y eso produce frecuencias espúreas distintas a lo que entró en el oído. Y hasta donde sé, en el oído interno las cosas no tienen arreglo posible.
-
A propósito de la incidencia de los errores de cuantificación y/o qué tan escuchables serían las "redondeces" de las ondas, en vez de especular si esto es lo que explica que algún formato suene mejor o no, se puede tener un atisbo de su incidencia con la applet java de este sitio. Incluso con un bitrate miserable de 4 bits (apenas 16 estados), la diferencia es poco perceptible. Qué queda para 16 (65536 steps) o 24 bits (16.77 millones) entonces. Con esta applet no se puede manipular el sampling, pero allí es donde la teoría dice que ninguno sobre 2x la máxima frecuencia que escucharas produce diferencia alguna (en reconstrucción de onda, y mucho menos audible). https://www.falstad.com/fourier/e-quant.html nota: Apretar la casilla "sound" en el simulador para escuchar el efecto. Además ver el indice del sitio para otro tipo de señales, lo cual es muy interesante ya que se puede escuchar el efecto audible de varios tipos de onda (cuadrada, sawtooth, etc) y tipos de distorsión (clipping en diversos grados, por ejemplo), y su descomposición Fourier para visualizar las frecuencias que componen la señal resultante (con sus magnitudes y fases). Incluso después pueden manipular los armónicos cambiando la amplitud de cada uno o agregando otros y escuchar cómo suena el resultado. Incluso está en github todo el código java usado. Muy, muy educativo. Dí con esto -que puede parecer un poco tuerca- por razones que ya contaré más adelante. Obviamente este no es este el hilo para este tipo de cosas, pero dado que @MarkVIIme tiró la lengua hace unos días y la conversa derivó a aspectos generales de teoría de comunicación (sampling, bitrate, errores de cuantificación, dithering, teorema de nyquist-shannon, funciones de reconstrucción, etc), bueno, es más de lo mismo. Quizás habría que compilar algunos de estos mensajes y moverlos a otro hilo.
-
Debiera funcionarte sin problemas. Mirando el manual de ambos: el Audiolab tiene salidas digitales por coaxial y óptica. En tanto salidas digitales no debieran hacer nada con el archivo y simplemente pasárselo al DAC. El DacMagic por su parte dice que soporta full MQA decoding para todas sus input excepto bluetooth. Como tiene entradas coaxiales y ópticas, de cualquiera de las dos maneras te debiera funcionar. La única limitación sería que el Audiolab al parecer recibe "solo" hasta 192K, por lo que algunos MQA de mayor resolución (352.8K) pasados al DAC este solo los desdoblaría hasta la mitad de esa resolución. Pero esos son realmente muy pocos archivos (algunos de 2L Recording son los únicos que he visto, aunque suenan la raja).De todas maneras para el streamer solo son archivos 24/48, las resoluciones mayores se obtienen con los desdoblados que hará el DAC, no el streamer. Si un cableado está limitado en resolución (creo que los ópticos lo están a 96K o 192K, no me acuerdo), ese límite es de todas maneras mayor que el formato "visible" del archivo MQA. Me corrijo de lo dicho arriba: es probable que incluso los MQA 352 los puedas desdoblar completos, porque el streamer nunca intervino en esa mayor resolución, siempre pensó que era un archivo de solo 24/48. Desde la app de Tidal para computadores hay que preocuparse que el DAC esté configurado en modo "passthrough", o si no el desdoblaje lo hará la app y no el DAC (disminuyendo por lo tanto salidas final). También a mi me ha dado mejores resultados cuando además le declaro en Tidal el "Exclusive Mode" a ese DAC MQA al cual le estoy mandando la señal. Pero ambas cosas no parece que puedan controlarse del streamer Audiolab, que las debe asumir por defecto. En todo caso es fácil comprobar si te resultó: si el DAC prende la luz verde o azul de MQA, es que está recibiendo correctamente el archivo.
-
En las críticas de discos de jazz que hace Thomas Conrad en la Stereophile, en el número de junio le tiró puras flores al disco y a Melissa. “Una mujer de Chile es ahora una de los más prominentes saxos tenores del mundo”. Dice q en los últimos rankings de la downbeat salió quinta, solo detrás de Lovano, Charles Lloyd, Marsalis y Potter… nada menos!. La historia viviente del saxo… y arriba de Henderson, Kenny Garrett, Joshua Redman o Kamasi Washington…! Y yo la habría subido un peldaño en esa lista. Es mejor que Potter emho.
-
Sexta temporada de los Fucking Peaky Blinders. No totalmente perfecta, pero muy cerca. Visualmente y en uso de la música es por lejos lo mejor que he visto en la tele. Esta serie es un hito histórico de lo que se puede hacer en la televisión, sin duda. Ahora ya no sé si los Sopranos, Breaking Bad (+Saul) o esta es la mejor serie que he visto; están en otro estrato respecto del resto en todo caso.
-
U R Welcome. Que bueno que te gustó. Es espectacular ese disco.
-
Así es. Supongo que toda esta discusión empezó por la especulación mía de por qué (bajo el precepto que el archivo es "lossless" respecto de la música) un archivo hires y un MQA suenan distinto (te guste o no el resultado): MQA parte del master (general, base, reference, o como quieran llamarlo). Un archivo hires de cualquier tipo no sabemos necesariamente de dónde parte, pero si es de algún tipo de formato de distribución, probablemente tiene algún grado de alteración respecto de ese master. Cuando comparamos ambos audiblemente, no tenemos claro qué realmente estamos comparando. Osea... lo mismo que dijiste en tu tercer párrafo... . Aunque para ser honesto: hay muchísima coincidencia con los sampling de archivos hires en Qobuz y la versión MQA en Tidal de ese mismo tema (casi siempre coinciden en sampling, por lo tanto la limitación es aquel que tenía el master). Probablemente entonces el hires tb lo preparan desde ese master, pero lo que no sabemos cómo lo preparan: ¿solo corren el brickwall más adentro? ¿o mejor, modifican el brickwall por un filtro más extendido (de poco más de una octava en 24/96; de poco más de 2 en 24/192)?. MQA lo haría en 7 u 8 octavas, además de "comunicar" ADC con DAC (ver abajo). -- Efectivamente, el punto azul al menos nos garantiza que el tipo del estudio que hizo el archivo (el Ing. de sonido) se dió la molestia y se comprometió con su firma digital (por allí tengo el dato de la empresa que les provee las API para esta signatura digital), de certificar que el resultado llegó a una calidad equivalente a ese master. Puso su nombre en el asunto. ¿Le creemos o no? No necesariamente, pero eso es mejor que nada. --- Donde discrepo contigo es que sea fácil igualar los filtros. No conozco ningún DAC leyendo ningún archivo que logre respuestas a impulsos de 10 uS, ni siquiera cerca. Implementar apodizantes mejora, pero aún está muy lejos de llegar a ese valor. Para lograrlo hay que vincular el proceso ADC con el DAC. "The MQA file contains information about the A-to-D converter so that the decoder can correct some of the A-to-D converter’s problems. That’s right. Part of the encoding process adds ancillary data such as date code and copyright owner. The encoder has information about the A-to-D, which tells the decoder how it was encapsulated so the decoder at the other end can use the best decapsulation formula; producing the shortest temporal blur possible for that content. It will vary according to the musical content." (https://www.theabsolutesound.com/articles/meridians-master-quality-authenticated-the-interview) Esto indica que en el canal de datos se le envía al DAC comandos para compensar las alteraciones temporales introducidas por el ADC. Además indica que el proceso está asociado al contenido específico del archivo: "it will vary according the musical content". Si cruzas este comentario (debo reconocerlo, pero lo entiendo tb: son bastante crípticos de lo que hacen, no querrán que les copien) con otros que les van colando a estos gallos en distintas publicaciones, esto indicaría que las características del filtro apodizante antialiasing se adapta al contenido real del archivo. Si el archivo cuenta con alta amplitud en octavas superiores, el filtro sería algo más violento, logrando menos corrección temporal, por ejemplo. --- Sobre el problema de archivos con loudness war, francamente no lo sé. Como en cualquier tecnología, los resultados concretos dependen de cómo se use por los usuarios finales (el los estudios en este caso). Si un sello decidió meterse en este asunto del loudness war y lo dejó plasmado en le master general... bueno, eso es lo que el MQA, en respeto a ese master, tiene que traducir, le guste o no. No creo que siquiera tuvieran la posibilidad de arreglarlo, aunque quisieran hacerlo.
-
ok, como tú digas. Alguna neurona andará circulando por acá en el foro que se dé cuenta de quien tiene la razón. Un archivo matriz, y sub-productos para los formatos de distribución; o un archivo mágico que sin cambio alguno tiene la compresión pedida por cada streaming, la metadata del del Cd, la metadata del DSD, la metadata del SACD, la ecualización RIAA, todo, todo. En un solo archivo. Y después se espantan porque MQA quiere tener uen un solo archivo las distintas resoluciones con que se va a leer... Fin de la discusión.
-
Los ví con esos nombre en algún software de masterización, y no voy a gastar más tiempo en buscarlo de nuevo para satisfacerte en la enésima pata del gato que quieres encontrar. Si, es poco educado. El estándar de como nos tratamos lo pusiste tú varios post antes. Normalmente me cuido de no ofender a nadie. Pero la paciencia tiene un límite.
-
Mastering, a form of audio post production, is the process of preparing and transferring recorded audio from a source containing the final mix to a data storage device (the master), the source from which all copies will be produced (via methods such as pressing, duplication or replication) El master es el formato listo para distribución. Ah si? Y en qué formato según tú está ese master? en 16/44, en 24/88, en 24/352.8? Si fuera en cualquiera superior al primero, ¿cómo le pasan entonces la información al rippeador de CD, o tú dices que lo hacen en tiempo real para cada CD que producen? Como evitan el aliasing que se generar al bajarlo a ese formato? Cómo resuelven el rango dinámico posible de 96 db (máximo, rara vez usado en su totalidad) máximo de una CD, si el master seguramente tiene mucho más? . Si después quieren prensar la matriz de vinilo de ese master, ¿lo comprimen y ecualizarán RIAA en tiempo real mientras prensan? Si todos estos procesos exigidos por cada servicio de streaming deben hacerse y ese único master que tú dices, cuando los hacen entonces?, o lo dejan hechos para cualquier formato, y si te compras un CD tiene la misma normalización de loudness que Spotify le exigió al sello? Como cumplen con la normalización seguramente distinta que Qobuz también les va a exigir? Loudness Normalization Integrated LUFS dB True Peak Dynamic Range ReplayGain Encoding Te das siquiera cuenta del nivel de la leseras de lo que estás diciendo?. El nombre que le ponen al master base y la los sub-masters supongo que depende de cada software, no sé si hay una convención en eso. Software de Masterización Piramix. Ver lo remarcado en amarillo. Métete en las páginas de cualquier de los 8 o 10 conocidos que hay y verás +- lo mismo. La certificación la hace habitualmente el ingeniero de sonido que preparó el archivo. Si, en el caso de Neil Young el sello le debe haber pedido a ese ingeniero de sonido que preparara esos archivos MQA, y este gallo no supo que NY no fue consultado al respecto. Porque probablemente tampoco le consultan para cada prensado de vinilo que hacen, o para cada nueva reedición de los CD. No le adulteraron la obra: el archivo MQA resultante era (en teoría al menos, no tenemos como comprobarlo) exactamente igual al archivo del master (el sello obviamente tiene una copia de ese master) que le pasaron para hacer ese archivo MQA. Si hubiera habido alguna diferencia no estaban tratando de "adulterar" su obra, solo pasarla a un formato distinto. Tampoco sabemos si esa certificación azul existía para esos archivos y nunca lo sabremos, pues Tidal los sacó apenas se inició esta polémica. Neil Young armó esta batahola porque si un streaming está transmitiendo un archivo en la calidad master (o al menos él creía eso), se le acababa la gallina de los huevos de oro, ya no tenía sentido sacar dos mil versiones del mismo disco y cobrarte a tí por tu ingenuidad de comprarlos varias veces, cuando Tidal ya estaría transmitiendo algo que ninguna de todas esas versiones podría mejorar. No estoy de acuerdo con lo que pasó con los masters de Neil Young. El sello (no MQA) no respetó lo que el quería. Pero el archivo que se alcanzó a transmitir en Tidal de su música por algunos días es probablemente la mejor versión que jamás va a haber habido de ellos. La más parecida al master, esos bits que tan celosamente Young guarda en su caja fuerte. Que son exactamente iguales a los bits de esos mismos archivos que el sello guarda en su propia caja fuerte.
-
Calidad Master: Nunca he dicho, y tampoco he leído en ninguna parte que MQA lo diga, que los archivos MQA son "mejores" que el master. En el post anterior trataba de explicar que lo que ellos pretenden es que sea "igual" al master. Al sonido de ese master, para ser más específicos, no mejor (y además abundé en las cosas que NO hacen para "mejorar" ese master, lo cual teóricamente podrían hacerlo). La excepción sería que se trate de un master digital de muy baja calidad (hay masters hasta en 16/44), donde sí pueden teóricamente arreglar el ringing que esa mala calidad introdujo. Nunca he visto que publiciten haberlo hecho alguna vez en todo caso. Por definición los demás formatos digitales comerciales (no de estudio; si bien podría ser que el DSD si lo lograra) no pueden aspirar a esta "igualdad" con el master, pues todos de alguna u otra manera introducen artefactos propios del formato. Tema del cual estamos todos conscientes, o si no ni siquiera discutiríamos que tal o cual formato es mejor que el otro. En PCM, el artefacto más crítico es esparcir la energía del pulso de cada sampling en varios otros sampling previos y posteriores ("blurring"). Como eso es precisamente lo que MQA evita, tienen más posibilidades de parecerse a ese master que cualquier otro formato PCM. --- Neil Young: Supongo que todos se darán cuenta que el asunto Neil Young no tiene nada que ver con la calidad sonora, sino con intereses comerciales traslapados entre un sello y un artista que lleva décadas tratando de monetizar de distintas formas su catálogo (se ha peleado con más de un sello en estos años, toda su aventura frustrada del "Pono" es otra muestra, etc), lo cual es perfectamente legítimo de su parte, pero no tiene nada que ver con la tecnología MQA. Es un poco agotador volver una y otra vez a esto cuando se acaban todos los demás argumentos. MQA no dice que los archivos que Tidal (no MQA) llama "masters" sean un master mejor que el original. Ni siquiera dice que sean ese master. Lo que MQA dice explícitamente es que lo que ellos entregan es "calidad master" (esto está hasta en el nombre: MQA: "Master Quality Authenticated"; sino se llamaría MA no más, "Master Authenticated"). Pues los procesaron a partir de ellos, e intentaron obtener una versión sonora idéntica a esa fuente. Dado que para hacer ese proceso se requiere hardware y software al cual solo los estudios tienen acceso (nadie más, y esto no es un asunto comercial solamente, es técnico), hasta el propio nombre del formato asume que ese estudio actuará de buena fe y lo hará efectivamente de archivos que reflejarán esa "calidad master" (si es una copia de ese master o el mismísimo archivo digital grabado la primera vez, es completamente irrelevante desde el punto de vista de la calidad resultante; igual como lo que ustedes están leyendo acá es la versión que les llegó a su computador, no la alojada en el server donde está HifiChile). Les proveen, a esos estudios, además la posibilidad que certifiquen que la calidad lograda es equivalente a ese master (la famosa luz azul), lo cual no es una obligación, es un bonus que ese estudio puede o no tomar. ECM no lo hace, por ejemplo, y nadie duda que sus archivos MQA fueron hechos a partir de los masters de ese sello. Y la razón, creo yo, que no lo usen algunos sellos es que la alternativa física de distribuir archivos MQA nunca agarró vuelo (excepto en Japón), y por lo tanto es el propio streaming el que asegura que el archivo será difícil de piratear. Acá hay usuarios que hasta se han quejado precisamente de esa dificultad... En mi opinión, todo este lío con la autenticación se produce porque cuando MQA estaba desarrollando el algoritmo, estaban preocupados de la viabilidad comercial de un producto que prometía llevar a las casas nada menos que las llaves de la corona (y no versiones de calidades inferiores respecto de él: no una versión CD, no una versión LP, sino la calidad del mismísimo master que ellos guardan como hueso santo), en una industria traumatizada por el Napster y el pirateo generalizado que la tuvo al borde de la extinción. Les proveyeron entonces una forma de "signar" ese archivo para de alguna forma dificultar que el asunto se chacreara. El remedio provisto resultó ser bueno para los estudios, pero pésimo para MQA mismo, pues sus detractores no pierden oportunidad de usar esto como muestra de "maldad" y los intentos hegemónicos de dominación mundial del malvado de Stuart y sus secuaces. No pasa una semana que discutamos de MQA acá para demostrarlos , incluso acá mismo... --- Master y Sub-masters Exacto. Y esos archivos NO SON EL MISMO DEL MASTER "MATRIZ" (Reference Master, creo que le llaman). En el caso específico de un LP, es una versión con compresión pues el LP, por definición física del formato, no soporta el rango dinámico de un DXD (el formato habitual de master de alta calidad); debe agregar ecualización RIAA (que no estaba en esa matriz; o si no la matriz serviría solo para hacer LP's); etc. El CD tampoco soporta ese rango dinámico y puede (habitualmente es así) requerir un grado de compresión dinámica, debe hacerse el famoso "dithering" que hemos discutido acá; además de lo más obvio de todo: bajar la resolución del archivo, en primerísimo lugar!. Tan claro es lo anterior, que si te metes en cualquier software profesional de masterización, ambos estadios (el master base y los sub-master específicos para cada formato de distribución: CD, LP, streaming A, streaming B; "mastering for iTunes", etc) están claramente diferenciados hasta en su publicidad; más aún, estos software incluyen herramientas pre-programadas para generar "la versión para LP", "la versión para CD", etc. Más aún, incluso los varios procesos involucrados que incluyen están descritos hasta en las web publicitarias de esos software en algunos casos. Creo que una vez escuché en su web hasta un audio de demo de los cambios efectuados en ellos... Esto es tan básico que incluso sorprende que tengamos siquiera que discutirlo... --- Si el artista se involucra o no en el detalle de preparar esos sub-masters, no lo sé, y supongo que depende de cada uno (y nuevamente, eso no tiene nada que ver con MQA). Si creo que lo normal es que se involucren y aprueben el "master referencial". Como MQA trabaja a partir de ese input, trata de lograr que el usuario final obtenga esa misma calidad de resultado (no más, no menos), y ese input está validado por el artista, dicen entonces que el proceso "refleja las intenciones del artista". Quizás es una frase desafortunada que MQA debiera haber tenido más cuidado en ocuparla, pero de allí a decir que son unos estafadores por hacerlo... No sé. Que cada quien crea lo que quiera. Por otras razones mucho más importantes, a estas alturas me da exactamente lo mismo lo que los detractores insistan en querer creer.
-
Estimados, Voy a resumir mi postura en esto. Lo que me he deslomado tratando de explicar acá es que técnicamente no existen razones para las cuales, *sobre el contenido musical*, el MQA sea "lossy". Las únicas modificaciones al contenido que hace MQA que podrían generar este "lossiness" son tres: Modifica el piso de ruido: reemplaza el ruido blanco que había por otro pseudo ruido banco (para usar ese espacio además como canal escondido de datos). Esto es imposible de escuchar por dos razones: a) no se puede diferenciar un ruido blanco de otro, pues ambos por definición son "brownian motion", completamente aleatorios; y b) toda esta modificación se produce bajo el umbral de lo que el oído puede percibir. Modela el ruido, trasladando ruido de zonas más audibles a octavas superiores. Con esto no solo no deterioran el archivo, sino lo mejoran, pues hay más "silencio" donde importa, y menos donde ese mayor ruido no se escucha. Claro, podrían haberse equivocado y extralimitado en esto... francamente creo que eso es imposible, hasta el más rookie en el tema sabría hacerlo bien. Dicho sea de paso, no solo MQA sino muchos otros hacen Noise-shaping... es parte de las técnicas básicas del tratamiento de señales digitales. Y entre los mayores expertos en el mundo en esto del Noise Shaping fueron Gerzon y sigue siendo Craven, co-autores del MQA. Presumiblemente (aunque no hay otra forma de interpretar lo que los propios MQA dicen que hace) recorta amplitud en las octavas superiores. Eso tampoco es audible pues la música o cualquier sonido natural no tiene gran amplitud en esas octavas (si las tuvieran nos dañaríamos irreparablemente los oídos escuchándola). Si afecta a señales artificiales que podrían tenerla (ondas cuadradas en los test de Archimago); pero incluso eso lo sería si el proceso de digitalización no lo considerara (como en el caso del proceso automático que él ocupó). Pero el proceso de estudio sí lo considera, pues no es genérico sino adaptado al contenido de lo que está procesando. Como los anexos de la respuesta de MQA a GoldenSound lo demostraron con absoluta claridad. Ahora bien, si a pesar de todo, eso generara alteraciones audibles (fuera "lossy" en la música) MQA lo podría haber afinado para que no lo fuera simplemente ajustando algunos parámetros en las tres cosas anteriores. A menos que sean una suerte de suicidas o completos idiotas, si no lo hacen es porque el proceso no crea pérdidas en la música. No obstante, el MQA suena distinto. Estoy totalmente de acuerdo @grx8. Esa es la idea... no hacen todo esto para que suene igual, lo hacen para que suene distinto. A algunos nos gusta el resultado, a otros no les gusta, y creo que ambas posturas son igualmente válidas. Al respecto hay de nuevo tres razones para estas diferencias audibles: En un punto que va más allá de ser o no "lossless", la alteración sonora que hace el MQA es permitir que los pulsos de cada sampling del contiendo digital sean reconstruidos como información análoga con instantaneidad y no con un lag esparciendo esa respuesta temporal en un espectro (temporal) previo y posterior al pulso mismo, como hace normalmente cualquier DAC. Esto es complemente objetivo, el cambio es radical, y puede medirse. Esto hace más "preciso" espacialmente y resolutivamente al sonido (una analogía visual es que si existen dos líneas paralelas muy juntas, las puedes resolver ambas como entidades separadas; si no existe instantaneidad de pulsos, sea "borrosidad" resultante tiende a fundirlas en una linea más gruesa y menos "sharp"). El resultado tiene un impacto significativo en resolución espacial resultante. Por otro lado, esto también hace al sonido menos "mullido", mas"seco". El sonido "mullido" les gusta a muchos (si no, nadie usaría tubos) y eso puede ser más importante que ese "sharpness" de que estoy hablando. Pero no significa que MQA esté mal, solo que lo que hace no es de tu gusto. Otra posible razón es que MQA usa el sonido del master original para generar el archivo que distribuye, tratando que el contenido sea audiblemente idéntico a él (y sí lo logran, no lo sabemos a ciencia cierta sin acceso a ese master, pero yo creo que incluso matemáticamente se demuestra que es así). En un formato CD en cambio, lo que estás escuchando es el sub-master de distribución para CD (o en un LP, el master de distribución para LP), que NO ES IGUAL AL MASTER GENERAL. En ellos se incluyen post-procesamientos asociados a los requerimientos para el formato en cuestión, y por ejemplo uno habitual es agregar un cierto grado de compresión (y mucha en el caso de los LP, o si no se te quebraría la aguja, o se saturaría la ecualización RIAA). Es altamente probable que a mucha gente le guste más el sonido con cierto grado de compresión pues se escuchan, por ejemplo, más claramente las cosas que suenan despacio. A otros no nos gusta eso, pues creemos que se pierde detalle de lo que el músico interpretó. La tercera es referida al tipo de música que escuchamos, y el grado de atención con que lo hacemos. Si escuchamos música de fondo, muy despacio o no sentados atentamente en el sweetspot que provee tu sistema, los beneficios audibles del MQA son poco relevantes, y en cambio destacan esa "eliminación de grasa" que generó el proceso (y la grasa es adictiva... ) . Escuchas lo "seco" que es el sonido resultante, y menos en cambio lo "espacial" y "rápido" que es. Sobre el tipo de música, si escuchamos regularmente música amplificada y en vivo (casi todo los ejemplos de @grx8 han sido eso), este factor espacial de sonidos naturales es poco relevante. A mi me gusta porque en parte de la música que escuchaba (jazz, clásica) esta definición espacial es un grado de placer auditivo adicional que a mi juicio le da más realismo a lo que escuchaba; en otro tipo de música que escuchaba (algunas electrónicas), la componente de espacialidad simplemente son el 80% de la intención del artista (ej: Morton Subtonick; Loscil; Tim Hecker, etc). Sin embargo, y esta es mi reflexión personal con la que resumo mi interés (ya ok , pasión) en el formato, es que es tanto una especie de hobby intelectual además de auditivo. Porque encuentro desde un punto de vista "ingenieril" fascinante lo que hacen (y francamente me sorprende que a ingenieros o eléctricos no los entusiasme tb, independiente si les gusta o no el resultado). La gracia, uno de los aspectos revolucionarios del formato es que permite una canal de comunicación entre el archivo y el DAC (por eso @Patagonia el origami es escencial, no es prescindible). MQA usa ese canal para hacer "fine-tuning" de una enorme cantidad de filtros que ocupa en el proceso (y los ocupan todos con un único objetivo: mejorar la respuesta a impulsos de cada sampling). Pero en cada sampling de los millones de por minuto de un tema que escuchamos hay una reserva de bits en donde potencialmente pueden enviarle instrucciones al DAC que podrían condicionar su respuesta. Cada segundo del archivo tiene potencialmente una forma de "alterar" cómo este suena si el ingeniero de grabación lo quisiera. A través de este canal de datos, si MQA quisiera "pichicatear" el sonido resultante para que fuera "mojado", más análogo (si eso significa algo), o más de cualquier otra forma de sonido preferido por los auditores; si resultara comercial el constatar que la inmensa mayoría de los usuarios prefiere la "güatita BBC" de los medios bajos, por ejemplo... podrían hacerlo sin ningún problema. Este canal de datos podría usarse, por ejemplo, como un ecualizador paramétrico en tiempo real que modificara el archivo a voluntad para adaptarlo al patrón audible que fuera comercialmente más vendible o lo que el artista quisiera. Pero no lo hacen. Priorizan en cambio que lo que te entreguen sea lo más parecido posible al master original. Nos gusta el resultado? Si?, genial. No? muy bien también. Pero si a ti no te gusta no significa automáticamente que estén mal, o sean lo piratas que algunos los han tratado de pintar (y puede que lo sean, pero no por razones técnicas y no les ha resultado muy buen negocio serlos si a sí fuera). Yo al menos creo que es un placer el solo hecho de entender lo que ellos están tratando de hacer, pues creo que abre una puerta gigantesca a un sonido potencialmente mejor en el futuro. Un PCM estándar no tiene camino de evolución posible en cambio, es lo que es, y punto. Saludos a todos.
-
@Bozon: después caché que lo que te respondí en rigor no era exactamente lo mismo que estabas preguntando. Pero está relacionado, pues si la pregunta era que si por aumentar el sampling se igualan los efectos de los filtros... NO: lo que el sampling alto gana es *permitir* que en la etapa de reconstrucción DAC que se implementen reemplazos al filtro brick-wall por antialiasing más benignos. De allí a que lo haga el DAC es otra cosa. En ambos casos se producen mejoras en todo caso: en la reconstrucción por apodizantes sería mayor (pero aún parcial respecto del MQA por lo explicado antes; el ringing total es igual o incluso mayor, pero trasladado como post-ring, sin pre-ringing); y es menor -pero mejora igual- si solo se desplaza el brickwall. De hecho lo segundo es lo que yo creo que pasa con las mejoras audibles de Qobuz, pues dudo que cada DAC tenga condicionado el tipo de filtro a ocupar dependiendo del sampling que recibió. Si tu DAC recibe un archivo hires, desplaza el brickwall más adentro, pero básicamente sigue usando el mismo que estaba para 16/44. Por eso los hires suenan mejor y no por esa supuesta "redondez", que no existe más allá de la que provee el bitrate (el cual sí es importante en esto, es cosa de ver la mejor reconstrucción de ondas de cualquier DAC en señales de 24 bits en los reportajes en ASR por ejemplo). Además podrían (y deben haberlas me imagino, y esto es mucho más relevante) mejoras en el proceso ADC, porque allí sí pueden mejorarse los filtros según el sampling usado, no simplemente desplazarlos. Aunque también puede ser que en archivos hires (estándar al menos) simplemente se corre el brickwall desde 20-22.05K a 40-48K (en un 24/96). Interesante punto a despejar... la verdad no lo sé. --- Como sé que has manipulado los distintos tipos filtros que algunos DAC proveen, el otro asunto en archivos 16/44 en esto es que cambiar el filtro per se tiene poco efecto (casi imperceptible diría) si no va apareado con un upsampling que permita dar espacio a ese filtro más largo, cosa que dudo que DACs baratos hagan . Para aclarar: up-sampling es agregar samplings por sobre la frecuencia de Nyquist original, para mayor bandwith total; más común es el over-sampling - como Chord-, que es agregar samplings intermedios entre los de base (logrando esa "redondez" publicitada, pero cuyo objetivo real no esa redondez por si misma). Estuve ojeando el reportaje de ese DAC Meridian que mencionaba antes (https://www.stereophile.com/content/meridian-8082808i2-signature-reference-cd-playerpreamplifier-specifications). Un punto interesante es que comparaba Atkinson (con grabaciones de él) el efecto del apodizing sobre un sampling 16/44, vs sampling hires leído por otros DAC de referencia (Ayre, Benchmark), y aunque a la larga sí encontró minúsculas diferencias, en principio pensó que eran idénticos, y solo las encontró después de muchas audiciones muy atentas. Si uno le cree al tipo y sus pailas, esto podría ser una evidencia, sr juez, que la importancia de los archivos hires no es el aumento de la resolución por si misma, sino la posibilidad que ella da de mejorar los filtros. Y por supuesto, nada que ver con la "redondez" de la señal (Teorema de Shannon, de nuevo).
-
A todo esto @Bozon, entiendo que el DAC RME (entiendo que tú tienes uno, no?) se cambió de chips AKM a Sabre como a mediados del año pasado, al parecer derivado de un incendio en la fábrica de AKM que los dejó con problemas de provisión de chips. Además la nueva versión del ADI-2 en vez de implementar el DAC caro (9038pro) lo haría con el 9028-Q2M. (*) ¿Sabes si alguien ha comparado si se detectan diferencias audibles entre ellos? (*): en todo caso, además del asunto de la energía requerida, parece que la denominación de "pro" en esas series tiene que ver más con que los pro incluyen ADC y los otros no, pero no necesariamente que sean mejores en la reconstrucción.
-
@Bozon, sobre lo primero: se supone que NO es lo mismo pero si parecido), y sorry por la explicación un poco latera que sigue: Hace como 15 años aproximadamente Meridian sacó el que creo fue el primer DAC en que reemplazaba el filtro brickwall por uno apodizante. Para poder implementarlo incluía upsampling (para los apodizantes se necesita más largo de data que el espacio que deja redbook), y fue muy alabado en su época; Hartley por ejemplo (Absolute Sound, ya entonces estaban mojados dirán algunos acá...) decía que era como si le hubieran remasterizado toda su colección de CD's. Lo principal que describía Hartley eran que no solo que lograba "colocar" los instrumentos en el espacio (eso tb lo hace cualquier redbook) sino el "aire" o "aura" si quieres alrededor de esos instrumentos, que les daban tridimensionalidad auditiva. Más o menos lo que yo escuchaba con MQA ahora, pero en mi modesto equipito, dicho sea de paso. Poco antes en 2004 (pero mucho antes del MQA) Peter Craven (el co-creador de MQA y partner de Gerzon) publicó en la AES un artículo muy conocido sobre el beneficio de uso de los apodizantes en formato hires que entiendo se transformó en la referencia en el tema. Pero al parecer lo más importante de ese paper es que no solo proponía apodizantes, sino proponía empezar ese filtro apodizante antes de los 20 Khz (aunque menos que en el MQA hoy). Ese es uno de los documentos basales del MQA. Los filtros apodizantes son filtros que no son lineales si no como una especie de "S", recortando poco al principio, mucho al medio, y muriendo tangentes a 0 justo antes de la Nyquist (evitando pasarse de ella, por lo cual evitan aliasing que si tiene el redbook). Se parametrizan para adaptar esa curvatura, y tienen el efecto que le quitan el pre-ringing del filtro brickwall, a cambio de extender el post-ringing. Eso es más natural a que existan vibraciones anticipando al impulso, como es el pre-ringing (para estos efectos cada sampling del archivo ES en sí mismo un impulso). La otra gracia de los apodizantes es que tienden a corregir el pre-ringing que está incrustado en la grabación: por eso Hartley decía que era como si le hubieran remasterizado su colección de CD. Por qué no es igual entonces? Porque los apodizantes del MQA se implementan en etapa de ADC tb (o al menos se traquea lo hecho por el ADC si el master ya era digital), y el filtro apodizante que usa después el DAC (según instrucciones contenidas en el canal de datos del MQA) está asociado a ese filtro original del ADC. El resultado es que recorta tb el post-ringing, logrando los hasta tan poco como 10 uS del MQA. En rigor los logra tb porque además del eso el filtro se extiende mucho más atrás invadiendo el espectro audible, haciendo que actué no en 1 o 2 octavas, sino en 7 u 8. Ese es el sentido de abundar tanto en los artículos del MQA sobre el "triángulo" de contenido audible del formato: este filtro apodizante es el cateto superior de ese triángulo . Este es uno de los gráficos típicos sobre ello, aplicado en este caso a un archivo 24/96K (sorry, solo lo tenia en grande) (se ve recto en el gráfico de abajo porque es un diagrama de "Shannon" con las frecuencias lineales, y no logarítmicas, en donde sí se vería la curvatura S del filtro): Como ya he tratado de explicar dos mil veces, esta "invasión" hacia atrás del filtro es posible porque los armónicos de la música en las octavas superiores no tienen la misma amplitud de las fundamentales. Como aún el instrumento más agudo tiene su última nota con fundamentales entre 3 y 4 Khz y. no más (y ya esas notas altas son de menor amplitud que las fundamentales de las notas bajas), todo lo que hay de allí para arriba son armónicos, que por la naturaleza vibratoria de cualquier instrumento no tienen posibilidad alguna de llegar a la misma amplitud que las fundamentales. De hecho, lo mismo pasa en la mayoría de los sonidos "naturales" (pájaros, viento, etc), y el oído está acostumbrado a ello (ese es el sentido de la neurociciencia a que aluden MQA). La característica de los sonidos naturales es que tienden a ser sonido "pink", en que cada octava va teniendo menos energía que la anterior. Así entonces, todo lo que hay arriba del triángulo es espacio en blanco, no ocupado y perdido en cualquier pcm. MQA igual no puede ocupar ese espacio superior porque perdería compatibilidad con el redbook (para quienes no quieren hacer desdoblados), pero si puede usar un filtro más suave, porque lo que recortará ese filtro es justamente ese espacio en blanco y no la música.
-
Es exactamente lo mismo. Y no te "salí con una publicación". Es la misma de la cual te había mandado un link, y que dijiste haberla leído... en diez minutos. /s No me digas? Jamás me lo habría imaginado....s/ Llevo años acá alabando parlantes que son coherentes en fase (los LS50 antes, los Meta ahora), pues es lo que explica la razón por la cual tienen tan buen imaging y soundstage. He comentado muchas veces en este foro cómo mediante manipulación de fases entre canales es incluso posible colocar eventos sonoros incluso más afuera del arco de los parlantes, por ejemplo. Como parece ser necesario demostrar que uno no es completamente estúpido e ignorante para cada cosa que dice, te aclaro que eso lo aprendí hace 40 años, osciloscopio en mano, cuando estudiaba tecnología del sonido (soy arquitecto, no obstante). son cosas distintas, pero están íntimamente relacionadas. Filtros y modelar ruido no tienen absolutamente nada que ver el uno con el otro. MQA modela ruido para dar espacio a un canal de datos. Los filtros de MQA no son perfectos (si bien en general los filtros convolucionales permiten hacer cosas que los convencionales no), y no son de MQA, es parte de la ciencia de procesamiento de datos no solo en audio sino en cualquier dominio digital. Usarlos inteligentemente es el asunto. Establecer un canal de comunicación el archivo que permita asociar el efecto de los filtros usados en ADC con los que después usará el DAC es parte de esa inteligencia. A diferencia de un formato como PCM que por definición no sabe cómo se hizo el archivo (la conversión ADC original) y que aún si lo supiera no tiene cómo "condicionar" la DAC en la forma de comportarse ante ello (pues debe asumir que el DAC actúa en forma genérica, como de hecho lo hacen todos); la gracia de MQA con su canal de datos escondido y su actuación en todas las etapas de la cadena de producción, es que es exactamente lo contrario en ambas cosas. Y por lo tanto (potencialmente: depende si estaba documentado en el master original, y se interviene a partir de un master análogo o ya desde digital) sabe qué alteraciones temporales se introdujeron en la conversión, y a través de su canal de datos sabe cómo decirle al DAC como corregir esas alteraciones. Si quieres entender este problema, tienes que cambiar la óptica con que la miras. MQA no está procesando genéricamente la data, está incorporando procesos a esa misma data. Y esto no es una especulación mía, está profusamente discutido en muchos artículos que puedes consultar si todavía tienes una actitud open-minded y no de puros prejuicios. 3 frases y las tres son incorrectas. Si quieres que te entendamos, fundamenta esos tres juicios: "pruebas que es lossy"; "MQA dice que le entregaron un master incorrecto ... y entregó un master peor que el original"; "un MP3 más sofisticado". Lamentablemente parece demostrar que llevamos tres días discutiendo esto y no has entendido absolutamente nada. No, solo para aquello que he estudiado, y solo cuando me cuesta aceptar así como así que queden plasmadas aseveraciones basadas en prejuicios sin fundamentos y con evidentes errores conceptuales. Partí agradeciendo el espíritu de tu primer posteo acá que suponía más basado en conocimientos y no prejuicios en la primera secuencia de estos posts tres días atrás (de hecho, pensé en ese momento que eras ingeniero de audio). Asumo de la partida que quien está hablando con tanta propiedad sabe de qué lo está haciendo. Has demostrado que no lo sabes, lo cual por lo demás no es ninguna obligación; siempre he entendido que el espíritu de este foro es precisamente aprender de aquello que uno no sabe. Lo triste del caso es que has demostrado que prefieres priorizar tus prejuicios a realmente tratar de entender un tema, aún cuando claramente sabes de esto más que el promedio. A modo un ejemplo: te mandé el link de sound on Sound, que es solo divulgativo pero suficientemente panorámico y técnicamente correcto para entender los conceptos generales de este tema del MQA y la importancia del time-doman en la calidad de reproducción; no te demoraste ni diez minutos en descalificarlo, y es imposible que en ese tiempo lo hayas leído, mucho menos digerido. Qué queda entonces para los artículos más detallados, realmente necesarios para entender todo esto...? Y si pasé a un tono algo más agresivo es porque tú lo hiciste primero: ¿Era necesario entrar en la personal y decirme que "parece que tienes respuesta para todo"? ¿"si un artículo no se trata de MQA seguro que no lo has leído"? Que después que hemos estado comentado con lujo de detalles asuntos de teoría de digitalización pongas como respuesta un video de lo más básico del tema, como si estuvieras enseñándole a leer a un cabro chico? Que John Atkinson, nada menos, sería un suerte de estafador público? Por favor...
-
Lo que son las cosas: la respuesta a mi duda - y ante mi omisión de leer los artículos científicos al respecto-, está insinuada en la primera página del propio link que puse de la Sound on Sound: "Most of us think of audio equipment performance in terms of the frequency domain. When we talk of equalisation we think of how the amplitude changes at different frequencies, for example, and when we compare equipment specifications we often rely on the frequency response as an arbiter of quality. However, this is only half the story, the other half being the time-domain performance. This is a much more relevant concept when considering digital systems, albeit one which is far less natural and intuitive for most of us. While phase shifts and group delays are often considered when defining audio quality, temporal precision is rather less well understood, and has been largely ignored until relatively recently. However, it has been known about in some sense since the work of Von Békésy back in 1929. He was investigating the acuity of human hearing in identifying sound source directions, and his work suggested that the ear can resolve timing differences of 10µs or less. This was extended in 1976 when Nordmark’s research indicated an inter-aural resolution of better than 2µs! More recent international research confirms that the human auditory system can resolve transient timing information down to at least 8µs, too. To put this in context, simple maths indicates that a sinusoidal period of 8µs represents a frequency of 125kHz — but no one is suggesting the perceptual bandwidth of human hearing gets anywhere near that! Entirely different ear and brain functions are involved in detecting a signal’s arrival timing and its frequency content, possibly in much the same way that the ‘rod’ cells in the eye detect brightness or luminance, while only the ‘cone’ cells detect colour. So the established auditory bandwidth of around 20kHz remains broadly accepted as fact, and a secondary system is presumed to be involved in detecting signal transients with remarkably precision. Perhaps one of the reasons we have seen a trend towards higher and higher sample rates in ‘hi-res’ audio equipment over recent years is because higher sample rates inherently improve the ‘temporal precision’ to some degree." Y por si les suena el nombre de Von Bekesy citado arriba: en el hilo de la anatomía del oído contaba que este tipo fue el que ideó la "teoría de la localización" explicando la forma de discriminación de frecuencias de la cóclea en el oído, asunto por el cual le dieron el premio Nobel en 1961. A si que @MarkVII, no soy yo el que está inventando que el oído puede resolver resoluciones temporales mucho mayores (5 veces mayores de hecho) a las frecuencias, es un premio Nobel.
-
Ok, al fin el review de Darkito sobre las LS60 wireless.: "Sprechgesang": no para jugoseros... se acabó el "amplifier hunting", ya no va a haber en qué gastar la plata que no tenemos... quizás habrá que dedicarse a escuchar música no más... "this loudspeaker is an absolute win" Una observación interesante que hace es que para piezas chicas aún podría ser recomendable la combo de los LS50Meta pasivas + amplicador/streamer + SW KC62, por la flexibilidad en el control de bajos que te podría dar esa combo. Pero en piezas más grandes, la sensación de escala y relajo en la entrega de los bajos (aunque con el SW se llegue un poco más abajo) que entregan estas columnas todo-en-uno LS60W es muy superior, dice. Lo comparó con combos armadas con parlantes JBL y las Klipsch Forte IV, y encontró superior en casi todo sentido el resultado con las LS60W.
-
OK, no hay nada en este video que no hayamos discutido extensamente solo entre ayer y hoy acá. Es exactamente lo mismo que te estado diciendo. Si lo que tratabas de ejemplificar con esta media hora de obviedades (no tuyas, del video) es que un sampling alto permite correr el Nyquist más arriba, y por lo tanto aliviar el el brickwall... bueno, eso es precisamente lo primero que te postié ayer: es único beneficio del formato que propone Qobuz (y de paso demuestra la mentira de que estén "densificando" el sampling en el espectro audible). Pero para que dimensiones el problema de otra manera, pues todos estos videos tienen un defecto básico: muestran las frecuencias en escala lineal y no logarítmica. En el redbook el espacio del Nyquist es de 1/7 de octava (ver minuto 12 de tu video), en el cual deben recortarse al menos 96 db. El filtro necesario (pero imposible) es de una 976*7= unos 672 db/octava. Si haces la descomposición Fourier de ese filtro, verás que el pre ringing de él es miles de sampling antes y el post ringing es de miles después de la frecuencia del impulso que se está resolviendo (no solo en el corte). En una caricatura exagerada, los platillos de la batería en ese formato son de caucho... 5000 uS en responder a estos impulsos. Y si la información espacial depende de la velocidad de dos impulsos en el canal izquierdos y en el derecho ocurriendo en forma casi simultánea... bueno, simplemente eso no se resuelve: se vuelve "borroso". Si amplías el sampling a 96K (el típico archivo hires de Qobuz) (siguiente gráfico en ese video, pero mostrado lineal, no logarítmico), ganaste... una octava, para un gran total de: 1 1/7 de octava. Mejora la cosa, pero no demasiado. Quizás a 300 o 400 uS de respuesta a impulsos. Si el sampling lo amplias a 192K, ganaste otra octava más; logras respuestas de unos 150 a 300 uS. Lo que hace MQA además de ganar esas mismas octavas, es analizar el contenido dinámico del master que está procesando, y adaptar el tipo de filtro a uno convolucional, que no se inicia en el el límite audible superior, sino retrocede fuertemente hacia atrás en el espectro audible. El punto exacto no es públicamente conocido (es parte de su know-how), y además depende del contenido del archivo, pero según se infiere de la información que ellos presentan, podría empezar tan atrás como 2 Khz o incluso antes: El filtro actúa no en 1/7, 1, ó 2 octavas, sino actúa en 7 u 8 octavas. Además este filtro antialiasing no es lineal, sino un filtro de curvatura variable (menos recorte al principio, más después en las zonas supra-audibles) cuyos parámetros están asociados al contenido del archivo en vez de ser meramente genéricos como en un pcm estándar. Todo ello resulta en un respuesta a impulsos de 10 uS... vs 150 uS que en el mejor de los casos se obtiene con cualquier formato alternativo (excepto DXD), o los desastrosos 5000 uS del redbook. Como ese filtro es variable, es parametrizado. Esos parámetros (tipo de filtro, curvatura a usar, otros) es lo que está contenido en el canal escondido de datos que se le envía el formato al DAC. Y como los filtros son convolucionales, además pueden haber cuantos sean necesarios y no solo el Nyquist. Entonces potencialmente (no siempre, depende de cada caso) agregan otros filtros corrigiendo quirúrgicamente cada alteración temporal incorporada por las resistencias, capacitores e inductancias de los circuitos empleados en la grabación original (si esa información estuvo disponible). Lo anterior puede hacerse por dos observaciones trascendentales que son parte de la definición del formato: 1- los armónicos de la música son de amplitud decreciente, y por lo tanto no es necesario partir el filtro en 20 Khz, sino más atrás... si es que puedes adaptar el comportamiento de este filtro caso a caso en vez de usar un genérico; y 2- Si estableces un canal de comunicación entre el archivo y el DAC, puedes enviar a este instrucciones para que ese y muchos otros filtros se comporten exactamente de la forma más conveniente para procesar ese archivo en particular. O dicho de otra manera, por definición el formato PCM es "tonto", no sabe qué hay al otro lado de la conversión; el formato "MQA" es "inteligente", en el sentido que no solo pasa información grabada, sino instrucciones de como procesar esa información. Es, por poner una analogía, como comparar el lenguaje Basic de los años 80 con un lenguaje orientado a objetos de ambiente de programación actual, donde datos y procedimientos sobre esos datos están encapsulados. Ojalá ahora haya quedado un poco más claro, y te motive a leer antes de juzgar.