-
Contenido
3.388 -
Registrado
-
Última Visita
-
Días ganados
67
Tipo de Contenido
Perfiles
Comunidad
Calendario
Store
Todo lo que pbanados posteó
-
Pucha @MarkVII... Te sugiero leer algunos, ojalá todos, los link que te mandé antes de emitir juicios. ¿Quién es "Monty" Montgomery?(y no digo que esté mal, lo estoy viendo ahora aún). Te estoy mandando información de algunos de los más connotados ingenieros de audio de la historia, y de los editores de la principales revistas de audio del mundo. ¿No te parece al menos interesante leerlos primero, antes de contestar con el primer video sacado de Youtube? Aclararías tu consulta de la comparación con la velocidad de propagación en el aire, entre otras cosas. nota la margen: Buena parte de los parlantes tienen serios problemas de respuesta a impulsos y coherencia de fases, y no solo por el problema real de los crossovers. El tema ni siquiera se conocía cuando se diseñaron los de la BBC, por ejemplo.
-
Lo del ringing de impulsos de cualquier filtro, que es un asunto matemático no sujeto a interpretación alguna, hay kilos de información sobre esto en internet. El monto de ringing es proporcional a la verticalidad del filtro. Por eso los brickwall del redbook dejan la escoba. Por patentes, busca las de Michael Gerzon, Peter Craven o Bob Stuart. Hay al menos 10 de ellas. En las patentes se no se ve ese tema en especifico creo, pero sí lo del empaquetamiento. Cosa que hay que leer con atención, pues aparece en sus diagramas la palabra "lossy" y procesamientos de 13bits en vez de 16, que es como partió acá, hace un año o más, esta especulación de que el formato sería "lossy". Esto es bastante complejo de entender, pero básicamente es una forma de redistribución de bits para permitir que el mismo archivo se pueda leer en dos resoluciones distintas. No hay pérdida de información, sino un reordenamiento de datos. En un larguísimo hilo en ASR sobre MQA John Atkinson explicó claramente este tema en un par de posteos. Leerlo con paciencia, pues te tienes que mamar como lo hicieron mierda a punta de prejuicios (y a mi tb), tales como los de acá, y por las mismas razones... los test de GoldenSound. Te sugiero que busques los artículos de John Atkinson y Jim Austin en la Stereophile sobre MQA, y un largo y muy detallado artículo (tiene como 7 partes) en la misma Stereohphile de Bob Stuart que se llama algo así como "MQA: Questions & Answers" (acá: https://www.stereophile.com/content/mqa-questions-and-answers). Te advierto que lo tuve que leer varias veces para entenderlo por completo. Sobre la calidad sonora uno especialmente interesante es uno del editor de la Absolute Sound, Robert Hartley, cuyo título es: "The Most Significant Audio Technology of My Lifetime" ( acá está: https://www.mqa.co.uk/newsroom/in-the-press/most-significant-tech) Otro que te recomiendo es un artículo bastante detallado en la Sound on Sound sobre MQA, en el cual explican bastante bien este asunto del ringing a impulsos, que MQA arregla. MUY INTERESANTE. https://www.soundonsound.com/techniques/mqa-time-domain-accuracy-digital-audio-quality --- Sobre tu última frase, te confieso que me intriga ese asunto también y no he logrado una explicación satisfactoria: ¿por qué el oído humano no puede resolver arriba de 20 Khz (1/40.000 de segundo), pero sí puede resolver información temporal tan breve como 8 us (8/1.000.000) ? No lo sé, no soy científico, pero sí les creo a ellos que lo afirman taxativamente. Las citas a los papers universitarios que discuten este asunto están indicadas en el Q&A del antipático del Bob Stuart, del link arriba.
-
No @Patagonia. El empaquetamiento es inherente a la tecnología MQA. Sin ello no se podría hacer. La razón es porque ese empaquetamiento es el que permite alojar el canal de datos bajo el umbral de ruido. Ese canal de datos tiene las instrucciones que permiten reemplazar filtros estándar de un pcm por aquellos más elaborados que usa el MQA. Por eso en un post anterior decía que el beneficio de crear un archivo más compacto (y además único para todas las resoluciones requeridas), es casi un sub-producto del MQA, y no per se su objetivo. Las criticas, y supongo que te refieres a los test de Archimago y Goldensound, y tipos como Gowan de PSAudio que se respaldó en esos pasquines para criticar el formato, se basan en tres cosas: 1- El contenido de ruido bajo el umbral es distinto. Lo cual es obvio, pues en ese pseudo-ruido del MQA en vez de haber eso, ruido, ahora hay datos escondidos como ruido (por... dithering! controlado). Como ellos hacen comparación bit a bit, y el ruido está configurado de distinto modo, no verifican que exista esa correspondencia. Pero aún si lo pudieras escuchar (y no puedes, está bajo el umbral de audición), no hay forma de diferenciar un ruido blanco de otro, pues precisamente eso es lo que lo caracteriza: ser estadísticamente totalmente aleatorio. 2- En ondas cuadradas de sus tests, con alto contenido de amplitud en frecuencias la borde superior del espectro audible, se producen recortes. Esto sería relevante si el formato se usara para registrar información de otro tipo. Como el formato es para música, esto no tiene relevancia, pues no existe ningún instrumento real que pueda generar grandes amplitudes en los armónicos superiores. Mira el RTA con cualquier software de procesamiento de audio, de cualquier música que pongas y te darás inmediatamente cuenta de ello. 3- Se les produjeron fenómenos de aliasing en sus test. Pero esto fue un error de ellos, no del formato, pues... no le hicieron dithering al archivo (!!!). Un error tan básico que es imposible que no lo hayan hecho ex profeso, con mala intención. Además hay un aspecto general aún más básico en los errores de esos test: ocuparon el proceso provisto por MQA para músicos amateur, no el proceso completo para estudios, donde aún si el archivo tuviera alto contenido dinámico en octavas superiores (punto 2 arriba), el formato podría procesarlos. En los anexos de la respuesta de MQA a GoldenSound (que nadie leyó, y que GoldenSound omitió publicar en su diatriba) mandaron ejemplos su propio archivo procesado por el proceso completo, y donde puede verificarse que la conversión es perfecta en la reconstrucción de las ondas cuadradas. 100% lossless. Como MQA le hizo ver a GoldenSound, el proceso automatizado le informó que su archivo habían incompatibilidades con el proceso, y le generaron decenas de errores reportados, los cuales el ignoró y publicó ese "test" de todas maneras.
-
Interesante que cites a Dolby. Cuando Thomas Dolby estaba definiendo su formato, viajaba de California a Oxford, UK, específicamente para pedirle consejo a Gerzon (el creador intelectual de MQA, y gran ingeniero matemático), pues era el experto mundial en este tema del encapsulado de datos (Band Signaling). No sé en verdad si tiene 100 años, (todo el audio tiene como 90, la AES tiene 75), pero en la patente que Gerzon publicó sobre le tema está la referencia a la única patente anterior sobre lo mismo, la cual ellos mejoraron significativamente. De hecho, tan importante habría sido la contribución de Gerzon en el formato, que Dolby le habría ofrecido ser socio de la empresa, cosa que Gerzon, que era bastante excéntrico rechazó, pues le gustaba la investigación y no se quería mover de Oxford. Supongo que prefería codearse con Hawkins que con los gringos de California.. Foto de Ray Dolby en Oxford (creo que es de fines de los 60 o principios de los 70), donde le estaba pidiendo consejos a Peter Craven (izq, el gran Partner de Gerzon y co-creador del MQA) y Michael Gerzon (Der), sobre el diseño del sistema Dolby. Gerzon había fundado la Audio Society de Oxford, y era la estrella del depto de ingeniería acústica de esa Universidad. En ingeniería de audio, Gerzon está considerado como uno de los más grandes genios de la historia de esta disciplina, por la cual la AES le dió la Gold Medal, que solo han obtenido unos 70 ingenieros en su historia (otros: Studer, Rudy Van Gelder, el propio Dolby, Shannon, etc). Lamentablemente se murió muy temprano, en 1996 creo, de asma y otras afecciones. Tenía también una paila privilegiada por lo que cuentan: está certificado año que podía escuchar al menos hasta 22 Khz. Obviamente que el band signaling le quita compatibilidad con el PCM original. No tiene por qué tenerla, está explícitamente diseñado para no tenerla, de hecho. Por eso se necesitan DAC's con MQA, o al menos un software que le haga el desdoblado parcial. No quiero parecer pendante @MarkVII, pero en esto de MQA soy bastante experto; he estudiado en profundidad kilos de información disponible, literalmente decenas de artículos, documentos, patentes y papers, como les consta a varios acá. Hay un par de hilos en este foro donde puedes ver en detalle de qué se trata el "deblurring" si tienes dudas sobre ello. Los procesos ADC SI incluyen muchos artefactos en la digitalización en el dominio del tiempo, como solo hoy he explicado un par de veces y en el foro, al menos una 15 veces en estos meses (estos se producen por efecto fundamentalmente del filtro en frecuencia de Nyquist). En una explicación muy simplificada, básicamente el "deblurring" de MQA (evitar la "borrosidad" provocada por el ringing a impulsos) se trata de evitar el uso de filtros brickwall en la frecuencia de Nyquist, y reemplazarlos por filtros extendidos y de geometría variable (adaptada al contenido del archivo). En artículos sobre procesamiento digital en otros dominios, como en procesamiento de imágenes, se ocupa el mismo concepto: "blurring" habitualmente, y su efecto en imagen es clarísimo. Generalmente en audio la gente no está acostumbrada a esto, pues rara vez se habla del time-doman, sino siempre del frecuency-domain. La traslación entre uno y otro dominio de hace a través de transformadas Fourier. En MQA hay medidas adicionales, como la implementación de una serie de filtros complementarios cuando los proyectos son detallados (por ejemplo, hay traqueo de cómo se hizo la grabación original), para compensar (mediante filtros convolucionales básicamente) los efectos de "time Smearing" que crearon cada uno de los equipos que se usó en la grabación del master original. Como resultado de todo ello, un archivo MQA de sampling altos llega a una respuesta de impulsos de 10 uS (microsegundos) si el master era digital, y 3 uS si el master era análogo. El PCM redbook tiene una respuesta de unos 5000 uS. Estos filtros adicionales, focalizados en la grabación, es parte de la información al DAC que queda codificada en el canal escodido de datos. Un efecto complementario de los filtros que alteran el time Domain (esto se llama "ringing") es que van corriendo las fases de los armónicos de una onda compuesta, con el resultado que la forma de onda resultante tiene importantes discrepancias con la original. Hace unas décadas se pensaba que esta coherencia de fases de armónicos era irrelevante, pues no se habría escuchado. Actualmente está aceptado que sí se escucha, y es uno del los aspectos más relevantes en la resolución de la información espacial: es lo que permite definir focalizadamente en el espacio dónde está cada evento sonoro de la grabación (imaging, soundstage). Si quieres consultar más en detalle lo anterior, te puedo enviar después los datos de la patentes a que me refiero para que las leas. Dicho sea de paso, el oído humano puede captar respuestas a impulsos hasta tan poco como 12 a 8 uS (esta última cifra es la más aceptada, por investigaciones de universidades japonesas). Varias páginas atrás en este hilo están los gráficos de la diferencia de respuesta a impulsos en el time Domain que tiene un PCM normal y un MQA.
-
Si claro, es filosófico. Aún cuando me gustan los tubos y lo rico que suenan sus distorsiones en segundos armónicos, y a veces tb el sonido del vinilo, parto por reconocer que es menos fidedigno (son distorsiones, al fin y al cabo). Si hablamos estrictamente de "alta fidelidad" y no de que suene rico no más, los tubos y especialmente el vinilo son tecnologías con anomalías fundamentalmente erróneas, mucho más erróneas que los errores de digitalización que estamos comentando. Pero sí, suenan rico. El violín suena en ellos a veces más rico que el que tocó Pinchas Zukerman originalmente. Si eso es lo que quieres, bien por tí, excelente incluso. A mí me interesa(ba) especialmente recrear el "espacio" audible que fue originalmente grabado, punto en el cual tecnologías antiguas son especialmente débiles.Y MQA en cambio es especialmente fuerte, pues la resolución de esos aspectos es extremadamente dependiente de la respuesta a impulsos y coherencia de fases de armónicos, que es lo que ella mejora. "almacenamiento es un punto muerto... MQA es innecesario": No, estás mirando mal el asunto del MQA, precisamente porque no se trata de almacenamiento el problema. El MQA no es solo tener un archivo hires en un tamaño menor (lo cual sigo sosteniendo es importante de todas maneras, especialmente para el streaming). De hecho eso es casi un sub-producto (*) de lo realmente importante del formato: el que elimina los problemas de corrimiento de fases y de lentitud de impulsos que son inherentes al estándar CD. La mayoría de los archivos hires de otros tipos aminoran estos problemas (y creo que es la única razón por la cual suenan mejor que un CD), pero no los eliminan completamente; el MQA sí. Por eso Tidal suena mejor que Qobuz, si se comparan los archivos correctos en que ambos casos maximizan la potencialidad de los respectivos formatos. Este tema además está contaminado con el asunto completamente fuera del tema audible que es el de royalties que mencionas y la posible certificación de autoría que incluye el formato, sobre lo cual todo lo discutido son meras especulaciones pues nadie realmente sabe qué, cómo y cuánto es lo que MQA cobra por ello. Que en todo caso no puede ser mucho, pues ni aún hoy esta tecnología ha sido un buen negocio, y los productos que la incorporan son solo marginalmente más caros. Cuando MQA ideó una forma de esconder un canal de datos bajo el piso de ruido, uno de los usos que le dio fue agregar metadata útil, y se decidió que entre muchas posibles alternativas de qué poner allí, la importante era certificar que la calidad resultante era lo más parecido posible al master desde el cual se preparó ese archivo, certificación emitida por el emisor del archivo (el estudio o el ingeniero de grabación normalmente). Quizás la cagaron con meterse en la pata de los caballos con esto, puede no aquilataran la cantidad de problemas y variables que harían a la gente cuestionar esto (caso Neil Young). Pero teóricamente esta idea de un canal de datos escondidos podría tener otros usos: cuando publicaron (mucho antes del MQA incluso) la patente de este canal de datos escondido sugerían de hecho varios posibles usos: instrucciones DSP incluidas en el archivo; canales adicionales de música para sistemas multicanal, etc. (*): subproducto en el sentido que creo que MQA no busca extender la resolución per se, lo hace para poder implementar con esa mayor resolución los beneficios de mejora de impulsos. Y para implementarlas, necesita tb un canal de datos escondido. El resultado es que con ese canal de datos. bajo el piso de ruido se puede hacer todo en un archivo más pequeño que un 24/96, pero con mejor calidad auditiva.
-
a) Sobre el primer punto, en verdad @Bozon no creo que el problema es que se hayan tratado de engañar a los consumidores cuando Phillips y Sony definieron el redbook base del formato digital del CD. Pienso que honestamente creían entonces que estaban logrando algo cercano a la perfección auditiva. El problema fundamental es que no consideraron los efectos audibles de la necesidad de limitar la banda a procesar (y cuya única forma de hacerlo es con un filtro vertical - tipo brickwall- como proponía Shannon, lo que en la práctica resultó imposible), requerimiento del teorema de Nyquist-Shannon en que se basa todo esto. Esto que pareciera ser una especulación mía queda a las claras cuando uno se percata del espacio miserable de 20Khz a 22.05 Khz que el estándar redbook dejó para ese filtro brickwall. De ello surgen los dos problemas principales del redbook: 1- no se pueden hacer filtros tan perfectos, y por lo tanto igual se siguen colando frecuencias que generan aliasing en el redbook, y 2- el uso de filtros tan violentos genera "ringing" de impulsos y corrimiento de fases de los armónicos. Y estos dos son problemas MUY graves en la fidelidad auditiva. Este segundo punto es la principal omisión del redbook, y es LA causa por la cual los CD suenan "duros" o "ásperos"; y no porque la señal no sea lo suficientemente redonda. Si el problema del filtro no existiera en redbook el formato sonaría casi perfecto y simplemente no existirían formatos de mayor sampling. Eso si, en cuanto al bitrate es un poco más dudoso el asunto, y allí tb sospecho que no aquilataron suficientemente el problema de los errores de cuantificación que ya hemos tratado en los últimos post. Esos errores son importantes no porque el headroom logrado sea insuficiente (teóricamente lo es, y de hecho es mucho, mucho mejor que en un vinilo), sino porque raramente se puede aprovechar por completo, o regularmente la señal audible (en un pianissimo por ejemplo) solo está un poco por sobre ese piso y por lo tanto lo haría presente por comparación; y entonces la presencia de un piso de ruido cercano sí es relevante. --- b) Sobre lo segundo: esto del dithering es uno de los problemas más interesantes y más estudiados de la teoría de la digitalización, y no es un asunto del audio no más, es de cualquier dominio donde se aplique digitalización. El dithering se usa en procesamiento de imágenes, de video, o hasta en el procesamiento bursátil en los programas que procesan una serie temporal de precios para detectar eventuales señales en ellos. Se usa en todo, es parte esencial del procesamiento de señales, y no un problema técnico que se esté tratando de enmascarar. Es parte de la definición del problema. --- c) Sobre tu tercer punto: MQA NO USA COMPRESIÓN (al menos no en forma distinta que cualquier otro archivo digital no lossy; y si la usaran, hay que estar conscientes que Gerzon y Craven eran absolutos expertos en procesamiento lossless, de hecho fueron ellos quienes definieron el estándar DVD para ello). Lo que hace es reemplazar el ruido blanco del piso de ruido capturado por un canal de datos escondido allí, con información que trae de bandas supra-aurales y con instrucciones específicas para el DAC de cómo reemplazar los filtros estándares de un redbook por otros más sofisticados. MQA no "arruga" las cartas del mazo de naipes para hacerlas más compactas, lo que hace es barajarlas de distinta manera. Ahora bien, para hacerlo trabaja fuertemente con el Noise-shaping de ese piso de ruido para ganar espacio para la altura en bits de lo que está trayendo en ese canal de datos (el contenido sobre 20 Khz, que no tiene más de 5 ó 6 bits en todo caso). Como el piso de ruido resultante ahora son datos enmascarados como ruido, el resultado obviamente no es igual al ruido del un CD con el que GoldenSound y Archimago lo quieren comparar. Pero esa sola pretensión de comparación es completamente estúpida si se entiende el problema que se está analizando. Sería como decir que a Neruda le cambiaron el poema porque el color del papel de una segunda edición es distinto...Si te interesa documentar la "primera edición" del poema sí es relevante (archivamiento); si en cambio te interesa preservar o incluso mejorar la comprensión del poema no lo es (y esto es lo que no interesa, no? que la música suene más de acorde a las intenciones con que sus creadores la hicieron originalmente, reflejadas en el master). Además de eso MQA aplica unos filtros extendidos (para el reemplazo del brickwall, evitando con filtros benignos los efectos comentados al principio). Estos otros filtros eventualmente recortarían la señal en las octavas superiores, lo cual es fuente de nuevas diferencias respecto del CD en las comparaciones de Archimago... pero solo si se miden señales anti-naturales tales como ondas cuadradas, pues la música real jamás tiene grandes amplitudes en esas octavas que pudieran sufrir pérdidas por ese recorte. Nuevamente, MQA no es un formato para registrar fotos de la NASA enviadas por el Curiosity, es para procesar música. Esto último es la mayor fuente de críticas de estos dos gallos al formato, y paradójicamente es lo que explica el por qué MQA suena distinto (yo creo que mejor, otros acá que creen que no). Pero ese es todo el punto de hacerlo: para que NO suenen igual, y no para que suenen igual...! Lo que MQA hace es sacarle contenido "anti-natural" al archivo, que en el CD sí existía (lo que he llamado "grasa" en varios post). --- Sobre tu reflexión final: el asunto acá es que todo el mundo tiene acostumbrada las pailas a las anomalías del audio heredadas por estos esquemas (el vinilo agrega otras tan importantes como estas creo yo). Eso lo sienten algunos acá como sonido "orgánico". Yo creo que es precisamente lo contrario: es sonido pichicateado, pero rico a algunas pailas.
-
El negocio de las baterías de litio (y esto antes del crecimiento explosivo de su precio), ha sido suficientemente jugoso para que en unos 10 años el chino Zeng Yuqun se haya convertido en la 29a persona más rica del mundo (más que el propio Jack Ma de Alibaba), y para que solo en el depto de R&D de CATL se emplee a más de 10 mil profesionales. Una de las partes más relevantes de su éxito es haberse asegurado provisión de litio... ese que tenemos de la partida, en mejores condiciones y calidad que nadie más en el mundo. Un chino puede hacerlo, pero nosotros no... https://www.wired.com/story/catl-china-battery-production-evs/?mbid=social_twitter&utm_social-type=owned&utm_brand=wired&utm_source=twitter&utm_medium=social Pero su callado imperio tiene cuestionado la continuación de su crecimiento explosivo en el futuro porque los fabricantes dudan de depender de un solo proveedor. Oportunidad para otros, en resumen. Sin embargo, hay esperanzas de que cambie la cosa: https://www.bloomberglinea.com/2022/06/23/rey-del-litio-ungido-en-dictadura-de-chile-ve-fortuna-de-us3500-millones-en-riesgo/ De este último artículo, un gráfico que muestra la consecuencia de "mis precios soñados", salto que se produjo en simultáneo que discutíamos sobre esta "ficción" mía acá:
-
Ok Mark, tienes razón. En procesos ADC, el dithering se hace antes de la conversión a digital. También hay dithering digital, como en el caso de downsampling. Todo el resto de lo discutido sigue vigente en todo caso, que se haga en dominio digital o antes en análogo no cambia nada el concepto. Quizás un concepto digno de destacar en esto es que cuando se hace antes (en ADC), se agrega ruido blanco para hacerlo (hay varias técnicas posibles). Cuando ya es en dominio digital, se "randomiza" (se hace aleatoria y no siguiendo un patrón de los samplings) la data del piso de ruido capturado. Muy buen artículo el de cn-william.com, justo había caído en el mismo unos minutos antes de tu mensaje. Todos los días se puede aprender algo. Muchas gracias.
-
Segunda parte: Una vez hecho ese "dithering" (y sorry que insista, pero DEBE ser digital, no hay corrección posible de errores de cuantificación si estos no están ya digitalizados; tú mismo Mark dijiste que los downsampling requieren dithering, lo cual obviamente implica hacerlos en dominio digital), se puede redistribuir ese basal de ruido blanco resultante. Eso es el Noise shaping. Este es un ejemplo de un Noise shaping hecho en un downsampling de 24/96 a 16/44: Como se ve, el ruido general en las áreas audibles baja (se gana headroom), y se traslada sobre 16K en este caso, donde el oído no lo percibirá (curvas de Fletcher Munson, actualizado ahora con más precisión en el estándar ISO 226). En un archivo de 24 bits este noise shaping, si fuera solo para ganar headroom sería innecesario (pero sí lo es para evitar los aliasing que genera), pues ya el headroom es mucho mayor que el oído puede percibir. MQA lo que hace es usarlo de todas maneras para ganar zonas de mayor amplitud en bitrate bajo el umbral de ruido, en donde colocar el canal escondido de datos. Supongo que es así pues el piso de ruido resultante del noise shaping en 24 bits es muy abajo, y no tiene amplitud necesaria para capturar el bitrate (reducido, 5 ó 6 bits) de las frecuencias supra-rurales. Al modelar el ruido crean áreas de altura suficiente para que esa data quepa debajo del umbral de ruido. Dicho sea de paso, esto es una especulación más o menos informada: si se fijan en el espectrograma del tercer gráfico del post citado (el del closeup de 20 a 2 Khz), el pulso de 1 Khz no sube instantáneamente, sino es una especie de pirámide cóncava invadiendo para los lados un lote de frecuencias de amplitud decreciente. Esta es la espectrografía del "ringing" que provocan los filtros antialiasing necesarios en elredbook, y es lo que MQA evita. En la espectrografía de un archivo como este pero en MQA, esto se vería como un salto casi instantáneo, tan vertical en el closeup como se ve en la vista más general. Esto es la reducción del "time smearing", desde los 5000 uS de un redbook a los 10 uS de un MQA, que hace la respuesta a impulsos del archivo virtualmente instantánea (le quita "grasa" al archivo). Lo anterior se logra por efecto del reemplazo de filtros antialiasing tipo brickwall por filtros extendidos que no producen este ringing (entre otras razones, las otras son mucho más complejas de explicar), lo cual es posible por haber extendido la captura a 88, 96, 192 o incluso 352K ( a más sampling, mejor el resultado). Esto solo se puede hacer en MQA, pues envía al DAC codificación o instrucciones respecto de las características de los filtros que se usarán para ese archivo en específico. (el filtro brickwall es reemplazado por un filtro variable asociado a las características del archivo que se está convirtiendo). Se escuchará como el forro, dicen algunos acá, pero yo al menos lo encuentro de una inteligencia formidable...
-
En todo caso, no para Mark sino para otros en que todo esto puede parecer un poco vago, acá unos gráficos que explican muy básicamente el asunto: El diferencial entre la señal verde (la análoga de entrada) y la amarilla (la resolución resultante del sampling y bitrate usado), genera un diferencia que que puede constituirse en una señal audible (la línea roja). En un archivo 16/44, y por descomposición Fourier, se muestra esta espectrografía típica de esa señal: Todo las barritas inferiores son el "ruido" de la linea roja del primer gráfico. Ese es el d(t). Un closeup entre 20 y 2 Khz muestra esto en más detalle: Todas esas puntas levantadas podrían escucharse como una señal agregada a la sinusoidal original, eventualmente en un volumen audible. Para evitar eso se hace "dithering". que agrega ruido que enmascara ese posible "señal" espúrea, quedando el archivo así: Eso sería.
-
OK, voy a leer el artículo que posteaste. En todo caso hasta donde entiendo, tiene que haber un d(t) para que puedas "ditheriarlo". Si no hay un archivo digital, mal puedes entonces hacerle ese dithering (al menos como yo lo estoy entendiendo); así he visto descrito el tema en cuanto artículo he leído. Pero claro, puedo haberlos entendido mal. Y si, un proceso fundamental en los downsampling es hacer dithering. Si no se hace queda la escoba, hasta donde sé. Sí, Shannon especificaba como condición una banda limitada en rango, y (creo) no hablaba específicamente de filtros; es decir, el suponía un perfecto filtro vertical en la frecuencia de Nyquist, imposible en la práctica (de allí los problemas del redbook). Pero estos están implícitos, no hay otra forma de limitarla que no sea con un filtro. Si extiendes la banda a regiones supra-rurales igual debes aplicar un filtro, solo más lejos, pues de todas maneras potencialmente se te puede colar información fuera de esa banda limitada. De hecho, creo que es ese EL beneficio de Qobuz: desplaza el filtro antialiasing más arriba, reduciendo (pero no eliminando) sus efectos aurales. Pero no "densificando" el sampling como ellos se publicitan, pues eso no existe. También creo (corrígeme please si estoy equivocado), que Shannon teorizaba fundamentalmente por el sampling, y menos por el bitrate (me imagino que en los años 40 ni siquiera soñaban con bitrates de 64 bits), que es de donde se producen los errores de cuantificación. Tengo por allí el famoso artículo de Shannon, tendría que leerlo a ver cuánto profundiza en la "vertical" (bitrate) además de la "horizontal" (sampling). En resumen, tengo la impresión que error de cuantificación y teoría de Shannon solo se tocan posteriormente con la evolución de las teorías de digitalización, no porque Shannon haya tratado este tema en profundidad (si es que siquiera lo trató). A propósito, en Curiosity Channel hay un documental muy interesante sobre Shannon, "The BitPlayer", que lo recomiendo efusivamente. De su memoria de master "A Symbolic Analysis of Relay and Switching Circuits" de 1937, que sistematizó el pensar en la data como computable, llegaron a decir que fue la más importante producida en el siglo 20... y después de eso publicó su aún más famosa teoría de las comunicaciones digitales, que estamos comentando acá. Todo un personaje. Interesante conversa esta en todo caso.
-
Cambio climático antropogénico: verdad o mentira?
pbanados respondió a Robert de Saint-Loup en topic Solo Jugo
Ay @AudioLuthier... Stephen Hawkins te habría sugerido un paseito por Venus para que aprecies el futuro con que sueñas, o con el que al menos te resignas... Independiente de la causa del calentamiento global (y la inmensa mayoría de la ciencia cree que es antropocéntrica), si al 2050 no hemos logrado bajar la temperatura del planeta en al menos 1.5 grados... hasta acá no más llegó la raza humana, el abismo climático será inevitable después de ello. Y pinta mal la cosa hasta ahora. Mi hija está viviendo desde hace unos meses en Francia, en la zona más caliente del país, cerca de Bordeaux, que en latitud vendría a ser como Coyhaique. Hace 8 años atrás hubo un reportaje en la tele francesa en que analizaban alarmados cómo esperaban que esa zona aún forestada como es tendría sobre 40 grados en verano para el año 2040. La semana pasada tuvieron 41 grados varios días... 33 en la noche. Sobre los autos eléctricos: de acuerdo, y el camino es el transporte público de calidad (aún así reemplazar combustión por litio como forma de transición es harto menos malo). Creo que uno de los más cínicos en esto del activismo ecológico es Musk. Un verdadero hdp manipulador, estafador, insaciable y egocéntrico... en nombre de una ecología que le da exactamente un coco. -
A todo esto, aunque es obvio, faltó una acotación importante: las técnicas de dithering y noise sharing se hacen en etapa ADC, no DAC hasta donde entiendo. El archivo que tu lees ya viene con ese tratamiento, y no sé si existe oportunidad de nuevas correcciones similares en la conversión digital-análoga, o aún si tuvieran sentido si fueran posibles. Otra cosa: el noise sharing aumenta la relación señal ruido perceptible, desde los teóricos -96db en un 16 bitrate, creo que se llega hasta unos -120 db; y en 24 bits, de -144 a unos -168 db (más o menos, no me acuerdo las cifras exactas). La verdad no sé con qué ponderación se mide esto: A-weighted, C-weighted, etc. Como nota al margen, entiendo que la A-weighted, siendo las más comúnmente usada, está siendo bastante cuestionada en la actualidad. En MQA esta técnica de noise-shaping se usa (más allá de su uso habitual en procesos sigma-delta) para modelar el espacio para el canal de datos escondido bajo el umbral de ruido (para contener el 'origami' de la data sobre 22.05Khz y para las instrucciones al DAC). Esta es otra más de las razones por las cuales los test de GoldenSound están fuera de lugar: trataron de medir correspondencia bit a bit incluso en el espectro basal de ruido, cuando se sabe de la partida que ese ruido será de distinta distribución y por lo tanto no hay posibilidad alguna de esa correspondencia. Es imposible que no haya conocido esto y por lo cual estaba consciente de la partida que la técnica con que estaba midiendo era errónea: el test lo que en realidad está comprobando es que donde él quiere encontrar "ruido", hay data.... Sin embargo esta es una de las principales razones por las cuales este tipo argumenta que el formato es "lossy" (*). Pero es un asunto que no solo no tiene impacto auditivo, sino que mejora la calidad audible del archivo, al haber menos ruido perceptible. En ASR Amir hizo unos análisis de archivos hires y MQA donde se ve muy claramente este efecto: ganar headroom en zonas auditivamente sensibles, y disminuirlo en otras no audibles. (*): y claro, si uno es un especie de ortodoxo religioso del audio es "lossy"; pero en el contenido musical y audible no lo es. Esa ha sido siempre la discusión con el formato... no sirve para "archivar", sino para reproducir música real.
-
Bueno, eso es una explicación más sencilla de lo mismo que puse arriba. Ese d(t) es en un archivo de 16 bits de un máximo posible de 3.01 db, que trasladado como "piso de ruido" resulta en una señal semi-aleatoria a -96db, lo cual es el límite inferior del headroom máximo del formato (para los 16 bits del ejemplo; -144 db en 24 bits) . Lo de semi-aletatoria depende de los diferenciales registrados en cada sampling. Ese diferencial según cada caso en particular puede o no constituirse en la sumatoria de varios sampling en una señal "interpretable" por el DAC en vez de ruido, y por lo tanto para que transforme en ruido blanco (aleatorio) efectivo y no en una potencial señal interpretatable (armónica, inarmónica, para el caso señal), hay que hacerle dithering. En todo caso creo que es importante diferenciar entre este "dithering" y el "noise shaping", que son cosas distintas.
-
Gracias por el comentario, es un agrado leer comentarios técnicos y no puro tufete meramente apreciativo (con dos mil factores que lo pueden distorsionar) o infundamentado, lo que se ha vuelto habitual acá cada vez que uno quiere profundizar algo en estos temas. Por eso rompo el silencio que me había auto-impuesto acá. En realidad lo de la imposibilidad del la función de reconstrucción sinc(x) no lo dijo Bozon, lo dije yo mismo anticipándome a lo que pensé que el comentaría, y estoy de acuerdo que es correcto, por el largo infinito de señal requerido (y además por las imperfecciones inherentes de los filtros antialiasing, especialmente en sampling bajos de 44.1K). Sin embargo entiendo que sí es muy mejorable y práctico con funciones de reconstrucción alternativas tales como funciones bspline, que si bien teóricamente requerirían también extensiones grandes, la gravitación de amplitud de los samplings alejados es tan pequeña que los hace irrelevantes. De hecho, con estas funciones se logra una reconstrucción de la onda análoga aún más precisa que con la sinc(x) propuesta por Shannon, haciendo aún más irrelevante la interpolación. Estoy actualmente leyendo un documento bastante complejo sobre el tema "Sampling - 50 Years After Shannon", de Michael Unser, pero todavía no lo digiero lo suficiente para comentarlo. En principio entiendo que los DACs (todos?) usan interpolación más que nada por implementar procesos sigma-delta en vez de la reconstrucción originalmente propuesta por Shannon. No entiendo completamente aún los tecnicismos de los procesos sigma-delta (tb me interesa aprenderlos, por mera curiosidad), pero básicamente lo que estos hacen es registrar no la magnitud absoluta de cada sampling, sino el diferencial de amplitud respecto del sampling anterior. Eso entre otras cosas permite mejorar significativamente la relación señal-ruido, pues procesando un diferencial menor de amplitud del sampling, introducen menos energía en el proceso, por tanto menos ruido (sorry la burda simplificación, ya dije que aún no lo entiendo por completo). Además, y de allí creo la necesidad de interpolación, esto permite usar en la reconstrucción filtros convolucionales. Estos filtros requieren "ver" varios sampling antes y posteriores para procesar el "buffer" de reconstrucción. Al interpolar, el espacio temporal ocupado para esto es menor (los x sampling previos y posteriores a la señal requeridos barren menos tiempo), y por lo tanto la conversión tiene menos lag temporal (y aún así la tienen, yo lo he comprobado con los DAC Chord, por ejemplo). Por supuesto, ninguna de las dos cosas anteriores tiene que ver con que si Qobuz o Tidal suenan mejor, sino son temas de implementación del DAC. Pero si demuestra la mentira flagrante de Qobuz al decir que por que usan un sampling mayor... redondean la señal, pues en primer lugar, esos sampling adicionales no están entre los samplings del 44.1K, sino los extienden a 48K o 96K. Esa abierta mentira me imagino que debe espantar a cualquier ingeniero conocedor del tema. --- Sobre el error de cuantificación, lo que entiendo: por descomposición Fourier (FFT), el error por diferencial en amplitud entre del bitrate usado y la curva análoga a digitar genera un diferencial de señal que es traducible por ese FFT como un "ruido" basal (ese es el piso potencial de ruido de un archivo, independiente del ruido capturado en la grabación ), que en un archivo de 16 bits es del orden de 3.01 db, que se traduce en un piso de ruido de -96db. Efectivamente, un proceso requerido para que ese ruido "semi-aleatorio" sea realmente ruido blanco es hacerle "dithering" o "ensuciamiento" a ese ruido, de lo contrario debido a su naturaleza poco controlada podría ser interpretado por el DAC como una señal válida de bajo nivel . Dicho sea de paso, ese es uno de los errores BÁSICOS, de absoluto principiante, que los famosos test de GoldenSound sobre MQA cometió (por los cuales para la perplejidad de gente técnica después hasta tipos como Paul Gowan de PSAudio se han apoyado para decir que MQA es "lossy"...): no le hizo "dithering" a la señal, y por lo tanto sus test muestran fenómenos de aliasing. Una vez hecho este dithering, es relativamente común además "modelar" ese ruido basal mediante Noise Shaping (de hecho, es parte fundamental del proceso MQA), que básicamente redistribuye ese ruido minimizando su amplitud en las zonas más audibles del oído para llevarlo a las zonas más enmascaradas por nuestro basal de percepción (o sea, menos ruido en los medios, más en los extremos, para el mismo ruido total). Nuevamente, los "padres" del Noise Shaping y sus avances definitivos fueron los ingenieros de audio de Oxford, UK... Michael Gerzon y Peter Craven, a su vez los padres conceptuales del MQA. Ellos dedicaron literalmente décadas y publicaron decenas de papers en sistematizar este asunto del Noise Shaping. Gerzon se ganó la Gold Medalla de la AES por ello (uno de las pocas decenas de ingenieros que han obtenido ese premio en los 75 años de historia de esta, la más importante sociedad de audio del mundo).
-
Cambio climático antropogénico: verdad o mentira?
pbanados respondió a Robert de Saint-Loup en topic Solo Jugo
Estaría de acuerdo con esa incredulidad si a quien estuviéramos criticando fuera a los industriales alemanes... pero la crítica era al partido Verde, que me imagino que es el polo opuesto al poder económico oligarca alemán. Aún más loable entonces el que los verdes estén dispuestos a transar *temporalmente* por uno de sus principios más básicos, con tal de parar a Putin. -
Cambio climático antropogénico: verdad o mentira?
pbanados respondió a Robert de Saint-Loup en topic Solo Jugo
¿Y cuál sería el punto? A mi modo de ver lo de los ecologistas alemanes es diferenciar entre lo importante y lo urgente. Putin (empoderado por Trump) asesina inocentes hoy, el desastre climático o el azufre de Ventanas se demora un poco más, pero matará inocentes tb. No es aceptable lo que pasa en Ucrania y con tal de parar esta matanza están dispuestos a una flexibilidad temporal mientras se logra modificar la dependencia energética con Rusia, dado que no puede dejarse al país (Alemania) sin energía. En vez de criticarlos los debiéramos aplaudir: con dolor de su alma están dispuestos a hacer un sacrificio (quemar carbón) por los demás. -
Cambio climático antropogénico: verdad o mentira?
pbanados respondió a Robert de Saint-Loup en topic Solo Jugo
Ah si? En 40 años, desde 1979 (que ya es una base pésima), los hielos árticos han disminuido un 31% a fines del verano del hemisferio norte (1979, linea verde clara: 6.9 MM km2 vs 2019, linea café: 4.2 MM km2). En 2021 (linea verde oscura) se recuperó un poco por efectos del encierro mundial por pandemia, pero la tendencia no solo es clara, sino que hace rato pasó de ser "solo" alarmante, sino probablemente irreversible. El absoluto mínimo se produjo en 2012, con 3.4 MM km2. Desde entonces algo de conciencia medioambiental se ha producido en el mundo, aunque sospecho que ya demasiado tarde. -
Otra cosa: parece un poco rara esa proporción, pues el autor quedaría como a 4 mts de la pared frontal y 5 mts de la de atrás (mucho espacio detrás del auditor... como para una mesa de pool? ). Pero eso es muy bueno, pues el rebote de ondas traseras llegan bien atrasadas y amortiguadas de vuelta al sweet-spot de escucha. Pero si hay que cuidar que el auditor no quede justo en el centro de la sala (acá estaría casi al centro), pues agarraría la mayor amplificación de modos. Por eso una vez definido un layout básica, hay que hacerle los ajustes del caso.
-
Rodrigo, Yo iría por partes. Las primeras consideraciones: 1- Proporciones de la sala. La receta de tía paulina es usar proporción áurea para sus dimensiones [ (1+√5)/2 ]. Osea 1: 1.1618. 2- Triángulo equilátero entre parlantes y punto de escucha (después el parlante específico puede adaptar algo esto: Harbeth prefiere alargar la distancia de escucha; Audio Physic lo contrario, prefiere el auditor más cerca - o lo que es lo mismo, los parlantes más separados-). Como sé que usted no se anda con chicas con sus parlantes, consideraría preliminarmente un triángulo de 3m. 3- Que los parlantes queden bien separados de los muros laterales Y EL DE ATRÁS. Al menos un metro, idealmente un poco más. Según eso y el tamaño tentativo que quieres, una buena proporción sería 5.5 de ancho, 8.9 (o 9.0) de largo, ... pero 3.4 metros de alto idealmente (harto). Mi sala actual se acerca a esas proporciones, pero flaquea en el alto que es de solo 2.35, y solo eso me genera unos problemas de modos considerables. El volumen de unos 165 m3 significa que necesitarás watts y parlantes grandes... pero me tinca que esa es la idea de todas maneras.... Con esa base, después hay que ver si la haces menos cuadrada (idealmente sin muros paralelos, sobre todo los dos laterales), y los tratamientos de los muros, donde irán las ventanas, que tan aislando del resto de la casa necesita ser, etc. Sobre tratamientos: lo más importante es que sea simétrica respecto del eje de los parlantes, y que los muros de atrás de los parlantes y el opuesto sean bien absorbentes. Libreros o los discos podrían ser un buen candidato. Hay por supuesto mucho más que ver después, pero con esa base se puede empezar a pensar el asunto. Felicitaciones! Tenemos la idea de hacer algo similar nosotros (irnos al sur, con sala acústica incluida, por supuesto...).
-
No es por tí @Bozon. Es por otros personajes que hacen insufrible este foro. En vez de agradecer que uno trate de comunicar lo que aprende, te tiran caca cada vez que pueden. Por último, si uno no está de acuerdo, podrían tratar de discutir con argumentos. Pero, mal chilensis, en vez de argumentar, el asunto acá es descalificar a quien piensa distinto cada vez que se tiene la más mínima oportunidad. Y cuando tratas de parar el asunto, hasta las personas que estimas del foro te critican (caso "CV"de hace unos días). Deprimente. No encajo en esta dinámica. Me cabrié.
-
Como hecho de menos @Bozon tu respuesta a mi último y larguísimo post, y dada mi intencional omisión a abordar el asunto de Chord que mencionaste, me anticipo (que grato hubiera sido poder dialogar racionalmente más seguido en vez de estar recibiendo solo puyas...): En estricto rigor se le podría hacer una crítica a mi post anterior, en el sentido que la función sinc(x) de reconstrucción es efectivamente imposible de realizar, pues se necesitaría un perfecto filtro brick-wall para que ocurriera - lo cual es imposible de hacer-, por lo cual el relleno entre samplings teórico por los ripples de la función sin(x), si bien sigue produciéndose, es menos perfecto de lo que la teoría de Shannon predecía. Ello por supuesto tendría importancia si creyéramos que el oído puede rellenar esas discontinuidades intermedias (yo personalmente lo dudo). Hay además una evidente contradicción entre evitar los brick-wall (lo que MQA implementa) para evitar "time smearing" de la señal; pero a la vez necesitarlos para reconstruir la "redondez" entre samplings (MQA no fabrica chips de DAC y depende de las implementaciones DAC de los fabricantes, pero si lo hiciera, creo que tratarían de hacer algo parecido a Chord, pues ambos se enfocan en el time domain de la señal). Intuyo esta es básicamente la contienda entre quienes a) creen que Shannon no lo explicaba todo y los humanos si pueden resolver esas redondeces de señal entre samplings a 2Fs, y que en cambio los desfases de armónicos e instantaneidad de impulsos serían irrelevantes [y aquí Chord sería protagonista top], vs b) quienes creen lo contrario: que Shannon estaba bien y no podemos resolver esos gaps entre samplings, pero que el "time smearing" de la señal general si es extremadamente relevante, como también lo es la instantaneidad de respuesta a impulsos. Es una u otra: por eso los DAC Chord son incompatibles con MQA (si bien no estoy seguro si no podrían serlo con algunos ajustes técnicos en su implementación). Este tema para ser honesto me queda aún un poco grande, pero según entiendo esto es una de las cosas que aborda las tecnologías DAC sigma-delta, vs las peak-and-hold (totalmente obsoletas, pero que Chord ocupa como contraste para respaldar el por qué su tecnología sería superior). Y ahora... Chord. He leído varias veces los papers y artículos de Chord tratando de entender bien lo que hacen. Y a mi (parcial) entender: La gran gracia de Chord es que reemplaza la función sinc(x) de un DAC tradicional por una reconstrucción de cada pulso de la señal mediante filtros FIR. Así, el oversampling de Chord NO es (al menos como principio, sino una consecuencia) para rellenar huecos entre samplings, sino que son implementados para darle más espacio de acción a los filtros FIR con que ellos reconstruyen los pulsos de la señal, buscando ese levante instantáneo de señal en el sampling que una función sinc(x) de un DAC tradicional no puede hacer a la perfección. El número de taps a usar en un filtro FIR es directamente proporcional a los samplings que usaran sus buffers; por lo tanto para lograr esos pulsos instantáneos sin un retraso exagerado de la señal (los filtros FIR diseñados para linearidad de fase "retrasan" la salida algún tiempo x), necesitan tener más samplings por la misma unidad de tiempo. Y eso es lo que hace el "upscaler" de Chord (que por si solo vale como US$10.000): aumentar groseramente los sampling por unidad dee tiempo, para que el filtro FIR sea lo más instantáneo posible. Ya no tengo un DAC Chord, pero usé uno bastante tiempo, y una característica que me llamó inmediatamente la atención es que la señal salía con algún retraso (milisegundos) y no en forma instantánea. Eso hacía un poco más compleja las comparaciones A/B por ejemplo. Ahora creo tener más claro por qué es esto. Y esto es lo más curioso a mi juicio de toda esta discusión: el aspecto de MQA que reniegan sus críticos es por angas o mangas, lo que tanto MQA como Chord terminan preocupados: la instantaneidad de respuesta a impulsos, o dicho de otra forma, sacarle la grasa a los archivos pcm. Chord cree, en contradicción a Shannon y como muchos acá que esa grasa está entre samplings; MQA cree que la grasa está en el contenido audible más general (más macro), y en eso lo respalda la ciencia (no solo el teoría de Shannon, también las investigaciones en time domain recientes). --- Un última recomendación: comparar el Division Bell de Pink Floyd, MQA24/192 azul en Tidal y 24/192 en Qobuz. Creo que con esto termino mi participación en el hilo y probablemente en todo el foro. Lamento haberlos importunado con comentarios que trataban de transmitir lo que he aprendido de este tema, y tratar de presentar en forma más o menos objetiva este asunto que suponía era de interés de todos. Que disfruten de Qobuz, yo ciertamente seguiré disfrutando de Tidal.
-
lo discutimos acá en otro hilo? (si los admin lo prefieren, favor mover este post a otro hilo): Sampling: 1-la "escalera" en un 44/16 tiene un paso de 1/40.000avo de segundo (media onda de 20 Khz). Es usual mostrar esta escalera muy "jagged" como si cada peldaño fuera gigantesco, pero la verdad es que ese step es todo lo pequeño que tu oído es capaz de resolver (y eso solo si tienes el oído de <10% de la población que escucha 20 Khz, y solo si tienes menos de, digamos, 25 años). No sacas absolutamente nada con interpolar (para estos efectos) puntos intermedios en la curva, pues físicamente tu aparato auditivo es incapaz de resolverlo. En el hilo del oído podrás ver la razón: un calculo rápido es que los cilios deben moverse para captar esa frecuencia de 20 Khz unas mil veces menos que el aire (esto es así pues lo que mueve los cilios es un líquido, no aire). El largo de medio ciclo de onda de 20 Khz (en aire) es de 4 mm. El cilio y el nervio auditivo asociado a él debe captar un movimiento de 0.004 milímetros. Para captar "redondeces" más allá de 20 Khz tendría que resolver movimientos aún menores. 2- Pero aún si tuvieras oído de murciélago y pudieras resolverlo, es innecesario. Lo que el teorema de Nyquist-Shannon dice es que si el ancho espectral es limitado (algo más arriba de 20 Khz en el caso del redbook), cualquier señal puede reconstruirse INEQUIVOCAMENTE con un sampling igual a el doble de la máxima frecuencia de ese ancho espectral. Como una analogía, sería lo mismo que decir que una recta nos resultaría más recta porque la describo no solo con los puntos de sus extremos, sino que añado unos del medio. Para describir cualquier curva compuesta por X sinusoides distintas, basta tener muestreos el doble de la máxima sinusoide que va a contener mi señal. Cualquier dato adicional es redundante. 3- Lo anterior queda más claro cuando se tiene en cuenta que lo que se almacena en una información digitalizada por un ADC no es una "escalera" (que es una representación simplificada del asunto), sino las alturas de los pulsos en cada sampling (ver gráfico de la derecha arriba). Cuando el DAC convierte esos pulsos en un señal análoga, no existe forma de reconstruir pulsos que instantáneamente pasen de 0 a la altura deseada, pues todo sistema tiene inercia. Esa inercia se describe con la función trigonométrica sinc(x), un pequeño ringing previo y posterior la altura a que quiero llegar. La sumatoria de funciones sinc(x) de cada sampling va sumando en los puntos intermedios entre sampling esos ringing, con el resultado que el espacio es llenado… justo donde estaba la curva análoga inicial. En el gráfico, la onda reconstruida es el trazo negro, que es virtualmente idéntico a la señal análoga original. No es necesario interpolar, pues la sumatoria de ringings de cada impulso de los samplings al reconstruir la señal análoga efectivamente también reconstruyen la curva intermedia. Más precisión aún se logra con funciones alternativas a la sinc(x), pero eso es hilar demasiado fino. 4-Lo anterior es tan claro que incluso para gran parte del espectro (en la medida que la onda compuesta no tenga armónicos superiores a 10 Khz), se podría digitalizar a la perfección con aún menos samplings que 44K. Y si pudieras resolver un detalle mayor que el de sampling de 44K, entonces necesariamente tendrías que escuchar más allá de 20 Khz, como Shannon lo demostró por allí por 1942… Interpolación: 1- La interpolación no se usa para generar esos rellenos intermedios en la reconstrucción de la onda compuesta, pues ya está visto que es innecesario. La principal utilidad de la interpolación es distribuir el ruido del sampling en más samplings, bajando así la relación S/N. BitRate: 1- Efectivamente el bitrate está asociado al error de cuantificación: la distancia que existe entre el punto discretizado y la curva análoga real se traduce en un error de cuantificación, que a través de FFT se podría reducir a una composición espectral de baja amplitud que es básicamente aleatorio, o sea, ruido (ver gráfico) . Cuan baja? 6.02 bits x bitrate: ese ruido (S/N: Signal to noise) en 16 bits será 6.02x16= 96 db más abajo que la máxima amplitud de onda a registrar. En el gráfico se ve el error de cuantificación en verde a distintos bitrate. En 16 bits es imposible ver ese error a esta escala. El oído tampoco lo puede "ver": 2- Pues bien, dado que en cualquier espacio de escucha el piso de ruido ambiental (ruido de la calle, estufas, lo que sea) es de al menos 35 db (y eso en condiciones absolutamente ideales, lo normal de cualquier casa o depto nada más cerca de los 45 db), tendrías que escuchar a 35+96= 131 db en las cosas de que suenan a máxima amplitud para tener la chance de escuchar ese ruido. O sea, tendrías que reventar tus tímpanos en cosa de segundos. Pero aún si te empeñas en auto flagelarte, tampoco lo escucharías: Por un lado, la propia grabación tiene por los micrófonos y electrónica usada, una S/N menor a esos 96db. Pero además es sabido que los volúmenes altos enmascaran los más bajos. Si bien el cálculo exacto está relacionado con las frecuencias relativas del sonido fuerte y el débil, es virtualmente imposible escuchar algo que esté unos 50 ó 60 db más bajo que la señal más fuerte. 3- Claro, si no hay nada sonando, y pusiste el volumen tan fuerte que eres capaz de levantar esos -96db del ruido de un 16/44 para que en completo silencio de música suene por sobre el ruido ambiental de 35 db; al segundo que empiece a sonar la música… serías aniquilado por el cono del woofer atravesando tu pecho, disparado por un impulso de 130 db. Pero no te preocupes tanto, no lo escucharías, antes de que el cono te mate, ya estarías sordo… 4- En un archivo de 24 bits, el S/N no es de -96db, sino -144db, menor al ruido inducido por los capacitores y el resto de la electrónica del amplificador que usarás. Como esa menor relación S/N es totalmente innecesaria, al capturar en 24 bits estás tratando de resolver cosas que ya no solo tu oído no puede captar, sino incluso cualquier elemento de tu cadena electrónica. 5- Esa observación, la discrepancia entre S/N de 144 db y el ruido real ambiental y de otra clase, es lo que llevó a MQA a determinar que ese espacio de varios bits (7 bits en el caso de un 24/XX) podría ser mejor utilizado en agregar un canal de datos enmascarado bajo ese ruido basal. Eso permite no solo el origami de MQA (el trasladar la data capturada sobre 24 Khz a ese lugar), sino también a la codificación de instrucciones que recibirá tu DAC para procesar ese archivo. Eso a mi juicio es una revolución en toda la tecnología de digitalización, quizás una de las mas grandes que ha habido desde que Shannon en los años 40 construyó las bases de la teoría digital. Pero lamentablemente eso es absolutamente no entendido por GoldenSound, sus tests, y sus fieles seguidores. Antialiasing: 1- Un aspecto frecuentemente olvidado de la teorema de Nyquist-Shannon es que el ancho espectral no puede ser infinito, debe estar limitado; de lo contrario el algoritmo de digitalización o analogización entrarían en contradicciones, y una misma señal se podría interpretar de dos maneras distintas. Eso se llama “aliasing”. Esta imagen muestra como con un sampling insuficiente se puede construir ya sea la onda azul o la roja. La roja serían señales rebotadas hacia a tres en el espectro audible, provocadas como espejo en el filtro Nyquist (explicado en el sgte punto): 2- Para evitar ese aliasing, la señal de entrada al digitalizar debe ser filtrada con un filtro pasabajos (antes de digitalizar, y por lo tanto son filtros análogos). El problema de los filtros, especialmente los análogos, es que van corriendo temporalmente los armónicos en una señal compuesta. Peor aún, mientras más violento sea el filtro, más corrimiento de armónicos generará. Como el redbook deja un espacio minúsculo para este filtro: desde 20Khz a 22.05 Khz (1/7 de octava), y debe cortar la señal en esos 96 db (o sea, es un filtro tipo brick-wall, de cientos de db/octava), y ese filtro resultante genera enormes desfases temporales de los armónicos: tanto como 5000uS (micro segundos), cuando el oído es capaz de detectar tan poco como 8 a 10 uS. Eso se traduce en dos problemas: a) la forma de onda resultante discrepa de la original, mucho más que lo resolvería la innecesaria interpolación ya comentada. Los instrumentos no suenan exactamente igual, con un error que queda incrustado en la grabación. Suenan “ásperos”, pues ese error es “inarmónico” a la señal fundamental, y de naturaleza semi aleatoria. b) Más grave aún, estos desfases de armónicos generan en el dominio del tiempo (y no frecuencia; una señal sonora tiene siempre esos dos aspectos) el fenómeno de “ringing”, que se traduce en molestias auditivas (de nuevo, lo áspero de un CD) y lentitud a la respuesta a impulsos (los ataques de cada instrumento son más lentos, todo suena más pastoso). Esto es lo que algunos llaman el “time smearing” y “borrosidad” de la señal. Pues bien, el oído humano es MUCHO más sensible a estos alteraciones temporales que a la respuesta de frecuencia. Y es una capacidad que no se pierde con la edad. 3- Esta resolución temporal es la que MQA soluciona. Ningún otro formato digital lo hace. Por un lado aumenta el sampling, permitiendo desplazar el término del filtro antialiasing más adentro (lo mismo hace un archivo hires 24/96, pero aún manteniendo el filtro tipo brick-wall en esa frecuencia de nyquist desplazada). Pero además reemplaza el filtro brick-wall por uno mucho más suave, tan suave como quizás 12db/octava, pues invade con el filtro el espectro adsudible (no me quiero alargar más en esto), con un filtro además que es adaptado al contenido auditivo de lo que se ha grabado: si por alguna razón el material contuviera armónicos superiores de mucha amplitud, ese filtro sería menos suave; si es un material “musical” normal, ese filtro es mucho más suave no girando el “time smearing”. El filtro además no es un simple pasabajos, sino del tipo FIR de curvatura adaptable al contenido a filtrar. El canal de datos escondido bajo ruido contiene instrucciones al DAC para configurar este filtro FIR. Este es el único formato digital para música que puede hacer esto: contener en el propio archivo las instrucciones de cómo interpretarlo. —- En rigor, a pesar de lo largo, esta es todavía una explicación muy simplificada, que no aborda por ejemplo el asunto de los procesos sigma-delta de los DACS, que hacen aún más innecesario un mayor sampling/bitrate. Ojalá se haya entendido.
-
Qué improvisación o discos de estudio estan escuchando ahora?
pbanados respondió a Tomhate en topic Jazz y Blues
Oded Tzur , 'Isabela', ECM 2022. OMG. qué discazo!! realmente deslumbrante este cuarteto de Oded Tzur, cada disco mejor que el anterior... lo único malo es que es muy corto, solo 35 minutos. Uno de los mejores que he escuchado este año fuera de los clásicos históricos del jazz. Un par de datos interesantes: la foto de la carátula es del famoso fotógrafo brasileño Sebastiao Salgado. Y la grabación no fue en estudio, sino en un auditorio en Suiza (sin público), y creo que se nota por la reverberancia que tienen los instrumentos (puede ser el mismo de la foto de este cuarteto abajo). El ingeniero de sonido fue Stefano Amelio, capo entre capos entre los que siempre graban en ECM. Dice Tzur que es una carta de amor; también parece que habría referencias/inspiraciones en el personaje Isabela de Shakespeare en su obra 'Measure by Measure'. Como sea, el disco es realmente hermoso. -
No sabía que uno estaba obligado a contestar todo: también me alegan que posteo mucho y muy largo... Y honestamente, sospecho que entonces sabía menos de este tema (sobre teoría de digitalización) de lo que conozco ahora. Mal podría copiarle Qobuz a Tidal, pues el artículo se publicó antes que MQA y Tidal llegaran a un acuerdo (y creo que el MQA todavía ni siquiera era un producto comercial; y Qobuz es como 10 años más antiguo que Tidal). Además esa gráfica es de Tidal, no de MQA, quienes hasta donde sé no usan ese tipo de gráfica, y adicionalmente explican con lujo de detalles (en lenguaje complicado, de acuerdo) qué es lo que hacen, que no tiene nada que ver con eso. Más aún, al inicio de las explicaciones de MQA en cada artículo divulgatorio que han publicado parten por echar por tierra este mito de la densidad de sampling (vs lo que realmente pasa con los formatos de amplio sampling: no densifican, sino extienden el sampling a regiones supra-rurales). Qobuz mientras tanto se queda en el monito, e incluso abundan en texto en la idea, aumentando el engaño. En todo caso estoy de acuerdo que esa tb es una gráfica confusa. Disculpando a ambos streaming el tema es complejo explicar, es claro que incluso entre audiófilos son pocos los que realmente lo entienden. Hay sitios (me acuerdo ahora de un foro mexicano por ejemplo) en que han hecho hasta videos de horas de extensión abundando sobre este error -para de paso criticar a MQA-, con un grado de ignorancia que realmente llega a dar vergüenza ajena. Para entender bien este asunto, hay que primero comprender algunos aspectos básicos de la teoría de digitalización, lo cual no es fácil, requiere de bastante lectura. En este mismo foro varios comentarios (como que la redondez "análoga" de la señal sería lo que haría sonar mejor a Qobuz, se la compraron completita....) demuestran que al parecer la mayoría no la entiende. El último comentario del artículo que copié de kirkville es mío -posteado ayer-, e intento explicar allí por qué ese gráfico y los claims de Qobuz son absolutamente falsos. No lo voy a repetir acá, pero si a alguien le interesa puedo comentarlo en otro hilo, en uno de MQA por ejemplo. No es breve de explicar en todo caso si uno quiere (yo querría) que quede totalmente claro el asunto. Ahora mi pregunta @Patagonia: si la explicación de la escalera es falsa, te quedan dos alternativas: a) o no crees que un sampling/bitrate alto mejore nada y todo este pajeo de Qobuz o Tidal vale hongo; o b) sí crees que los formatos hires suenan mejor. Si es la segunda alternativa la que optas, ¿cuál crees tú que sería la explicación para que esos hires suenen mejor?