Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

pbanados

Miembros
  • Contenido

    3.388
  • Registrado

  • Última Visita

  • Días ganados

    67

Todo lo que pbanados posteó

  1. Peace Piece es uno de los temas de Bill Evans que después de escucharlo no puedes dejar de fanatizarte con el gallo. Mi locura con Evans partió con un CD de compilación de Verve que me compré mas o menos en la prehistoria, donde entre puras joyas estaba el tema de la película Espartaco (la con Kirk Douglas). Otro tema de Evans que me mató ligerito es una version espectacular del tema de la serie M*A*S*H. ("Suicide is Painless"). Está en el disco extraordinario "You Must Believe in Spring", parte de la seguidilla de discos de Evans que compré después de escuchar esa compilación de Verve. El problema que tengo con Evans es que los discos que he escuchado de él son tan, pero tan buenos, que cuando lo quiero escuchar termino siempre poniéndolos de nuevo, en vez de explorar en el resto de su enorme catálogo. De los que he escuchado (ni la mitad de lo que hizo), los mejores para mi serían: - Las dos de las sesiones en el Village Vanguard: Sunday at the Village Vanguard y Waltz for Debby (con el monstruo de Scott LaFaro, que se murió atropellado justo después de estas grabaciones). Oro puro. - Everybody Digs Bill Evans - You Must Believe in Spring - Trio 64 - Trio 65 - Conversations with Myself (solo, en tres!! pianos dubeados...) El año pasado en una feria de vinilos me compré una compilación japonesa (mezcla de dos discos) de la etapa tardía de Evans en los años 70, en vivo, tocando en piano eléctrico en uno de los temas. Sorprendente tb (y eso que el tipo estaba totalmente reventado por las drogas para entonces). Deben haber decenas de otros extraordinarios, sin duda.
  2. Fabián: no te ha dado problemas de conexión? Yo compré una Samsung Q60 desde hace un año aprox, y la verdad es que no estoy para nada contento. A menudo pierde conexión a la wifi, otras dice estar conectado a la wifi pero no a la internet (cuando todos los demás aparatos si la están viendo). He tenido que reconfigurar entera la conexión más de una vez para que vuelva a conectarse a internet, ya que no se recupera ni aún apagando la tele. Hay películas que hemos tenido que terminar de ver en el ipad porque no hay caso que vuelva a conectarse... También encuentro que los colores son extremadamente pichicateados. En algunos modos de visualización realmente no se ve nada en las escenas oscuras, por ejemplo. Al final solo usamos el modo básico, el único que falsea un poco menos la imagen, y aún así en algunas pelis hay que cerrar las cortinas o no se ve ni wea. Otra: las apps de Samsung para Netflix o Amazon son realmente miserables (aunque no sé si eso es culpa de la tele o de los servicios). En Amazon tiende a titilar la imagen tb (pero no en netflix u otras) Estaba muy disconforme con una cajita AppleTV que usaba antes, pero al lado de la interface del Samsung es una maravilla. Tanto, que estoy que vuelvo a comprar una caja AppleTV 4k. Lo bueno: soporta airplay, tiene la app de Apple TV+ (por si a alguien le interesa ver las 4 leserillas locas que hay allí...) , y algún contenido 4k -que no sea muy oscuro- se ve muy bien. A mis viejos les regalé la que tu tienes, y a pesar que es algo más barata, creo que tiene menos problemas que esta, aunque también se les cae la wifi a menudo (y no se ve nada si la miras un poco de lado eso si).
  3. Lo que Stuart describe como alteraciones temporales serían en realidad modificaciones de fase de la señal. Tener en cuenta que los filtros se aplican antes de la conversión, por lo cual son análogos. Todos los filtros análogos alteran la fase de la señal. En simple, porque deben retrasar la señal para que el filtro "vea" un poco en el futuro (no sé explicar en detalle este fenómeno, pero pongo un link útil). Más aún, mientras más marcado el filtro (más db/octava), más grande la alteración de fase de la onda. Además todos los filtros tienen un "hombro" de transición, donde su comportamiento deja de ser lineal. Curiosamente, la explicación de Bob Watts para su diseño único de los DAC Chord (creo que no hay otro DAC diseñado con la tecnología de estos) es muy coincidente con este tema que Stuart pone en el centro (no alterar fase de la señal). Personalmente encuentro que los Chord suenan distinto (mejor) que cualquier otro que he probado, y quizás sea porque alterarían menos la fase de la señal. https://en.wikipedia.org/wiki/Low-pass_filter#Time_response https://www.moon-audio.com/files/chord/chord-tech-profile-hifi-critic.pdf
  4. El Bluesound 2i anda re bien y te sirve de DAC tb, por lo que puedes bajar su costo vendiendo el Topping. Creo que ese Classé tiene bastante más de 15, pero es super bueno.
  5. Siguiendo con Saft, este disco está increíble, con Swallow en bajo y Previte en batería. Además, realmente la cagó lo bien que suena. Fue grabado en análogo, directo a two-track. El que hicieron los mismos tres gallos justo después de este con Iggy Pop fue la misma cosa, directo al two-track, y además cuentan que solo quedaron las primeras tomas en el disco. Iggy Pop tb registró la primera toma de sus tres temas, aunque se grabó por su cuenta en otro estudio.
  6. https://jamiesaft.com/video/ En el primer video está Jamie Saft probando el piano Steinway de Horowitz...(de los más grandes pianistas de la historia). Interesantes los comentarios que hace sobre el piano, como en la mitad del video.
  7. Oh ZHAR, me has sonrojado... muchas gracias por tus hermosas palabras.. (tono en broma, fondo en serio). Y si, ese disco es tremendo... (entiendo que es el que lanzó a la fama a Evans). Si, me parece que el goce de un disco es exponencialmente mayor a más concentrado lo escuches. Me he puesto medio talibán en esto: creo que el respeto al artista, que se ha sacado la cresta para hacer lo que te está presentando, te exige un nivel de involucramiento. El principal beneficiado es uno mismo: hay pocas cosas más choras que ser sorprendido por la belleza de una obra de arte. Lo lamentable en mi caso al menos es no tocar ningún instrumento y apenas leer música, que creo significa no tener nada suficientemente cultivado el oído para detectar la finura compositiva de cierta música (Beethoven, por ejemplo, extremando el argumento). Por ejemplo, escuché de nuevo el disco de arriba de Jamie Saft. El tipo es un prodigio al piano, y su conocimiento musical debe ser muy amplio. Valiente además, ni se arruga para intentar sonar como el cuarteto de Coltrane. Los diálogos que tiene con el saxo (el capo de Liebman) son impresionantes: me dio la impresión que en algunos temas el piano, en su acompañamiento de los solos del saxo, le va cambiando la escala varias veces y el saxo responde al vuelo a estos giros. Qué ganas de poder cachar técnicamente ese tipo de detalles... A propósito, el disco de Saft con Iggy Pop (Loneliness Road) es extrardinario tb.
  8. A todo esto, es interesante el por qué de la palabra "aliasing" (efecto bien explicado en el paper que puso cristiangarcia). Viene de "alias". Un sub-muestro hace que aparezcan para el traductor de la data frecuencias "alias" de la frecuencia real que se estaba convirtiendo. El caso más patente es el efecto moiré en las imágenes. Si a una misma imagen que contiene efecto moiré la capturas a mayor resolución, ese moiré mágicamente desaparece. En audio el equivalente al moiré serían frecuencias fantasmas (ruidos) que aparecen en la reproducción, que no estaban en contenido original.
  9. Creo que no es solo densidad de sampling el asunto, si no que hay algunos tecnicismos adicionales, pero no he llegado a esa parte de la explicación (ese "adicional" es el que haría al MQA más 'limpio' que el 24/196). Pero aún si no existiera ese extra y en rigor un 24/196 y un MQA sonaran idéntico, te queda pendiente la segunda gracia del MQA: entender que en todos los formatos de fuerza bruta existe una enorme cantidad de espacio desperdiciado (que dicho sea de paso, es mayor a más denso el sampling). El MQA encontró una forma de aprovechar ese espacio perdido con su famoso origami, llenando ese espacio con la data capturada por sobre el sampleo de 48K, sin generar pérdida auditiva alguna en el proceso.
  10. Bueno, pensé que a estas alturas eso estaba clarísimo, de hecho eso es precisamente lo que traté de explicar en los post anteriores: si en la conversión análoga- digital (ADC) haces menos muestreos que el doble de la onda más alta, el resultado no será exacto, pues habrán frecuencias enmascaradas que el proceso inverso (DAC) no podrá resolver. El resultado es ambiguo, y por lo tanto no es posible hacer una conversión inversa exacta (lossless). Ese ES el teorema de Nyquist-Shannon. El enunciado para que el teorema funcione es que no existan frecuencias por sobre la mitad del sampling. Nyquist especuló sobre esto, y Shannon años después lo pudo demostrar. El problema inverso: si haces más muestreos que el doble de la frecuencia más alta, estarás capturando información redundante, que no sirve de nada. Más aún, es probable que por falta de precisión del sistema de captura, esta data adicional genere ambigüedades. Entre otros problemas, estas ambigüedades (por sub o sobre sampleo) son una de las principales fuentes de aliasing (que en ámbitos visuales es lo que produce el efecto moiré). De los dos puntos anteriores se infiere que si se hace un sampling más alto, se está extendiendo el espectro a capturar, no se está densificando muestreos en el mismo espectro acotado inicial. Que es exactamente lo que el MQA dice. Si ya mataste al animal, no sacas nada con seguir disparándole, excepto malgastar tus balas. "para evitar eso (frecuencias por sobre la mitad de la densidad de sampling) se usan filtros": ese es el quid del asunto con el MQA. Cuando se está muestreando a un sampling determinado y tienes frecuencias más altas que lo que te permite ese sampling (y siempre las tienes, especialmente en samplings bajos como 16/44), tienes que filtrar. El uso de filtros pasabajos es parte esencial del protocolo de conversión digital en cualquier formato. Pero como no existen filtros perfectos (que caigan infinitos decibeles por octava), igual se introducen frecuencias que hacen inexacta la captura (le meten "ruido"), porque según N-S, no hay sampling suficientes para resolver este contenido "espúreo" sin ambigüedades. Más serio aún, según Meridian: al aplicar esos filtros se altera la definición "micro temporal" del contenido capturado y el oído sería, según investigaciones de la neurociencia, aún más sensible a estas alteraciones micro temporales que incluso al propio espectro de frecuencias que se está registrando. Este tema de coherencia temporal no es abordado por ningún formato de captura de "fuerza bruta". Esto es el asunto más fundamental de lo que el MQA pretende corregir con, entre otras medidas, captura a samplings más altos. Además, encontró una forma táctica de comprimir ese contenido adicional dentro del mismo espacio de un 24/48 normal.
  11. mmm... no es lo que entendí sobre N-S (obviamente puedo estar equivocado). Si se cuelan en la captura (ADC) frecuencias más altas de los que el sampling permite, el proceso de cuantificación entrará en ambigüedades, las que se traducen en ruido y en la imposibilidad de hacer la conversión inversa (DAC) completamente lossless, porque la traducción tendría que resolver divergencias en la data para las cuales no tendría un criterio, pues su límite está definido por el sampling adoptado, y no puede inferir más allá de él.
  12. Si, pero ojo que la duda no era de este señor Stuart, sino mía. 1- lo que dices es lo que yo tb pienso: un mayor sampling lo que hace es extender el registro a frecuencias más altas, no densificar el muestreo en las mismas frecuencias, lo cual es innecesario, según Nyquist-Shannon (N-S). Que es justamente lo que dice Stuart. Por lo tanto, la primera piedra basal del MQA quedaría despejada. El punto es fundamental, pues todo lo que viene a posterior se basa en esta suposición: un 24/192 muestrea 4X más arriba en frecuencias que un 24/48. Si alguien hiciera un pcm 24/192 limitando el registro a, digamos, 20 Khz, estaría ocupando esa mayor densidad de captura haciendo más muestreos por octava audible. Por lo tanto, no le cree al teorema de N-S, o cree que el oído puede detectar putos intermedios más allá de lo que el teorema dice (pero si fuese así, se tendría que hacer cargo de explicar otras contradicciones fundamentales que matemáticamente aparecerían). Y ojo: no es que N-S diga que "aportan poco": hasta donde entiendo, el teorema dice que no aportan NADA los muestreos mayores que 2*f (f:frecuencia más alta a registrar). 2- Eso que describes se describe en audio (según estos documentos) como error de cuantificación, es inherente a cualquier proceso de conversión análogo-digital, y como dices es dependiente de la profundidad de bits (bit-rate) del muestreo. El resultado de este error es la relación señal/ruido propia de cadas formato de sampling, y está MUY DETALLADAMENTE analizado en los documentos de Stuart. Un punto importante en esto es la introducción de filtros anti-aliasing. Sin ellos, los errores bajo el umbral de ruido (por el efecto de aliasing, o superposición de data) empezaría a mostrar patrones audibles. Ese filtro anti-aliasing (para hacer verdaderamente random el ruido, procedimiento explicado latamente en los documentos ) hace que la señal ruido de un 16/44 no sea los teóricos 98db, sino 93db. Sin embargo, la capacidad de 16 bits es de algo así como 136 db. Ese diferencial es espacio no utilizado en redbook, y es donde uno de los doblajes del origami se almacena. También es importante esto porque si la condición de "lossless" se mide de análogo (instrumento capturado) a análogo (señal que saldrá por tus parlantes), y no solo dentro del dominio digital, ya en esta etapa ese teórico "lossless" es imposible aunque tuvieras el micrófono y el parlante perfectos, por las limitaciones propias de los procesos de conversión análogo-digital. 3- Obvio, nada que comentar. Sobre tu par de párrafos finales: Me parece que mal interpretaste mi post. No es eso lo que el señor Stuart dice. Lo que dice es que si capturas a una densidad de muestreo de 44K, podrás capturar señales de hasta 22 Khz (por N-S). Si aumentas el sampling, por ejemplo a 96K, aumentarás la frecuencia máxima capturada a 48 Khz, por la misma razón. Mi duda (no de Stuart) era si en vez de extender el rango capturado, los pcm de mayor densidad no hacían más que aumentar la cantidad de muestreos en el mismo rango limitado de frecuencias. Lo que dice N-S, y Stuart, es que esa mayor densidad no tiene sentido, sería data redundante y propensa a aumentar errores. El punto es crucial, porque para que el teorema de N-S se cumpla, no pueden existir frecuencias capturadas sobre el máximo que permite el sampling. Pero como estas inevitablemente sí existen (muchos instrumentos, por ejemplo, tienen armónicos sobre 20Khz; ruidos de cinta; etc), al hacer la digitalización se deben aplicar filtros pasabajos sobre los 20 Khz. Y como no existen los filtros perfectos (llamados "brickwall") que corten absolutamente a partir de un punto, se cuelan frecuencias que alteran hacia abajo en el proceso de cuantificación al contenido audible (además de lo más importante según MQA: el filtro mismo altera el contenido micro-temporal de la señal capturada). Una de las ideas más fundamentales del MQA es que se capture a mayores sampling, para que el efecto de estos filtros pasabajos empiece a actuar en frecuencias más altas y no alteren el rango audible. Sobre el comentario de grx: no sé por qué un archivo pcm 24/192 no bluffea y MQA sí cuando dice que tratará de trabajar con esos sampling. Ambos acceden a la misma información original para generar sus archivos. Explícitamente el MQA dice que lo hará reprocesando a partir de los master (MQA: "Master Quality Authenticated"), por lo cual, no entiendo donde está el bluffeo. Si las fuentes están digitales y en un sampling menor (para masters análogos es otro cuento), no pueden hacer magia: ni MQA, ni tampoco el HDTracks.
  13. Esta serie es una especie de House of Cards, pero con la finura de los daneses. Parece que tiene como 10 años y recién la están streameando (parece que para preparar al público para una nueva temporada que haría Netflix). MUY entretenida, vamos en la segunda temporada (de tres), ojalá no guatee como House of Cards. Te hace envidiar el contraste de cómo manejan la verdadera política en el mundo civilizado, y hecha por gente normal, o al menos como cualquiera de nosotros... ay, chilito...
  14. Tb rallé con Twin Peaks. Como dice este gallo, su "expansión de la lógica", el uso espectacular de la banda sonora, la composición de los planos, la estética kitsch, como te deja marcando ocupado cada 5 minutos, uff, una bomba visual. Te deja de inmediato esa sensación que estás viendo una verdadera obra de arte. Hace tiempo que tengo pensado repetírmela, parece que está llegando el momento.
  15. Te caché: me estai picando la guía a ver cuán pegado puedo ser... . Pero capaz que siga el consejo... En todo caso, según Stuart los master MQA (que están grabados a 24/192) serían mejores que un archivo pcm 24/192. Pero aún no llego a la explicación de por qué sería esto, ya que por lógica debiera ser distinta (algo adicional) de lo explicado en los post previos, porque de ellos se desprende lo contrario: serían iguales en calidad auditiva (solo el MQA más chico de tamaño)
  16. si, soy reiterativo, ok? . Quedan en todo caso los otras decenas de archivos master que he escuchado que los percibo sonando mejor que que los mismos que no son. Reitero en cada post en el asunto porque quiero dejar totalmente claro que encuentro que los master Tidal sí suenan mejor, pero que no sé si se deba necesariamente al MQA per se. He seguido leyendo los documentos del link de Stereophile/Stuart. Partí con cierto escepticismo, pero de a poco me he ido convenciendo que capaz que no sea puro chamullo esto del MQA. Las explicaciones son bastante completas, aunque un poco crípticas (*): demandan bastante esfuerzo y lectura complementaria para entenderlas a cabalidad (cosa que aún no logro). En todo caso el resumen muy simplificado que hice arriba más o menos corresponde, aunque la cosa es harto más compleja y específica que lo que anoté. (*): y no creo que sean crípticas por una estrategia marketera de oscurecer una cosa que no tiene real fundamento, sino simplemente porque para entender a cabalidad el asunto se requiere de mucho background técnico (esto es órdenes de magnitud más complejo que simplemente un tema de si es o no es "lossless"), y creo que también por una cierta incapacidad de Stuart de hablar en simple. --- No obstante, tengo dos dudas bien fundamentales, que según su respuesta apoyan o echan por la borda toda la construcción posterior en la fundamentación MQA: 1- Todo el análisis de Stuart se basa en que los sampling más altos no "densifican" muestreo en el espectro audible, sino lo extienden a rangos sobre lo audible. ¿Es realmente así, o en realidad los mayores sampling "densifican" el muestreo dentro del espectro audible ("disminuyen el tamaño del pixel")? Lo sostiene Stuart basado en el teorema de Shannon-Nyquist, que el muestreo queda inequívocamente definido con un sampling duplicando de la frecuencia más alta a registrar. Para que se entienda: cuando por ej aumentan el sampling de 48K a 96K, según Stuart se aumenta el rango de audio registrado hasta 48Khz; no es que se dupliquen los muestreos hasta 24 Khz (cifras redondeadas para la explicación). La razón del teorema sería la misma, buscando una analogía, por la cual en gráfica un vector de una línea basta describirlo con las coordenadas del punto de inicio y de término. Si dispones de dos puntos más en la descripción, no te los gastas en encontrar dos puntos intermedios de esas líneas, porque no te aporta nada nuevo en su descripción y en cambio esta redundancia lo más probable es que implique mayor imprecisión, si no hay perfecto calce de coordenadas en esos sampling intermedios.. (implicando aliasing, o efecto moiré en otros ámbitos). 2- Mi segunda duda es si el teorema de Shannon es aplicable al oído también, o su campo es solo para reconstrucción análoga de una señal digitalizada. En respaldo que sí sería válido también para el oído podría argumentarse con un ejemplo que se me ocurrió unos post atrás: si podemos discriminar más denso que el doble de la frecuencia, entonces en un pito cercano a los 20 Khz alguien con buena paila podría diferenciar una onda sinusoidal de una triangular, por ejemplo. Pero para diferenciar esa onda triangular, tendrías la paradoja de tener que escuchar los armónicos (sinusoidales) sobre 20 Khz que la construyen; o sea, tendrías que escuchar sobre esos 20 Khz. Y está más o menos aceptado que nadie escucha sobre 20Khz. El problema para los escépticos del MQA sería que si la respuesta es afirmativa para ambas dudas (o sea: los sampling altos NO densifican sino extienden el rango registrado; y Nyquist vale para el oído y no solo para la reconstrucción digital), tendrían que encontrar una razón oscura por la cual los sampling altos suenan mejor (a menos que de eso tb duden), que no sería ninguna relacionada con esa "fuerza bruta" de los mayores samplings. Esas razón, según Stuart, es la componente "micro temporal" de las señales análogas, que los sampling bajos alteran, y a las cuales el oído humano es sumamente sensible (...y acá entra entonces la neurociencia...).
  17. Ambrose Akinmusire- On the Tender... Supe de este gallo por como sonaba la trompeta en los discos del guitarrista Wolfgang Muthspiel. Muy interesante disco y bien grabado a pesar de no ser ECM como los de Muthspiel. Tiene varios más, que voy a explorar.
  18. Prog rock de los 70, grupo italiano Banco del Mutuo Scoccorso (primer disco de ellos). Alucinante. Creo que los ví mencionados en este hilo por primera vez, no los conocía.
  19. No, por qué perdón, si acá nadie y especialmente en este tema tiene la papa; estamos todos aprendiendo. Re buen comentario además sobre la neurociencia. Si uno duda y piensa que todo esto del MQA es una pura pomada de marketing, debiera partir por cuestionar si sus fundamentos son errados o no (por ej: ¿suena mejor lo análogo?, ¿está en lo cierto el teorema de Shannon?, ¿se escuchan mejor los sampling más altos? Si está bien Shannon y a la vez se escucha mejor a sampling más densos, entonces ¿cuál es la razón que suenen mejor, si según Shannon no sería la mayor resolución?, etc). Tu cuestionarías si estos argumentos neurológicos tienen fundamento real. Me parece muy bien focalizar la crítica en aspectos concretos. En descargo de Meridian/Stuart en el tema de la neurociencia a la que alude, sus documentos tienen muchísimas referencias (algunas con links incluidos) sobre las investigaciones científicas que avalarían lo que sostiene. A mi me quedan grande en todo caso.
  20. Pienso que cuando Stuart alude a la neurociencia es básicamente referido a tres observaciones: 1- la nula capacidad humana de escucha bajo el límite de ruido basal. En condiciones ideales el ruido basal del redbook (Signal to noise ratio S/N) es de -93db, pero los 16 bits del redbook permiten registrar teóricamente 144 db. El diferencial es espacio perdido en el formato redbook. 2- La percepción de ese ruido es además dependiente de la señal contra la cual se compara. Se sienten más los ruidos que están en frecuencias cercanas a las señales sonoras de ese momento. Es también dependiente de las frecuencias. El limite basal del ruido no es por tanto parejo, y varía según las señales musicales grabadas y el espectro de estas. Si se va a usar el umbral de ruido, se debe analizar estadísticamente el contenido musical contra el cual este se compara. 3- Y la piedra roseta del MQA: capacidad del oído de percibir las alteraciones temporales de la música, a las cuales el oído sería aún mas sensible que a la respuesta de frecuencia. ESTE ES EL ASPECTO QUE HACE SONAR MEJOR A LOS SAMPLING ALTOS, Y NO EL MAYOR SAMPLING PER SE, que según Nyquist no produciría ninguna resolución adicional. Dice Stuart que esta alteración temporal de las señales (que produce lo que llama "blurr") se evidencia (simplificadamente) en música en dos aspectos: la capacidad de resolver separadamente dos eventos sonoros muy cercanos en el tiempo (medido en microsegundos, que el redbook no puede resolver); y la coherencia temporal entre canales, por ejemplo de una señal estéreo. Ambas cosas son las que hacen que en vez de oírse nítido y claro, como en una señal análoga, el formato flac estandar se escucha más "borroso" y/o "áspero". Los mayores sampling suenan mejor no porque redondeen más la señal grabada, sino porque alteran menos su coherencia temporal. -- Los postulados fundamentales del MQA, según lo anterior y por lo que entiendo hasta ahora, serían: A- los pcm toman en cuenta solo la data abstracta (son "agnósticos"), pero no la capacidad humana de procesar esa data ("neurociencia"). El problema de mayor calidad lo reducen por tanto solo a mayor cantidad de data (mayores samplings y bitrates). Pero esto de aumentar la densidad (sampling) se contradice con el teorema de Nyquist-Shannon, que indica que samplear a mayores densidades en un espectro acotado de frecuencias (ej: 20 -20.000 hz) es innecesario, porque bastaría con que el sampling duplique la frecuencia más alta. B- Sin embargo, los sampling más altos SI suenan mejor (y la señal análoga, mejor aún). La razón *neurocientífica* es la sensibilidad temporal de oído, que por un lado es mucho mayor a lo que el 16/44 puede resolver, y por otro lado esa coherencia temporal es alterada por los filtros que deben aplicarse a las grabaciones digitales. A menor el sampling, más abajo las frecuencias afectadas por estas alteraciones temporales de los filtros. Si todo esto es cierto, no hay "distorsiones agradables" (a la tubos) en esta explicación neurocientífica, sino simplemente el asunto de cómo el oído-cerebro procesa los sonidos en cosas que el estándar redbook no toma en cuenta. -- Lo que propone el MQA entonces, es: I- grabar desde los masters análogos (o, pienso, remasterear si estos son digitales y de baja densidad de sampling) a un mucho mayor sampling que redbook. Con esto evitan las alteraciones de los filtros en el espectro auditivo, y en un formato que tiene mejor resolución temporal. II- encapsular (doblaje origami) esa mayor información debajo de los umbrales de ruido (que son variables y dependientes del contenido estadístico de la música registrada). El archivo resultante es de la calidad de un sampling alto (ej:24/192), pero ocupando el espacio de un 16/44. Se ha insistido tanto acá que el archivo MQA sería lossy que por ahora no tengo más que aceptarlo. Pero según todo lo anterior, eso sería una crítica abstracta (si hubiera pérdidas, - no estoy convencido de ello-, sería debajo del umbral de ruido y por tanto irrelevantes), porque por definición el MQA tiene mucha más resolución *en el espectro audible* - aún medido en bitrates y sampling- que un redbook. --- Se me ocurren un par de analogías, primera: cuando se critica que el MQA sería lossy, porque "pierde" (¿pierde realmente?) información bajo el umbral de ruido, sería como decir que la economía chilena no funciona porque hace años se abolieron los centavos del peso y por lo tanto es de matemática imprecisa. Puede que la economía no funcione, pero no es porque descarte información irrelevante.... segunda analogía, ahora sobre el tema del umbral de ruido: El presidente de Chile ha sido criticado varias veces por usar gráficos "amañados", donde muestra la cabeza de la curva y no el gráfico completo, con lo cual las diferencias en las curvas se amplifican. Esto sería tramposo, porque en esos datos nos interesan las cifras totales, no los diferenciales solamente. Lo que sostiene Meridian es que en música, en cambio, eso es precisamente lo que hay que hacer, porque al oido no resuelve la amplitud total de la data (el valor absoluto de esta), sino el diferencial de esta data relativa a la linea de base del ruido, no a 0 db o silencio absoluto. El problema del redbook es que registra el total absoluto de la amplitud a cada instante, y no solo lo que hay sobre ese umbral auditivo. Por eso el formato pierde entre 3 y 4 bits registrando data que no sirve (de allí la famosa discusión de los 13 vs 16 bits). Ese diferencial es el que MQA aprovecha para meter en el mismo espacio la mayor data resultante de samplear a mayor densidad. Ojo, todo lo anterior es mi interpretación un poco libre de los documentos de Meridian, que concedo no son fáciles de digerir. Si alguien quiere corregir esto, bienvenido.
  21. Eso es como pedirle a la Microsoft que publique el código fuente del windows o del excel. Obvio que perderán un feroz negocio. A mi me parece legítimo proteger su propiedad intelectual. Si uno no quiere pagar por ello, no lo ocupes no más, pero pedirles que sean puros franciscanos no es un poco mucho? en lo de comparar 90% de *datos* del mp3 vs el 100% de *música* del mqa te encuentro razón, si es que meridian está hablando de datos y no de música en el mp3 (no lo sé).
  22. Es que el pcm original no existe... mal puedes entonces compararlo. Precisamente el asunto del mqa es que no pude trabajar sobre los pcm originales, sino se requiere construir masters de mayor sampling. si te refieres al mismo disco histórico en flac, habría que saber cuánto mejoraron la remezcla (si lo hicieron) en el proceso de remasterización, en cuyo caso estaríamos atribuyendo al mqa un mejor sonido por cosas que no tiene que ver con la tecnología. pero de que hay muchos mqa que suenan indudablemente mejor que los originales, para mi no hay duda. Sin saber si eso se debe al propio mqa o a un remezclado, no te puedo garantizar entonces que eso se deba al mqa mismo.
  23. Si, describir como ridiculizar el hecho que entrecomilles el término puede ser exagerado. Pero en todo caso es claro que ese entrecomillado es para poner en duda su validez ¿ o no? Y a qué cosa exactamente te refieres con “prácticas deleznables”? Porque en el tenor de la crítica (y ojo, no digo necesariamente que no tengas razón) parece muy relacionada con ver esto de la neurociencia como un embolinar la perdiz. ¿Es eso? Tampoco entiendo es la insistencia con el asunto de las pérdidas (pérdidas respecto de qué, además?): qué importa eso, si no se escucha? Si insistes, ¿debe ser porque no crees que no tiene impacto auditivo?
×
×
  • Crear Nuevo...