Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

pbanados

Miembros
  • Contenido

    3.388
  • Registrado

  • Última Visita

  • Días ganados

    67

Todo lo que pbanados posteó

  1. Este disco que me prestó @CarlosGomez: Que es leído así por el Mytek, conectado por cable óptico al cd-player Sony de abajo:
  2. En rigor es un poco más grande que un CD normal. En vez de ser 16/44, es 24/44 (el archivo sería aprox un 50% más grande (*)). El cable óptico está transmitiendo esa densidad de data (24/44); es el DAC el que después expande el archivo hasta llegar a los 24/352. cualquier cable debiera poder transmitir esa tasa de data. Logran meter una densidad 24/352 porque queda encapsulada en (si me acuerdo bien) en los primeros 7 bits de esos 24 (esos 7 bits inferiores aún en un archivo normal del 24 bits es solo ruido basal), enmascarados como si fueran más de ese mismo ruido. Los 17 bits restantes , sumado al noise-shaping, dan más headroom de lo que cualquier persona puede escuchar, e incluso casi cualquier amplifificador puede resolver. La data cabe en esos 7 bits porque lo que captura desde 22 Khz hacia arriba es el "filón" de música que hay en la zona supra-aural, y no todo el espacio (ya que el resto es solo espacio sin usar por arriba o piso de ruido por abajo). Para usar de nuevo una analogía, el MQA hace mining "subterráneo" y no a "tajo abierto". (*): la gracia es que el archivo será del mismo porte aunque el contenido expandido sea 24/88, 24/96, 24/172, o 24/352.8. A mayor sampling, más es la diferencia de tamaño respecto de un archivo no MQA equivalente. En los ejemplos de 2L Recordings que tengo grabados, en uno de ellos el formato CD pesa 26 Mb, el MQA 62 (más que el 50%...); el 24/88 pesa 98 Mb y el DXD 24/352... 355 Mb (casi 6 veces el MQA). Y teóricamente el MQA suena igual a este último.
  3. Recibí hoy en la tarde el disco doble, solo alcancé por ahora a hacer la prueba si mi CD-player lo lee y el DAC (Mytek Brooklyn) lo interpreta. Y sí!! lo hace!!. Y nada menos que en 24/352! (son la mayoría grabaciones análogas de discos clásicos del rock de los 70; cuando los master son análogos tratan de llevar el sampling bien arriba). Mañana trataré de comparar formatos. Muchas gracias @CarlosGomez!! pero me cagaste compadre... ya estoy mirando en la web donde comprar más MQA-CD... Y sorpresa! Needle está trayendo varios... Para el resto de los foreros, despejada la duda: si mi vejestorio de CD-player usado como transporte puede usarse para mandar MQA-CD al DAC MQA-compatible, cualquier otro DAC debiera poder hacerlo. Incluso yo tengo conectado al DAC por cable óptico, e igual me lo leyó como 24/352 (ese dato aparece en la pantalla del Mytek).
  4. A ver @Patagonia, reconozco que cometí un error serio arriba. Efectivamente el sampling se mide por segundo y me dejé llevar por una explicación rápida en una de las respuestas. Pero en términos prácticos eso no cambia nada, pues ese aumento de sampling lo que hace es permitir registrar un espectro más amplio (limitado a la mitad del sampling usado; sin no se usa porque no hay ese contenido no es relevante, igual como no es relevante que en un caso concreto de un 16/44 no exista, por ejemplo, contenido sobre 10 Khz, que en muchos pasajes musicales ocurre frecuentemente. Como consecuencia, también reconozco otro error: al usar un sampling más alto, como subproducto de ello (pero no como objetivo) sí hay mayor densidad de muestras en la onda capturada. Pero esto es innecesario o esfuerzo perdido hasta al menos 1/4 del sampling usado, si no hubiera contenido a registrar sobre ese 1/4 en Hz equivalentes -no es una crítica, es un hecho de la causa en cualquier PCM-. Cuando aumentas el sampling pasa lo mismo que comentaba antes: hay una parte del espectro que estará sobre-sampleado (habrán más sampling de lo necesario para reconstruir esa onda). Voy a usar en lo que sigue el ejemplo de un 24/96: El grano más fino obtenido por ese mayor sampling permitiría resolver, si las hubiera, frecuencias hasta 48 Khz en la forma de onda compuesta, que en esa onda compuesta se verían como micro ondulaciones en la continuidad de la onda (por supuesto, imperceptibles al oído humano). Si no las hay, el sampleo estará capturando más de lo necesario (la analogía de la recta descrita con más de dos puntos) y ello no es un "error" sino un asunto de mera definición de cualquier PCM. El asunto concreto entonces para el fondo de esta discusión es que el único objetivo de ampliar el sampling no es "obtener una onda reconstruida más redonda" (pues la teoría dice - y es pura matemática el asunto, no sujeto a interpretación- que esos sobre sampleos son redundantes), sino "extender la captura a frecuencias supra-aurales". El objeto de esto, a su vez, no es que tu escuches ese contenido supra-aural, sino darle un espacio más amplio al algoritmo de sampleo (en etapa ADC) para que el imprescindible filtro anti-aliasing a aplicar sea lo menos nocivo posible. Al haber un sampling más denso, el antialiasing ya sea se desplaza a una frecuencia más alta o, mejor aún, el inicio filtro se mantiene donde mismo (iniciando en 20 Khz), pero es "tendido" o "suavizado" una o dos octavas más. (*) Sobre tu último post, el uso del filtro no es optativo, es una necesidad definida por el propio Shannon en su teoría. El "pero" no es que tenga que existir ese filtro y no que pueda fallar (aunque sí, la alteración de fases de armónicos que produce es también otro problema potencialmente serio que tiene el uso de estos filtros; y sí, en redbook no es infalible e igual se produce algún aliasing), sino las consecuencias que él trae aún si funciona perfecto (ringing en el dominio del tiempo), si el filtro que se usa es muy violento (como en redbook). Eso es lo que no consideraron los tipos de Phillips y Sony cuando definieron el estándar. En todo caso te agradezco tu comentario porque me corregiste un error que tenía hace tiempo - irrelevante, pero error conceptual al fin y al cabo- y que me tenía un poco atravesado, pues intuía que tenía un vacío allí. (*): sobre esto (y para volver a MQA del hilo) que ya haría cualquier archivo hires, el MQA hace, a mi entender, tres cosas adicionales que le permiten esta respuesta a impulsos de 3 a 10uS: 1- corre el inicio del filtro varias octavas *más atrás* de los 20 Khz. Eso porque el formato considera que en las octavas superiores de la música no hay amplitud dinámica que pudiera recortarse al aplicar ese filtro recortando los bits superiores. Por supuesto, si la hay gran amplitud en esas octavas superiores en pitos de tests, por eso el algoritmo -si se usa sin los ajustes de estudio diseñados para ello- arroja errores en test hechos por amateurs. 2- no usa un filtro "lineal", sino uno paramétrico "apodizante" que es de geometría variable (tipo "S", los parámetros definen las curvaturas de esa "S"). Uno de los autores del MQA, Peter Craven, fue quien propuso -mucho antes de MQA- este tipo de filtros que ahora son habituales en muchos DAC. La gracia del MQA es que los usaría no solo el el DAC sino en ADC también. 3- el uso de este filtro además no sería estático, sino cambiante según el contenido musical que se está digitalizando. El formato establece una "vinculación" entre los parámetros del filtro que usó en cada instante de la conversión ADC, para que el DAC haga lo opuesto, reconstruyendo la misma geometría de filtro. Esto está incrustado en el canal de datos que acompaña la música que contempla el formato.
  5. Lo que ese gráfico está mostrando es el efecto de aliasing (la linea verde segmentada) por usar un sampling más bajo que el doble de la frecuencia más alta. Esto no tiene nada que ver con lo que estábamos comentando. El sampling es definido ANTES de que se reciba ninguna información, y no se adapta a la información que va recibiendo ( no al menos en los estándares de audio).
  6. Creo que estas confundiendo dominios. Me da la impresión que con "unidad de medida" la interpretas como x tiempo (un segundo, un milisegundo o lo que sea). El sampling rate se refiere a frecuencias, no tiempo. Otra cosa: me parece que lo estás sugiriendo es que los sampling disponibles se "adaptan" a lo que se esté registrando en ese momento: en tu ejemplo si se adoptó un sampling para capturar 100 Khz (sería un sampling raro de 24/200, que no es posible porque no es binario), esos asampling si no hay contenido de agudos se van redistribuyendo en lo que realmente hay (cachai la capacidad computacional que demandaría hacer eso, necesariamente en tiempo real?). Pero no es así: Una vez definido un sampling rate, estos son repartidos en "bins" de igual magnitud en todo el espectro posible. Si no hubiera información en los "bins" más altos, todos esos bits quedan en 0 no más. Si hay un aspecto interesante en todo esto: la mayor parte del tiempo la información a capturar no tiene todo el espectro posible, y por lo tanto el sampling usado está tomando más muestras de las que en rigor son necesarias para reconstruir la señal captura EN ESE INSTANTE. En algún momento estuvo de moda los VBR (variable bit rate), que hasta donde entiendo estaban inspirados en esta observación. También entiendo que en teoría digital avanzada en otros dominios (no música), si se usan formatos de Bit rate variable. Un segundo aspecto interesante: supongo que por simplicidad matemática estos "bins" (la división espacios iguales del espectro en el sampling usado) no toma en consideración que la gravitación de frecuencias es logarítmica y no lineal. Pero eso ya es paja...aunque capaz que alguien sí trabaje sobre esto.
  7. No, no lo densifica: son el doble de samplings, pero esparcidos en 48Khz, no el doble de samplings en los 22 Khz originales. Eso es lo que es CLAVE de entender en este asunto. Si alguien quisiera malgastar esos samplings en el rango inicial, teóricamente lo podría hacer (y se ganaría el premio a la estupidez emho). Pero en la realidad, todos los formatos hires -como es lógico- lo que hacen es extender esos sampling hasta una frecuencia de la mitad del sampling usado. En tu ejemplo: 96K/2= 48 Khz. Al ganar ese espacio *inaudible* adicional no están tratando que escuches lo que un murciélago: lo que están tratando de hacer es minimizar el efecto del filtro anti-aliasing.
  8. Congratulations por la pregunta, directo al callo, acabas de desenmascarar con ella una de las mayores mentiras o mitos del audio. Sí, 192K extienden la captura hasta 96Khz, NO DENSIFICAN EL MUESTRO ENTRE 0 hz Y 22KHz,... pues según el teorema de Nyquist-Shannon de... mediados de los años 40, eso es innecesario, y hasta donde sé, ningún formato actual lo hace (densificar en vez de extender la captura). La idea, para ejemplificarlo con una analogía, es que para describir una recta solo necesitas dos puntos; si capturas más puntos de esa recta, no la harás "más recta". En una señal sinusoidal (aunque sea compleja: una fundamental con N armónicos o incluso contenido no armónico) es exactamente lo mismo: necesitas el doble de puntos que la frecuencia más alta contenida en esa señal compleja (el armónico o no armónico más alto contenida en ella). Si te empecinas en capturar más puntos, es simplemente esfuerzo redundante y en definitiva idiota. Formalmente lo que el teorema dice es que si tienes un algoritmo de reconstrucción adecuado, con 2X el sampling de la frecuencia más alta puedes reconstruir a la perfección, con toda su redondez inicial, cualquier forma de onda de entrada. Para ser rigurosos, el algoritmo propuesto por Shannon en su 'Theory of Communication' (la función sinc(x)) era técnicamente perfecto pero en la práctica NO era el adecuado, pues demandaba un tiempo infinito de reconstrucción antes y después del instante de la señal. Pero han habido muchísimos perfeccionamientos posteriores que sí logran esa reconstrucción adecuada, muy cercana a esa perfección teórica.... La gente quiere creer que un CD reproduce una escalera cuantificada como la mostrada en este gráfico. Lo que en realidad sucede es que el algoritmo de reproducción toma esos puntos y reconstruye la onda "redonda" original. En el gráfico la nota original es la gris gorda, y la reconstruida es la roja. Además abajo está el piso de ruido descompuesto, pero eso es otro cuento que no viene al caso. Y esta ya es una señal reconstruida "imperfecta" (*) porque fue usada una función sinc(x)/x sin temporalidad infinita... (los DACs en realidad reconstruyen con mucha más precisión). (*): el ejemplo es sacado de unos ejercicios de programación en Python que hice hace un tiempo, en que aproveché de practicar con este tema. Pero... AJA!!!...eso es válido solo en el dominio de frecuencias (la foto de ese instante), no en el dominio del tiempo. El problema básico es que debes asegurar que la información de entrada a capturar no sobrepase de ese 2X el sampling usado, y para eso necesitas filtrar esa señal (de lo contrario se producía el sumamente pernicioso efecto de aliasing: frecuencias fantasmas extendidas hacia abajo, a la zona audible). Siendo 20 Khz el límite de acción humano, el formato redbook del CD definió entonces un espacio entre 20 Khz y 22.05 Khz para ese filtro (por eso es 16/44 y no 16/40), lo cual resulta en un filtro del tipo "brickwall", MUY vertical (varios cientos de db/octava). Lo que no consideró Phillips/Sony cuando definieron este estándar es que estos filtros generan un efecto indeseado, y más exagerado a más violentos (verticales) sean: retrasan o adelantan los armónicos de la señal compuesta, lo cual produce el efecto de "ringing" en la onda EN EL TIEMPO. Así, en vez de reproducir un pulso instantáneo, ese pulso es antecedido de vibraciones previas y posteriores al pulso mismo. Efecto que se mide en microsegundos (uS). En el redbook ese pre y post ringing combinado es del orden de 2000 a 5000 uS (dependiendo de que tan estricto seas en definir la amplitud inaudible de ese ringing- ver gráfico-). El oído humano, según investigaciones universitarias de muchos lados (principalmente Jasón) puede separar eventos asumibles tan cercanos como 8 a 10 uS. El efecto audible de este ringing es que los sonidos quean "fuera de foco", algo parecido a lo que pasa cuando no has regulado bien el lente en una fotografía. Con lo cual se explica la ÚNICA razón audible por la cual vale la pena desgastarse con archivos de mayor resolución: ya sea a) desplazar más adentro este filtro brickwall; o mejor aún, b) dejar de usar un filtro brickwall y reemplazarlo por uno más extendido. a) es solo medianamente efectivo porque igual el efecto brickwall contamina, menos pero lo hace, el espectro audible. Esto es lo que creo que sucede con los formatos hires estándar (un flac 24/192 por ej). b) es mejor, pero no soluciona por completo el problema, pues si duplicas el sampling (24/88), solo has ganado una octava; si lo cuadruplicas (24/176), has ganado dos: en vez de ser un filtro de 300db/octava, será uno de 75 db/octava. Mejor, pero aún insuficiente para eliminar el problema: Para no alargame más (casi una broma con lo largo que ya está esto), eso es lo que mejora el MQA. Evita casi por completo el "ringing" en los archivos digitales. Para hacerlo debe intervenir tanto en etapa de creación del archivo (ADC) como luego en reproducción (DAC); y vincular los filtros usados en ambos lados. Cuando la situación es ideal, el MQA reduce el ringing a 10a 20 uS (si el master era digital), y a 3 uS( si era análogo), como muestra el siguiente gráfico:
  9. Claro. Yo lo que sugería probar justamente es música clásica: bajando los archivos del Test Bench en varios formatos que proveía el sello 2L Recordings... pero... acabo de cachar que lo bajaron y ya no están disponibles. Si te interesa hacer esas comparaciones, creo que en algún momento bajé varios de esos archivos y te los podría buscar y mandar. Son además todos grabaciones extraordinariamente buenas en calidad de audio (de hecho, creo que ese sello podría calificar como el de mejor calidad grabada que conozco). Personalmente la principal razón por la cual me gusta el MQA (aún stremeado por Tidal) es justamente por las razones que citas: escucho en él más espacialidad, soundstage y un "foco" más nítido de lo que escuchas. Por lo demás la explicación técnica de lo que intentan hacer apunta justamente a eso (mejorar transientes, cuyo principal efecto es precisamente eliminar la "borrosidad" de la reproducción, posicionando más nítidamente las cosas en el espacio virtual recreado y eso es especialmente notorio cuando debe coordinarse lo emitido por dos canales, que en conjunto definen donde ocurre en el espacio cada evento sonoro). Pero bueno, tb puede ser que tengo equipos mucho más rascas que los tuyos... "poco resolutivos" me los calificó un forero hace un tiempo. Y si, también he escuchado diferencias enormes entre distintos transportes.
  10. No @Patagonia, no creo que sea chacrearlo. De hecho esta discusión va directo al hueso emho. El fondo del asunto es que cuando evaluamos tal o cual formato, y nos basamos para ello en lo que podamos obtener por streaming, no sabemos realmente qué estamos evaluando, porque no sabemos hasta donde es el propio streaming el que está "ensuciando" el formato. No estoy seguro que el audio se transmita en tiempo real. Por varias razones: - Estoy casi seguro que cualquier software de streaming o portal a ellos (tipo Roon) manejan buffers de gran tamaño, que les permite simular asincronía de un proceso intrínsecamente sincrónico (ese buffer podría atrasar el inicio del flujo algunos milisegundos, lo cual es completamente irrelevante). En un hardware leyendo un disco eso sería inútil, ya que lo único que no puede hacer ese hardware es re-leer el disco. Si el paquete de información desde el transporte se capturó (leyó) con errores, lo mejor que puede hacer el hardware es intentar corregir o minimizar esos errores, pero no re-leerlos una y otra vez hasta que lleguen bien, que es lo que por protocolo hace cualquier transmisión por internet. - Pero aún si ese buffer no existiera, entiendo que la la tasa de transmisión de internet, aún en una conexión penca de unos 300 KBytes de bajada, es unas 50 veces más grande que la densidad de data de un 16/44 (y sin comprimir). Esto significaría que el paquete puede ser reenviado 50/overhead de la solicitud sin alterar el timing de reproducción. Digamos, por poner una cifra, unas 20 a 25 veces antes que exista un problema de sincronía. Aún así a veces hay errores. Si la conexión es penca, el streaming falla (a mi me pasa de vez en cuando, y con fibra de enorme ancho de banda, mucho más que esos 300Kbytes del ejemplo). Pero esos errores son evidentes errores de transmisión (ruidos, abiertas distorsiones, o de frontón se interrumpe el flujo) y no asignables a fallas de calidad del formato, obviamente (que igual puede que las tengan, no existe nada perfecto en este mundo, ese es otro punto). El problema del ripeo que mencionas, emho no hace más que enfatizar lo que argumento: al ripiar estás usando un proceso inherentemente sincrónico (lectura del CD) donde si hubo una falla no hay como corregirla. Y menos con un software barato o gratis, que está a años luz de la sofisticación de un hardware dedicado tipo dCS o similar para "tratar" de garantizar la mayor perfección posible. Con todo efectivamente es posible, como dice @ap1978, que - generalmente- un disco físico (CD o mejor) suene mejor que cualquier streaming (dejemos la duda abierta, no estoy 100% convencido que esto sea necesariamente una ley). Pero eso no es porque la tasa de falla en la lectura sea menor; por lo comentado arriba es altamente probable que de hecho sea mayor. La explicación entonces que especulo para estas diferencias (streaming vs disco físico) es que son los algoritmos propietarios de cada streaming (necesarios no solo para optimizar la transmisión, sino garantizar la inviolabilidad del contenido) los que generan esta degradación, y no el formato mismo. --- Ahora volviendo al MQA, el problema es más complejo aún: por un lado el formato como comentaba antes es menos tolerante a fallas porque tiene data incrustada además de la propia música; y por otro lado está el asunto del origen desde el cual se preparó el archivo (el MQA desde el master original; el CD desde el "sub-master" procesado para hacerlo compatible con el formato/preferencias comerciales). Aún si comparas la versión solo-calidad-cd (sin desdoblamientos) del MQA vs un CD normal, no estás realmente comparando la misma información de base. Para emitir esos juicios de valor absolutos a que algunos son dados respecto de tal o cual formato, primero uno debiera aclarar si ese formato suena mejor en su fuente física (MQA-CD por ejemplo) vs su versión Streaming. Dilucidado eso, y suponiendo que el medio físico gana, entonces habría que comparar medio físico vs medio físico y ver solo allí cuál suena mejor. Y aún allí, queda la duda de la fuente usada en uno u otro. Los tipos que generan alteraciones (compresión dinámica es la más obvia) no lo hacen porque sí: saben de las preferencias auditivas de la gente. Estoy casi seguro que si hiciéramos un test a ciegas, hay una posibilidad cierta que un archivo comprimido dinámicamente (como casi cualquier CD) gane en votación a uno que no lo es. El master original por definición nunca está comprimido. El formato comercial un CD frecuentemente sí lo está. Y eso es hablando solo de un aspecto , el rango dinámico, hay varios otros más involucrados.
  11. Si, te lo entendí, pero es lo que yo dudo (sin estar 100% seguro en todo caso). Si el Mac o windows no procesaran el archivo bit-perfect, entonces los propios software y más aún la data transmitida tendría que tener tolerancia a esa imperfección, y hasta donde sé, no la tienen (por eso el paquete IP se retransmite n veces hasta que llegue perfecto). O si no, en el campo del nombre en un registro de una base de datos te llega "Alberto" como "Alberta"... le cambiaste el sexo al perico! La mansa cagadita que podría ocurrir... Ah.. ok: lo que dices que al procesar varios hilos, el S.O. podría mezclar cosas. Ya no sería un problema de transmisión internet sino de procesamiento de la CPU. Sorry, pero también me parece extremadamente improbable. Aunque puede ser... pero aún si lo es, estoy seguro que un error de incidencia de varios decimales menor que el más preciso hardware de un streamer.
  12. Hola Carlos, gracias por el ofrecimiento! Como decía, no tengo claro que mi antiguo CD player (Sony XA-50-ES) lea en 24 bits, pero si me lo puedes mandar feliz lo intento! Y me serviría como excusa para hacerme de un transporte si no resulta... jaja.
  13. Por supuesto, la transmisión va con corrección de errores (supongo que como cualquier paquete IP, eso es independiente de quién los esté mandando). Mi hipótesis es que los streaming ANTES de ello compactan/procesan el archivo para hacerlo compatible con sus protocolos que ahorrarían ancho de banda (y eventualmente protegen al archivo de pirateo en la transmisión). Y claro, como dices además estarían las normalizaciones de volumen, etc. Por supuesto todo es una mera especulación, no tengo como probarlo. Además está el asunto que el MQA en particular es especialmente susceptible a que se transmita sin alteraciones, dado que no es solo música la que contiene el archivo (que tiene cierta tolerancia a errores), sino tiene incrustado data (que no tiene esa tolerancia). Eso contradice mi especulación, pero por otro lado es un hecho que quienes han comparado SI encuentran que suena mejor accediendo al archivo MQA directo (archivo o MQA-CD) que a través de un streaming. Quizás una prueba buena es comparar no necesariamente mediante MQA-CD sino bajando los distintos formatos de la pagina de ejemplos de 2L Recordings. Lo hice alguna vez y si encontré que el MQA sonaba mejor que los otros, aunque en algunos temas la diferencia era casi imperceptible. No te entiendo @Patagonia el por qué si usas una computadora como streamer podría colorear o procesar la señal (inc luso lo encuentras "súper probable"). A menos que lo hiciera el software (Tidal, QoBuz, o incluso Roon, por ej), el paquete que recibe el Mac o pc es igual a cualquier otro paquete de data; no solo no debiera colorear, lisa y llanamente no puede hacerlo. Personalmente soy un convencido que un Mac/roon/dac es mejor, o incluso mucho mejor solución que el más sofisticado y caro streamer, que realmente no veo por donde podría mejorar nada (audiblemente, y en interface son mayores aún las ventajas del pc) de lo que ya hizo la solución pc/Mac. Palabra clave: "ROON" En todo caso el fondo del asunto es que no son los formatos los que necesariamente suenan más mal, sino la forma en que se transmiten o las eventuales anomalías de tu receptor.
  14. Puede ser (pero habría que probarlo, yo a veces, pero no siempre tengo esa impresión). Pero cuando ocurre es un problema de los algoritmos de transmisión, no de los formatos transmitidos. Es re difícil captar esta sutileza, y cuando muchos escuchan un CD y luego el streaming , le echan la culpa al formato (MQA suele ser el puesto en el banquillo), sin darse cuenta que el problema no sería el formato, sino la forma en que se está transmitiendo. EMHO. Desde mi punto de vista es bien curioso el problema, pues los algoritmos de corrección de errores de transmisión por internet debieran ser mucho, mucho más precisos que cualquier corrección de jitter o similar que aún el hardware más sofisticado pudiera hacer (lo cual es bastante lógico: la internet es asincrónica, la lectura de un CD en cambio es sincrónica, no hay tiempo de correcciones o re lectura de paquetes). De lo contrario ningún software funcionaría, donde basta un error en un bit para que todo se vaya al carajo. La música es mucho más tolerante a errores que el software, y sin embargo es más afectada por la transmisión. Al final de cuentas, dado justamente esa mayor tolerancia a errores de la música, creo que es simplemente un asunto de ahorrar ancho de banda para los streaming, lo cual es una segunda curiosidad en este problema, dado que tantos postulan que reducir el tamaño del archivo hires (como lo hace MQA) es irrelevante en estos tiempos. Esta degradación sónica de los streaming (para cualquier formato, no para MQA) es la prueba que esto sigue siendo MUY relevante.
  15. Tengo pendiente esa pega (reproducir MQA-CD; no tengo discos MQA-CD ni estoy seguro que mi antiguo CD player usado como transporte lea 24 bits y no solo 16 bits). Pero estoy casi seguro que no es como dices @PATTON64. Bastaría tener un reproductor de CD 24 bits (cualquiera moderno en resumen) usado como transporte para que el DAC MQA sepa interpretar la información "escondida" del formato en un archivo 24/44 estándar de un CD. Simplificando groseramente, la información "escondida" o "encapsulada" del MQA (que después se desdoblará para lograr un archivo hires) está en los 8 bits adicionales del formato de 24 bits. El MQA en vez de usar ese espacio para ganar más headroom de los ya enormes 96 db que da el redbook (16 bits; dado que nadie, absolutamente nadie puede escuchar más que 96 db de headroom, ganar más headroom es un ejercicio teórico digno de los tuercas de AudioScienceReview, pero sin consecuencias prácticas); MQA ocupa en cambio ese espacio bajo el "piso de ruido" o "umbral de ruido" para grabar la información extendida (sobre 22 Khz; hasta teóricos 352Khz) que el DAC MQA entenderá como tal y entonces desdoblará dos o tres veces hasta lograr el formato fullHD desplegado a 88, 96 o hasta 352K dependiendo de la fuente [el master] usada para esa grabación. Si en cambio el DAC no es MQA, ese piso de ruido se entiende simplemente como ruido, igual que cualquier CD. Creo que los MQA-CD debieran sonar mejor que el streaming por Tidal, porque los algoritmos de transmisión de los streamers ensucian algo la señal (por eso tb creo que hay diferencias en calidad solo CD entre Tidal y QoBuz -si, las hay-, y no porque la calidad solo CD embebida en el formato MQA sea audiblemente inferior). Por allí discutimos en algún momento que en efecto los tipos que han reportado esto (comparación streaming MQA vs MQA-CD) han escuchado mejoras obvias.
  16. Sugiero no armar tanto cuento con lo de las intervenciones de algún forero. Todos nos equivocamos a veces y nos dejamos llevar por nuestra agilidad en el teclado... Volviendo a Tidal / MQA, otro datito para los interesados en la música y su sostenibilidad (ya que ha sido otra crítica permanente al formato..., la supuesta avaricia de los MQA para llevarse la torta del negocio de distribuir música... y que harto poco les ha resultado en vista de sus estados financieros): Los artistas necesitan con Tidal 4 veces menos streamings de sus fans para lograr el mismo ingreso que con Spotify. Y es de hecho la plataforma de streaming que más le paga a los artistas. Más incluso que Apple, que se suele pavonear de su fair play con los artistas.
  17. ¿cómo!? Según el video debieras escucharlo mucho peor que el peor MP3...!! Y para aumentar la ofensa, gran parte de los DAC más caros del mundo, que cuestan más que un auto de lujo (dCS, Weiss, matrix, etc)... insisten en darle sustento al formato. Y los editores de las dos revistas -entre otras- más famosas del mundo (Jim Austin y Jason Serinus de Stereophile; Robert Hartley de The Absolute Sound (*)) son hinchas fanáticos del formato, que consideran que podría ser la revolución más grande en tecnología digital en décadas. Ese famoso video es el hoax hecho audio como creo no ha habido nunca otro igual. Eso en mi modesta opinión, por supuesto. Hay literalmente cientos de posts (la mayoría míos...) en el foro intentando explicar por qué este test es mal concebido, es técnicamente absolutamente erróneo y de frentón mal intencionado. Pero todo un éxito comercial: su autor (Golden Sound, nombre real nadie lo conoce; y antes Archimago, que anduvo por el mismo camino en otro video similar anterior) se han hecho literalmente rico con él. (*): ya sé, ya sé... unos vendidos... en desmedro de sus otros auspiciadores, y mojados por una empresa que en cerca de 8 años funcionando no ha tenido un solo año en números azules...
  18. Tanto tiempo en el foro y me había perdido este hilo... como está medio fome últimamente, pastito para polémica.... El parlante del año 2022 según la Stereophile es este, un "dual concéntrico" (uni-Q). El KEF Blade 2 Meta. Con precio para el nivel "módico" de US$28.000, fue escogido por sobre parlantes que pasan del medio millón de US$. Los woofer, en este parlante 4 unidades laterales con cancelación de fuerzas, no cuentan como traición al concepto pues los bajos son omnidireccionales hasta los 180-200 hz aprox. En este los cruzan a 450 hz, pero están configurados de forma que su "centro acústico" coincida con el del driver uni-Q, relevante en esa octava a octava y media entre 180-450 Hz donde si puedes empezar a discriminar procedencia del sonido. Que sean omnidireccionales significa que no puedes discernir de donde vienen, por lo cual es irrelevante concentrarlos en un punto. Esa es mi crítica fundamental a los enormes Tannoy, porque hacen un enorme esfuerzo en hacer coherente en fase lo que no necesita serlo (de cerca de 20 hz a 20Khz), y para ello se compran otros compromisos: está archi estudiado que la integración coherente en un punto ("point source") es más efectiva a más chico sea el cono exterior, por diversas razones largas de abundar ahora. Por eso KEF NUNCA (o al menos desde hace muchos años, al principio creo que hubo algunos de 8") hace parlantes uni-Q de conos grandes. El parlante grande además por definición es de mucho más masa y por tanto de menor agilidad en transientes. En los Tannoy además se trata de conos de papel de enorme tamaño, donde es muy difícil (sino imposible) lograr una absoluta rigidez (indeformabilidad) de la superficie del cono. Sospecho que lo que hace Tannoy es controlar esa deformación para que sea una distorsión "agradable", básicamente de segundos armónicos. Todo esto es tecnología de fines de los años 40, de antes del primer computador. La razón fundamental del parlante concéntrico es lograr uno de los dos ideales de propagación de sonido de un transductor: acercarse en lo posible a ser un perfecto "point source" (el segundo ideal es un "Line source"). Con ello se logran dos cosas: a) que el sonido sea lo más cercano a completamente coherente en fase, y b) obvio, que el sonido emane desde un solo punto virtual en el espacio. Los beneficios sonoros de ello son una mucho mejor holografía y en general reconstrucción espacial de lo grabado. Al hacerlo además con un parlante "chico" se logra el punto a favor adicional de excelente resolución de transientes, lo cual es clave también en la definición espacial, pues es una de las cosas que permite "posicionar" los instrumentos establemente en el espacio. Para lograr ese ideal del point source además no debe interponerse la superficie del gabinete en la emisión de la señal; por eso el Blade tiene esa forma de pescado (y en el LS50 su frente es una sección de esfera); y el gabinete mismo debe ser tan rígido que no emita coloraciones; por eso de nuevo la forma curva que aumenta la rigidez del gabinete. Nuevamente acá el contraste con Tannoy, que tienen siempre un frente enorme y anchísimo, y más encima lleno de decoraciones que difractan el sonido. A pesar de todo eso suenan muy bien (aunque nunca he escuchado ni de cerca en ellos la holografía de algunas KEF), pero a qué costo... Desde mi parecer, el Tannoy es un excelente parlante "llenador" de espacio y excepcional reconstrucción de "escala" en una grabación sinfónica por ejemplo, pero menos destacable en una reconstrucción espacial precisa, que supuestamente es el objetivo #1 de hacerlos concéntricos. También es clave "guiar" la onda del tweeter para evitar conflictos con la superficie del rango medio. En los uni-Q de KEF eso se logra con el "tangerine" (las aletas del tweeter), la guía de nervaduras de la superficie del cono, y la forma del fuelle de suspensión del encuentro del cono con el anillo exterior (y en el Blade, ese faldón negro que rodea al uni-Q tb). Por supuesto hay varias otras cosas, pero las nombradas creo que podrían ser las más relevantes.
  19. No me pescaron mucho con este disco cuando lo postié hace unos meses, así que acá va de nuevo, ya cerrando el año: Oded Tzur- Isabela. En mi lista corta de los discos del 2022. Hay tres o cuatro de jazz entre los salidos este año que a mi gusto le compiten... pero si me preguntan, este es el primero que citaría.
  20. Quedas cordialmente invitado a escucharlas cuando lleguen; espero que sea en 5 a 6 semanas. Entre ellas viene las 3.7i, que es un monstruo que creo que tiene poco que envidiarle a cualquier parlante, no importa el precio.
  21. Bueno, como abrí el tema... y como saben con mis opiniones contaminadas por intereses (KindOfSound), lo cierro con el hallazgo de lo que inició el hilo: traeremos en las próximas semanas los fenomenales amplificadores Rogue Audio, los que según la propia Magnepan son el match perfecto con sus parlantes. Esto por su enorme potencia ya sea con tubos o híbridos, su soporte de bajísimas impedancias, la capacidad de su fuente de poder y almacenamiento de energía, su alto factor de damping, etc. Amplificadores pensados para manejar cargas "difíciles" y desde siempre idolatrados entre conocedores por su dulzura y musicalidad. Estamos subiendo fichas de algunas unidades en el hilo de KindOfSound en la zona de auspiciadores. Y ojo que están en precio hiper promocional solo durante diciembre.
  22. Cuando se pensaba que la ley de Moore estaba obsoleta, la AI la ha acelerado: en vez de duplicar capacidad de cómputo cada 18 meses, en la actualidad esto está sucediendo cada... 6 meses. Ya no son los chips no más (tb lo son), sino los paradigmas de software. A fines del 2017 Google presentó el Alpha 0 aplicado a ajedrez. Programa que partió de 0 -apenas con las reglas de movimiento de las piezas-, sin siquiera un libro de aperturas o finales, con 4 horas!!! de auto entrenamiento llegó a un nivel de juego que jamás nadie (ni siquiera el programa campeón Stockfish) había logrado. Virtualmente reinventó un juego que se ha practicado en serio desde el año 1400 aprox. Las partidas del match que jugó contra Stockfish (ganó 28 partidas, 72 empates, 0 derrotas; y el stockfish ya le saca la cresta a cualquier humano), hasta el día de hoy son analizadas. En una partida, por ejemplo, apenas iniciado el medio juego... con todas las piezas grandes aún en el tablero, atacó con el rey!! y poco después tenía totalmente ganada la partida. Si cualquier humano hiciera eso, se reirían de él por principiante... Ese programa tenía una capacidad de cómputo de 1.7 petaflops (*). 4 años después, los programas de AI actuales procesan 2700 petaflops. Casi 1500 veces más.... (*): incluso más interesante que esta capacidad de cómputo es cómo Alpha Zero los usa: Mientras el árbol de búsqueda de Alpha 0 barría 80 mil posiciones por segundo, el de Stockfish barría 70 millones. Viendo casi 1000 veces menos jugadas... le sacó la cresta! Yentonces, miren en qué va esto ahora. El último pronóstico informado: para el año 2040 (en 18 años más...) la AI tendrá mejor performance en cualquier materia que el humano más superdotado. https://ourworldindata.org/brief-history-of-ai
  23. Interesante off topic en todo caso. Si, algo había leído de esto tb, que es importante hasta cierto valor y de allí en adelante irrelevante. Quizás lo que cambia acá es que a diferencia de cualquier driver dinámico, los parlantes planares prácticamente no tienen masa, y eso podría hacer más importante el control del driver por el amplificador. En un cono cualquiera, el conjunto de los fuelles, materialidad del cono, cuello y bobinas, o incluso puede que hasta el roce y turbulencias con el aire del movimiento más amplio de ese cono, o sea todo lo que debe moverse crea una inercia de movimiento que después de cierto punto sería algo irrelevante lo que el amplificador pudiera controlar con el damping (*); y en efecto -como dices- una cosa notoria es que en muchos parlantes el tiempo de caída es artificialmente largo (especialmente en bajos), haciéndolos "fofos" de sonido. Pero también creo que el ataque -por las razones anteriores- salvo contadas excepciones tiende a ser lento, y es una de las principales razones creo yo de lo "artificial" o poca naturalidad del sonido de muchos parlantes de gabinete (la otra, claro, es el hecho mismo del gabinete, con sus coloraciones, resonancias, difracciones inducidas en su superficie, etc). En el film de un planar en cambio, a más control tenga el amplificador sobre como se moverá este film (que no le ofrece resistencia, y no tiene inercia), mejor el resultado. Al menos la gente de Magnepan me hizo ver que el damping es un factor importante en la selección de amplificadores; dudo que estén chamullando, ya que es un hecho que algunos amplificadores -por buenos que sean- guatean con estos parlantes, mientras otros andan excelente. En todo caso, sobre la disquisición que el damping sea mayor en bajas frecuencias que en las altas me parece que en principio es natural que así sea: la energía contenida en una onda disminuye exponencialmente a medida que aumenta la frecuencia (la energía contenida en una onda de 10 Khz debe ser inconmensurablemente menor a la de una onda de 100 hz); sumado a esto, la música misma (los armónicos de cada nota de cualquier instrumento) son tb de magnitud decreciente... o sea, la onda de frecuencias altas que ya tiene una cantidad de energía insignificante respecto de una baja, además es de menor amplitud en cualquier contenido musical. Por lo tanto, el problema de control del driver es ordenes de magnitud mayor en frecuencias bajas que altas... es al menos mi tufo intuitivo. (*): en algún lugar leí una observación muy interesante al respecto: en un cono, el driver moviéndose pesa muchísimo más que el aire que mueve en frente suyo; en un parlante de film (magnetoplanares o electrostáticos) que son naturalmente de gran área (por eso las maggies son tan grandes), ese film pesa menos que el aire que mueve. Por eso los planares tienen tan buena respuesta de transientes, cosa que es MUY notoria auditivamente.
×
×
  • Crear Nuevo...